AIR Newsletter Vol.1, No.2

JAPANESEENGLISH
pdficon_large AIR Newsletter Vol.1, No.2

人工知能が浸透する社会を考えるワークショップ第二弾 報告

はじめに:STSと人工知能

人と「知的」機械のインタラクションに着目したサッチマンのエスノメソドロジー研究や、人工物とジェンダーをめぐるハラウェイのサイボーグの概念、また近年のロボット技術に対するデュアルユース問題への懸念など、人工知能技術・ロボット技術などに対する科学技術社会論(STS)的アプローチの蓄積は少なくない。人工知能研究を含む情報学に対して、科学技術社会論をはじめとする社会・倫理・法学的アプローチを持つ研究者は、開発された技術の評価や、技術を普及するうえで障害となるだろうプライバシーやセキュリティの基準作りなどの実践的・応用的なトピック以外に対して、人工知能研究者とどのように議論してきただろうか。また、人工知能研究者とともに、「知能とは何か」「どのような未来ビジョンを描くか」などのすぐには答えの出ない、しかし考え続けていくことが重要なテーマについてともに議論していくためには、どのようなネットワークや仕組みづくりが必要となってくるだろうか。 このような問題に取り組むため、科学技術社会論学会にて人工知能研究に興味のある方だけでなく、生命科学や原子力、食の問題など様々な事例の研究者に参加いただき、人工知能が浸透する社会の今後について、科学技術社会論の持つ問題意識や取るべきアプローチについて、多角的な視点から議論を行うワークショップを開催した。

第2回WSの概要

2014年11月16日(日)の13:30より大阪大学豊中キャンパスにて30名程度の参加者にお集まりいただいた。まず、ワークショップ企画者3名から30分ほどの話題提供が行われた。最初に江間が、人工知能研究者と人工知能研究に協力してきた人文・社会科学研究者の意識改革の必要性と、それに対してSTSはどのような貢献ができるだろうかを議論したいという、このワークショップの目的を示した。続いて服部氏が、現在、人工知能学会においても「倫理委員会」が立ち上がるなど、人工知能の社会的影響への意識が高まっていることを紹介する一方で、「目に見えない」人工知能技術の社会的影響を議論することの難しさについての問題提起を行った。最後に秋谷氏が、人工知能研究者と共同研究する(あるいは分析屋として雇用された)社会学者というキャリアを持つ自らの経験から、人工知能学会誌の表紙問題などが起きた時、そこに参画していた人文・社会科学研究者は何をしていたのか、また何か発言できる制度や関係性を構築できているのだろうかとの問題提起を行った。残りの1時間はホワイトボードを用いてフロアとの議論が展開された。本報告では議論から浮かび上がってきた論点について、項目別に示す。

表紙問題について

表紙問題は人工知能と社会の関係について考えるきっかけにすぎず、より広く人工知能と社会の問題について考えたいというのがワークショップの意図であったが、やはり最初は表紙デザインについての議論が行われた。まず、表紙にあのような絵が掲げられたということは、そこで社会の価値の再生産が行われることを自覚すべきだという意見があった。また、一般の人が、デザインについての問題提起を行ったことが重要であるとの発言があった。すなわち、人工知能のインタフェースは、人工知能研究者と人文・社会科学者というアカデミックの閉じた関係性の中で議論される問題ではなく、多種多様な人びとが議論に参加していくべきだということを考えさせるきっかけとして心にとめておくべきだとの指摘があった。そのほか、表紙のアンドロイドを見た時に、「このアンドロイドの雇用契約はどのようになっているのだろう」ということが気になったとの発言もあった。表紙デザインをきっかけとして様々な論点を抽出して議論できる環境を作っていくことが大事なのではないかとのいうことが議論された。

人工知能研究とは

科学技術社会論学会員から「人工知能のここ20-30年の進歩というのはどのようなものなのか」という質問がなされた。
 80年代と比べてデータ重視へと移行したこと、また昔は企業がクライアントであったのに対し、今は「みんな」が技術を使える時代になっていること、人間中心の設計から環境や社会中心への設計へと移行しているなどの説明がなされた。また、現在、人工知能技術関連でのトピックとしてシンギュラリティの問題(人間の知能を技術が超える)や、Amazonのレコメンデーション機能など人間の本質や自由意思への影響が話題となっていることが指摘された。目に見えにくい人工知能の影響に関しては「データサイエンティストに気をつけろ」という言葉が示すように、問題の所在が分かりにくいということが指摘された。また、自由意思の問題に関連して、自動走行車など人工知能の判断などに従わなかったときに事故が起きた時の責任、エラーによって事故が起きてしまったときの責任など、多様な責任について考える必要があることが議論された。

誰をどこまで議論の輪に加えるか

誰が人工知能と社会の問題を議論していくべきか、という問題に対しては、アカデミアに閉じずに一般の人もという意見があったが、さらに産業など製造現場の意見も積極的に取り入れていく必要性があるとの指摘なされた。一方で、個人が開発できてしまうという人工知能の特徴を鑑みると、アカデミアと産業を積極的に分ける必要はないのではないかとの意見もあった。そのほか、「目に見えない」人工知能に形を与えるデザイナーの責任はどう考えるべきかという問題が提起された。例えば、「人工知能の問題を提示するとき、人文・社会科学者の論文ではなく、SFやアニメを引用している自分がいる」との発言があった。そのような点を考えると、科学コミュニケーションの現場では、SFやアニメの作り手であるクリエイターも積極的に加えていくべきであるし、彼らの責任についても考えていくべきなのではないだろうかとの提案がなされた。

誰にどこまでの責任があるか

「社会で問題にならない技術や情報の出し方、表現の仕方とはどのようなものか」を、技術の設計段階から人文・社会科学者と積極的に意見交換を行っていくべきではないかとの発言があった。しかし、多種多様の人びとが研究開発や設計に加わってもらうことと、彼らにも開発の責任をともに負ってもらうということは別の問題ではないかとの疑問も呈された。責任はあくまで技術者にあり、共同研究者にはあくまで自由に発言してもらう程度にとどめておくのがよいのではないか、との意見がある一方で、批判だけして責任を取らない研究者を信頼できるのだろうかとの声もあった。共同研究を進めていくことと責任を負うことのバランスの難しさについて、意見が交わされた。

技術へ規制をかけること

倫理は、どういう文脈なら研究が可能かを決めるものであり、研究を制限するものではないという意見もあり、規範的に望ましい観点を開発段階から取り入れていくことが重要ではないかという提案がなされた。また、倫理規範が確立しつつある生命医療の場面ではどのようなことが起こっているかの具体的な例が示された。たとえば幹細胞研究などでは、プライバシー保護といった観点の倫理と、受精卵の扱いなど「生命の定義」に関する倫理的議論が行われている。いずれにしてもアメリカ主導であり、そのような「倫理」があることで研究が行いにくくなっているという現場の声もあるという。人工知能の持つフロンティア精神に制限をかけず、しかし現在問題が起きつつある技術に対し対応を考えていくということが、人工知能の今後の大きなチャレンジになっていくだろうとの議論が展開された。一方で、規制は倫理だけではなく、経済や政治、あるいはどのような職に就いているかによっても研究に関する制約はあり、倫理だけが取りざたされることはおかしいとの指摘もあった。規制の話をするときも、それは政治的に規制をかけるのか、市場取引によって制約がかけられるのかなど様々なフェーズがあることを念頭に置いて議論をしていくことが重要であるとの指摘もあった。

共同研究をいかに行うか

倫理を考えるだけではなく、新しい研究やテーマを発見することも期待して異分野交流を行っているとの発言が人工知能研究者の側からなされた。人工知能研究は伝統的に知能や心を対象にした研究を行ってきているため、人文・社会科学の研究者をプロジェクトに雇用する傾向が高いのは、すでに秋谷氏が話題提供で指摘した通りである。しかし、そこで雇用される人文・社会科学者のキャリアはどのようなものであるのだろうか。道具的・規範的に利用されているだけにならないためにするには、共同研究の在り方を再考するための実験的プロジェクトなどを走らせる必要があるのではないかとの提案がなされた。また、いかにして持続的な異分野コミュニティを構築できるかという問いに対して、異分野融合研究を行っている研究者からは、「そもそも共同研究はうまく行くはずがないので、ダメもとでやっていくべきだ」との声が上がった。一方で、「海外と比較して、共同研究の数が日本では極端に少ない。だからこそ面白い技術が生まれてきているところもあるのではないか」との指摘もあった。

今後に向けて

最後に、今回の話は主に責任や倫理の話が多く、人工知能の発展によって仕事の在り方が変化する、機械による人間の置き換わりが起きるなど産業経済的な変化についての議論がほとんどなされなかったことへの指摘があった。確かに、今回はSTSの枠組みで議論が行われたということで主に倫理や規制、責任の議論と、いかに共同研究やコミュニケーションを行っていくかに焦点を当てて議論が行われた。人工知能と社会をめぐる問題は多種多様であり、次回以降、テーマを労働経済や介護や教育などの現場へと焦点を絞って議論を展開していくことも重要であろう。一方でワークショップに参加いただいた方から、「STSが先回りして社会像を社会に提示する」ことを目的としているこのワークショップはとても意義がある、とのコメントシートをいただいた。その期待を裏切らないよう、今後とも議論と対話を続けていきたい。

REPORT:
2nd Workshop on Our Society with Ubiquitous AI

On November 16th, 2014, we held the 2nd WS with 30 participants at Osaka Univ. (Toyonaka Campus). The workshop started with talks from the organizers, Ema, Akiya, and Hattori, for 30 mins. First, Ema claimed that AI researchers and SSH (Social Sciences and Humanities) researchers, who have worked with AI researchers, have to change their perspective and attitude to secure really useful collaboration, and discuss what the STS (Science, Technology, and Society) community can contribute to the innovation. Hattori then introduced measures of JSAI to address ethical issues, e.g., start-up of ethics committees, and explained the difficulties of investigating the impact of INVISIBLE AI technologies on human society; only recently have some AI researchers noticed the importance of addressing the impact of AI. Lastly, Akiya mentioned his own experience as a sociologist collaborating with AI researchers, and elucidated key problems, such as how to secure the relationship between AI researchers and sociologists to identify faults from the ethical viewpoint.
In the last 1 hour, the points below were freely discussed by all participants:

  • impact of AI journal cover design
  • primary progress in AI research
  • who should discuss issues associated with AI, STS, and SSH?
  • scope of responsibility for issues raised by AI technologies
  • regulation of potential technologies
  • styles of collaboration between AI and STS researchers