AIR Newsletter Vol.1, No.3

JAPANESEENGLISH
pdficon_large AIR Newsletter Vol.1, No.3

人工知能が浸透する社会を考えるワークショップ第三弾 報告

はじめに:2014年度を振り返って

始まりは、2013年度末に世に出た一枚の絵だった。その絵が世間を賑わしたのは1か月にも満たなかった。しかし、それをきっかけとして、このワークショップや研究グループが形成されたのも事実である。「人工知能が浸透する社会を考える」というテーマで、人工知能学会9月号に小特集を組むことで、本研究グループのコアメンバーが集まった。これで終わりにせずに、とりあえず問題を理解するためのワークショップを2014年度中に3回開催しようと関係者に声をかけ始めたのは2014年の7月半ばだった。手探りで始めた活動だったが、これは今まさにやらなければならないプロジェクトだとの確信は皆に共有されていたように思う。海外でも、2014年にスタンフォード大学がAIと未来社会に関する研究プロジェクト(AI100)を立ち上げたほか、ボストンを中心に活動をするネットワーク団体The Future of Lifeも研究助成プログラムを立ち上げた。その意味で2014年度は、人工知能の浸透する社会についての再考が始まった年であったともいえよう。立ち上げとなった第一弾(9月)、科学技術社会論学会での議論を行った第二弾(11月)に続き、区切りとなる今回のワークショップ第三弾では、本研究グループが来年度以降、どのような問題意識を持って研究会を重ねていくのかの議論が行われた。

第3回WSの概要

ws3-3

2015年2月24日(火)の13時から21時近くまで、京都大学白眉センター2階にてワークショップを行った。第一部は、最初の3時間を使って3名の研究者の方に話題提供をいただいた。まず、音声認識が専門の駒谷和範氏より、「最近の音声対話システムの進展と社会との関わり」というタイトルでPepperやSiriなど最近の技術を例に、技術と社会の関係について紹介いただいた。次に、大家慎也氏より、「人工知能をより善く設計し,より善い社会をつくる─媒介理論からのアプローチ」というタイトルで主にVerbeekの議論に依拠しながら、人工知能の設計論についてお話いただいた。最後に、大谷卓史氏より「人工知能が浸透した社会の情報倫理学」というタイトルで情報倫理研究の最前線について、最近の技術やSF作品を参照しながらお話いただいた。コーヒーブレイクをはさみ、第二部では来年度以降の本研究グループAcceptable Intelligence with Responsibility (AIR)の活動計画についての議論が行われた。約8時間にわたる議論のうち、本報告では個別の話題提供ではなく、主に質疑応答や議論から浮かび上がってきた議題を簡単に紹介する。

本研究会の目的

2014年から2015年にかけて、人工知能の社会的影響や危険性を考えさせるような映画が上映されたほか、企業家でありエンジニアでもあるイーロン・マスク、マイクロソフトのビル・ゲイツ、理論物理学のスティーブン・ホーキング博士などの著名人が、人工知能の未来へのビジョンや不安などをtwitterやテレビなどのメディアを介して一般に発信する機会を多く目にした。またアメリカでは、2014年3月にボストン(MITやハーバード大学)を中心としてボランティアベースのThe Future of Life Institute(FLI)が、同年12月にはスタンフォード大学でOne Hundred Year Study on Artificial Intelligence (AI100)が設立されるなど、人工知能の発展と人類の未来社会について考えるプロジェクトが推進された。特に英米においては、人工知能が暴走してしまったら人類の未来はどうなるのかというシンギュラリティ的観点からの議論が強いように見受けられる。専門家ではない立場からすると、そのような発言が飛び交っていると、「技術的に今とんでもないところに来ているのではないか」と考えてしまうのだが、実際はどうなのだろうかという質問があった。実際は、人工知能が暴走して人間がコントロールできなくなることは、すぐに実現するわけではない。SFなどの影響で、世間の反応が過剰になるほど、技術者自身はそれを冷めた目で見ているのかもしれない。しかし「シンギュラリティ」のようなことは、まだ当分起きなくても、すでに様々な技術の萌芽はある。「技術が未来を変える」という技術先行的・技術決定論的な観点だけではなく、実際今どのような技術ができつつあり、またそれを取り巻く社会・経済・文化的環境との相互作用はどのようなものなのか、足元を見据えた議論をしていくことが重要である。そのため、様々な分野の研究者と協同しながら、未来が「どうなるのか」ではなく、我々自身は未来を「どうしたいのか」を、技術を過小評価することなく考えていくことが大事であり、それを行なっていくための土台を作っていくという本研究会の目的が再確認された。

人工知能と責任問題

ws3-2

人工知能の課題を考える上で問題が起きた時の責任は、誰がどのようにとるべきなのかという問題は大きい。アシモフのロボット三原則のように、人工知能における原則の必要性が言及されているが、ロボットのように「ハード」を持たず物理的に目に見える損害を起こすものではない人工知能の課題をわかりやすく原則化したものは少ない。たとえば、人工的なエージェントに関しては、応用倫理学者であるJohnson & Noormanが次のような原則と勧告を提案している。
 原則 :人工的エージェントの行動の責任は人間が負うべき
 勧告1:人工的エージェントは人工物と社会的実践の構築物であって、それらの相互作用を通じて特定の課題を達成すべく編成されていると理解すべき
 勧告2:責任問題は人工的エージェント技術の開発初期段階で扱うべき
 勧告3:人工的エージェントが自律的であるという主張は、法的、明示的に特定されるべき
 勧告4:人工的エージェントの責任問題は責任の「実践」という観点から扱うのが一番良い

誰のための技術なのか

今回のワークショップでは、音声認識という技術開発、テクノロジーの価値や道徳性、そして情報倫理学の現状と課題についての話題提供が行われた。それぞれの話題と質疑応答は興味深いものであったが、そこで議論されている技術とは、誰のための技術なのかという視点が重要であったように思う。 たとえば、音声認識などでは、会話の規範(一時にしゃべるのは一人であるべきだ)などをもとにモデル化が行われる。研究者は「だいたい皆こういう規範に従っているから、会話が滑らかに行われる」という観点を抽出しプログラム作成する。そのため、人間を対象とした研究というのは、マジョリティの規範やルールを(ある種無自覚に)研究し、それをモデル化しているといえよう。しかし、それが実際に世の中に普及すると、マイノリティの人たちにとっては想定されなかった問題や、あるいは逆に秩序などが生み出されることもある。人工知能のように社会に浸透してインフラとして使われる可能性の高い技術は、技術の開発段階からの社会的影響を考える上でも、その技術は誰のための技術であるのかという観点からも、多様なアプローチが必要ではないかとの指摘が行われた。

学会の社会的な役割と責任

学会には学会員が順守すべき倫理綱領や行動指針が定められていることが多い。しかしその指針はどれだけ会員に周知されているだろうか。自分の所属している学会の綱領を聞かれて、答えられるだろうか。たとえばプライバシー的観点から問題があるとされるような技術開発、あるいは業務を発見した時、その技術や業務は学会の倫理綱領に抵触するという名目で問題を指摘できるなど実質的なものとして浸透しているだろうか。また、倫理綱領に抵触した技術や研究者に対して、学会が処分や制裁を下すことはできるのだろうか。もしくは、倫理綱領にさえ従っていれば、学会が研究を擁護してくれるなどのセーフネットとして機能することは可能なのだろうか。少し背景は異なるが、Winny(ウィニー)事件など裁判になることで、技術研究そのものが遅れをとってしまうような事態を避けるために、学会が果たせる役割とはどのようなものだろうか。学会の運営は研究者のボランティアによるところが大きいため、負担を増やすことは難しく、また特定の研究活動を禁じるような実行力を持たせるよりは態度の表明がせいぜいであるとする意見もある。

一方で、新技術の経過措置としてもセーフネットを用意することを考えることも可能ではないかとの議論が行われた。セーフネットの1つの在り方として、査読システムへの倫理規範的観点の導入の可能性について議論が行われた。現在、論文の審査基準に、技術の倫理的な配慮という項目がない場合は、積極的に倫理的な配慮をしようとするモチベーションが働かず、現場の研究者の自覚を促せない。しかし、最終的に倫理的に問題のある技術について書かれた論文が査読を通り出版され、万が一社会から問題提起が行われた場合、その査読を通した学会本体にも責任が問われる可能性がある。表紙問題などはその1つの例であろう。そうならないためにも、トップダウンではあるが、査読の評価軸の一つとして倫理的な配慮について指摘できるような項目を取り入れていくことはできるのではないかとの議論が行われた。

評価に要する時間間隔の相違

ws3-1

実際に、技術の社会的影響調査について開発段階からの問題洗いだしを行おうとして、うまくいかない場合、どのような理由があるかの議論も行われた。その中で研究者間での評価に要する時間間隔の違いが指摘された。ある新技術の影響評価を外部機関に委託するとしよう。その影響評価の審査が1年で終わると言われた場合、あなたはそれを短いと感じるだろうか長いと感じるだろうか。委託された側は、その技術を世に出すときの責任を負うため、倫理的、法的、社会的、経済的などあらゆる観点からの評価をするため1年は妥当であると考えるかもしれない。しかし、開発者側からすると、学会や研究費の報告書など成果発表に出すことを考えると、審査が1年待ちと言われたら、長すぎると言わざるを得ないかもしれない。共同研究がうまくいった1つの例として、ロボットの社会実験調査を3.5か月行った研究がある。ロボットの影響評価でこれだけ長期的に行われたものは珍しいという。今後人工知能の影響評価を行う時も、何を目的とした影響評価でどのくらいの時間がかかるのかなどに関して、相互の意識のすり合わせが必要となってくるだろう。

これまでとこれから

冒頭の「はじめに」でも述べたように、2014年は人工知能と社会についての話題が噴出した年であった。2014年1月号表紙に関する議論を受け、人工知能学会は3月号で表紙問題に関する小特集を組み、6月には倫理委員会が発足した。他学会においても、議論が展開された。表象文化論学会においては、7月に「知/性、そこは最新のフロンティア-人工知能とジェンダーの表象」というテーマで、11月の研究集会では「人工知能とジェンダー」ワークショップ開催された。また、日本SF大会で行われたニコニコ学会βの特別セッションでは「人工知能キャラクターとの付き合い方をデザインする~人工知能の作る未来社会」というセッションが組まれた。

我々の2014年度の活動は「はじめに」に記載した通りである。2015年度も更なる議論を継続していく予定であり、4月に韓国ソウルで開催されるCHI2015、東北大学で開催される応用哲学会、5月に函館で開催される人工知能学会などすでにいくつかの学会での共同発表やワークショップが企画されている。また、国立情報学研究所の研究企画会合公募に採択されたこともあり、今後も積極的に共同研究と情報発信を行っていく予定である。

REPORT:
3rd Workshop on Our Society with Ubiquitous AI

ws3-2

On February 24th 2015, we held the 3rd WS at Hakubi Center, Kyoto Univ. The last workshop in 2014 fiscal year started with talks from three researchers. The first speaker, Prof. Komatani (Osaka Univ.), talked about the latest spoken dialogue technologies, and gave his opinion about the relationship between the technologies and society. As the second speaker, Mr. Oie talked about a design theory of AI technologies embedded in human society based on Verbeek’s viewpoint. Thirdly, Prof. Ohtani talked about the latest topics in information ethics research.
After the coffee break, all participants discussed what we (AIR people) should do in the next fiscal year. We found that there are many topics to be tackled. For example…

  • responsibility for behavior of AI-controlled artifacts
  • target of potential AI technologies
  • role in society of The Japanese Society for Artificial Intelligence (JSAI) and its responsibility

We will stay active by studying many intractable research topics in FY 2015.