2017年7月21日金曜日

2020年には言語理解、30年には執事ロボ…AIの社会経済影響評価まとまる

 人工知能(AI)が社会や経済に与える影響について、総務省情報通信政策研究所での検討結果がまとまった。AIの経済効果は2045年に121兆円に上ると推計。防災や製造業、医療など、16の産業分野ごとにAI化の見通しを示した。生活支援分野では20年ごろにAIが言語を理解し、30年に常識を備えた汎用的な執事ロボが普及するとした。
 「AIネットワーク化検討会議」としてAIや情報科学、哲学、法学、経済学などの有識者36人の議論を報告書にまとめた。経済効果については、AIが生産性を改善する直接的効果だけで日本の生産高を121兆円押し上げる。最低でも44兆円、最高だと188兆円。実質GDPは2045年時点で68兆円増加するという。

各分野20年にイノベーション続々

 防災分野では監視カメラやSNS分析によってテロ発生予測システムが実用化し、27年に災害救助ロボットが実用化する。オフィス分野のAI化は20年にビッグデータ分析やマーケティングが自動化し、25年頃にコールセンターでの自動応答が実現する。製造業では20年に無人メンテナンスやマスカスタマイゼーションが実現、30年には大企業では無人化工場が一般化し、設計リードタイムゼロや在庫ゼロが実現するという。

 現在、国家プロジェクトや産業界では野心的で挑戦的なAI開発テーマが走っている。これらの実用化目標は5−10年先が多いため、20年から30年にかけてたくさんのイノベーションが実現する予定だ。
 そのためロボットなどで生産性が向上し、レコメンデーション機能の高度化で消費が増大するなどして121兆円の直接的効果がある。さらに、労働効率の改善で生まれた時間で余暇産業が拡大、起業しやすくなるため地方経済が拡大するなどの波及的効果があるという。

負の側面も

 こうした社会変化は負の側面も伴う。理系研究者を中心に技術的なリスク、人文・社会系の研究者が法制度や社会的なリスクを洗い出した。
 ・窃盗や詐欺など、あらゆる犯罪がサイバー犯罪化する
 ・多数のAIが連動して意思決定し、そのプロセスが不透明になり制御も難しくなる
 ・AIがユーザーの信念や将来を推測することがプライバシー侵害になる
 ・AIが人間の意思決定を見えない形で操作して個人の自律が侵害される
 ・AIが国の統治に活用され、意思決定プロセスが不透明になり責任が曖昧になる
 など10種のリスクを浮き上がらせた。ただこの社会的な側面はSFなのか、実現性の高いリスクなのか研究者中でも意見は分かれる。リスクを提示した当該研究者にとっては差し迫りつつある問題でも、同じ分野の別の研究者は一笑に付すなど問題意識に大きな幅がある。

答えのない尊厳

 特にAIの知性が認められ、人間のような尊厳を獲得するかどうかは、意見が対立し、幅広い影響のあるテーマだ。AIの工学系研究者は「AIはどこまで進化しても道具」とし、AIの理学系研究者は「AIが人間を超えれば�神�と同じような存在になるはずだ」という。哲学研究者は「人格や尊厳の概念を広げる可能性がある」、弁護士は「人間と人間の集まりである法人以外に権利や責任を認めると、根底から法制度を作り直さなければいけない。いくら賢くても動物は責任主体にならない」など、収拾がつかなくなる。

AI失業対策は

 またAI化やロボット化による技術革新失業と就労支援策、教育施策も精緻な検証はできていない。そもそも雇用状況の変化を技術革新失業とグローバル化のどちらの影響が大きく、また両方が重なることでどの程度影響が拡大するのか踏まえずに問題が提起された。AIに仕事を奪われるのか、AIを使う人間に仕事を奪われるのか、研究者によって思い描く危機像が違う。

 AI失業の対策として国民に生活費を給付する「ベーシックインカム」を主張する経済学者が、その財源や税制として成立するか検証しないまま必要性だけ提起するなど、社会的なリスクについて対策を練るところまで至らないテーマも少なくない。本来は教育や職業訓練にかかる期間やコストと、再就職までの経済逼迫度などを精査して、耐久限界を検証する必要がある。だが異分野からの提案を異分野の専門家が精査するのは難しい。

当面の課題選定

 そこで5−10年で取り組む当面の課題と、議論の動向を見守るテーマに分けた。当面の課題は14件。研究開発の原則や市民のAIリテラシーの育成など、論点と方向性をまとめた。

 AIの開発原則はOECDのプライバシー8原則をベースに作成した。その第一原則に「透明性の確保」を据えた。AIが事故を起こしたときの原因究明や、診断AIのインフォームドコンセントには透明性は欠かせない。ただ現在のAIブームを起こしたディープラーニング(深層学習)はなぜ、そう判定したのか理由や中身がわからない。深層学習の透明化の研究は始まったばかりだ。ブレークスルーとなったAI技術を原則違反で使えないとなると産業界の反発は大きくなるだろう。リスクを計れれば理想だが、リスクの連鎖を含めると、すべてのリスクを洗い出し対策することは不可能だ。AIもリスクも不透明さは残る。どう選んで、どうマネジメントするか、技術開発と運用ルールのどちらもホットな研究テーマになるだろう。

 まとめた14課題は、今後AIの開発や運用について国際的な議論に発展させる。情報通信政策研究所の吉田智彦主任研究官は「議論のたたき台はできたが、一つの国で対策を練っても実行性がない。G7やOECDでの議論につなげたい」という。
 そのために国内で議論や研究の場を整える。成原慧主任研究官は「文理融合のために幅広いステークホルダーを集めると専門家の議論でも収拾がつかなくなる。国内の議論は一般市民の参加を実現したい。そのためには議論のプロセスをうまく整える必要がある」という。AIリテラシーを育成しながら、国内をワンボイスにまとめる挑戦だ。現状、文系と理系に限らず、専門家の間には壁がある。国際的な議論を主導するためにも、日本は一つにまとまれるのか動向が注目される。