2017年7月21日金曜日

2020年には言語理解、30年には執事ロボ…AIの社会経済影響評価まとまる

 人工知能(AI)が社会や経済に与える影響について、総務省情報通信政策研究所での検討結果がまとまった。AIの経済効果は2045年に121兆円に上ると推計。防災や製造業、医療など、16の産業分野ごとにAI化の見通しを示した。生活支援分野では20年ごろにAIが言語を理解し、30年に常識を備えた汎用的な執事ロボが普及するとした。
 「AIネットワーク化検討会議」としてAIや情報科学、哲学、法学、経済学などの有識者36人の議論を報告書にまとめた。経済効果については、AIが生産性を改善する直接的効果だけで日本の生産高を121兆円押し上げる。最低でも44兆円、最高だと188兆円。実質GDPは2045年時点で68兆円増加するという。

各分野20年にイノベーション続々

 防災分野では監視カメラやSNS分析によってテロ発生予測システムが実用化し、27年に災害救助ロボットが実用化する。オフィス分野のAI化は20年にビッグデータ分析やマーケティングが自動化し、25年頃にコールセンターでの自動応答が実現する。製造業では20年に無人メンテナンスやマスカスタマイゼーションが実現、30年には大企業では無人化工場が一般化し、設計リードタイムゼロや在庫ゼロが実現するという。

 現在、国家プロジェクトや産業界では野心的で挑戦的なAI開発テーマが走っている。これらの実用化目標は5−10年先が多いため、20年から30年にかけてたくさんのイノベーションが実現する予定だ。
 そのためロボットなどで生産性が向上し、レコメンデーション機能の高度化で消費が増大するなどして121兆円の直接的効果がある。さらに、労働効率の改善で生まれた時間で余暇産業が拡大、起業しやすくなるため地方経済が拡大するなどの波及的効果があるという。

負の側面も

 こうした社会変化は負の側面も伴う。理系研究者を中心に技術的なリスク、人文・社会系の研究者が法制度や社会的なリスクを洗い出した。
 ・窃盗や詐欺など、あらゆる犯罪がサイバー犯罪化する
 ・多数のAIが連動して意思決定し、そのプロセスが不透明になり制御も難しくなる
 ・AIがユーザーの信念や将来を推測することがプライバシー侵害になる
 ・AIが人間の意思決定を見えない形で操作して個人の自律が侵害される
 ・AIが国の統治に活用され、意思決定プロセスが不透明になり責任が曖昧になる
 など10種のリスクを浮き上がらせた。ただこの社会的な側面はSFなのか、実現性の高いリスクなのか研究者中でも意見は分かれる。リスクを提示した当該研究者にとっては差し迫りつつある問題でも、同じ分野の別の研究者は一笑に付すなど問題意識に大きな幅がある。

答えのない尊厳

 特にAIの知性が認められ、人間のような尊厳を獲得するかどうかは、意見が対立し、幅広い影響のあるテーマだ。AIの工学系研究者は「AIはどこまで進化しても道具」とし、AIの理学系研究者は「AIが人間を超えれば�神�と同じような存在になるはずだ」という。哲学研究者は「人格や尊厳の概念を広げる可能性がある」、弁護士は「人間と人間の集まりである法人以外に権利や責任を認めると、根底から法制度を作り直さなければいけない。いくら賢くても動物は責任主体にならない」など、収拾がつかなくなる。

AI失業対策は

 またAI化やロボット化による技術革新失業と就労支援策、教育施策も精緻な検証はできていない。そもそも雇用状況の変化を技術革新失業とグローバル化のどちらの影響が大きく、また両方が重なることでどの程度影響が拡大するのか踏まえずに問題が提起された。AIに仕事を奪われるのか、AIを使う人間に仕事を奪われるのか、研究者によって思い描く危機像が違う。

 AI失業の対策として国民に生活費を給付する「ベーシックインカム」を主張する経済学者が、その財源や税制として成立するか検証しないまま必要性だけ提起するなど、社会的なリスクについて対策を練るところまで至らないテーマも少なくない。本来は教育や職業訓練にかかる期間やコストと、再就職までの経済逼迫度などを精査して、耐久限界を検証する必要がある。だが異分野からの提案を異分野の専門家が精査するのは難しい。

当面の課題選定

 そこで5−10年で取り組む当面の課題と、議論の動向を見守るテーマに分けた。当面の課題は14件。研究開発の原則や市民のAIリテラシーの育成など、論点と方向性をまとめた。

 AIの開発原則はOECDのプライバシー8原則をベースに作成した。その第一原則に「透明性の確保」を据えた。AIが事故を起こしたときの原因究明や、診断AIのインフォームドコンセントには透明性は欠かせない。ただ現在のAIブームを起こしたディープラーニング(深層学習)はなぜ、そう判定したのか理由や中身がわからない。深層学習の透明化の研究は始まったばかりだ。ブレークスルーとなったAI技術を原則違反で使えないとなると産業界の反発は大きくなるだろう。リスクを計れれば理想だが、リスクの連鎖を含めると、すべてのリスクを洗い出し対策することは不可能だ。AIもリスクも不透明さは残る。どう選んで、どうマネジメントするか、技術開発と運用ルールのどちらもホットな研究テーマになるだろう。

 まとめた14課題は、今後AIの開発や運用について国際的な議論に発展させる。情報通信政策研究所の吉田智彦主任研究官は「議論のたたき台はできたが、一つの国で対策を練っても実行性がない。G7やOECDでの議論につなげたい」という。
 そのために国内で議論や研究の場を整える。成原慧主任研究官は「文理融合のために幅広いステークホルダーを集めると専門家の議論でも収拾がつかなくなる。国内の議論は一般市民の参加を実現したい。そのためには議論のプロセスをうまく整える必要がある」という。AIリテラシーを育成しながら、国内をワンボイスにまとめる挑戦だ。現状、文系と理系に限らず、専門家の間には壁がある。国際的な議論を主導するためにも、日本は一つにまとまれるのか動向が注目される。

2017年7月11日火曜日

What Is a Neural Network?

It's a technique for building a computer program that learns from data. It is based very loosely on how we think the human brain works. First, a collection of software "neurons" are created and connected together, allowing them to send messages to each other. Next, the network is asked to solve a problem, which it attempts to do over and over, each time strengthening the connections that lead to success and diminishing those that lead to failure. For a more detailed introduction to neural networks, Michael Nielsen's Neural Networks and Deep Learning is a good place to start. For a more technical overview, try Deep Learning by Ian Goodfellow, Yoshua Bengio, and Aaron Courville.

This Is Cool, Can I Repurpose It?

Please do! We've open sourced it on GitHub with the hope that it can make neural networks a little more accessible and easier to learn. You're free to use it in any way that follows our Apache License. And if you have any suggestions for additions or changes, please let us know.

We've also provided some controls below to enable you tailor the playground to a specific topic or lesson. Just choose which features you'd like to be visible below then save this link, or refresh the page.

What Do All the Colors Mean?

Orange and blue are used throughout the visualization in slightly different ways, but in general orange shows negative values while blue shows positive values.

The data points (represented by small circles) are initially colored orange or blue, which correspond to positive one and negative one.

In the hidden layers, the lines are colored by the weights of the connections between neurons. Blue shows a positive weight, which means the network is using that output of the neuron as given. An orange line shows that the network is assiging a negative weight.

In the output layer, the dots are colored orange or blue depending on their original values. The background color shows what the network is predicting for a particular area. The intensity of the color shows how confident that prediction is.

What Library Are You Using?

We wrote a tiny neural network library that meets the demands of this educational visualization. For real-world applications, consider theTensorFlow library.