2017年12月8日金曜日

AWS、Facebook、Microsoftの3社、AIモデルのオープンフォーマット「ONNX」を正式リリース

 Amazon Web ServicesAWS)、FacebookMicrosoft3社は2017126日(米国時間)、「Open Neural Network ExchangeONNX)」がバージョン1.0となり、本番環境で利用できるようになったと発表した。

 
ONNXOpen Neural Network Exchange)のWebサイト

 ONNXは、「Apache MXNet」「Caffe2」「Microsoft Cognitive Toolkit」「PyTorch」といったディープラーニングフレームワーク間の相互運用性を実現するディープラーニングモデルのオープン標準フォーマット。ONNX 1.0は、異なるフレームワーク間でのディープラーニングモデルの移行を可能にすることで、これらのモデルを本番環境で利用しやすくする。例えば、開発者はPyTorchを使ってコンピュータビジョンモデルを作成し、Microsoft Cognitive ToolkitApache MXNetを使って「推論」を実行できる。

 AWSは公式ブログで、「ONNX2017年9月に発表されて以来、このプロジェクトへのコミュニティーのサポートや参加が拡大し、活発化している」と述べている。さらに、QualcommHuaweiIntelなど多くのハードウェアパートナーが、自社のハードウェアプラットフォームでのONNXフォーマットのサポートを発表しているという。

 AWSFacebookMicrosoftは、コミュニティーへの感謝を表明するとともに、今後もパートナーやコミュニティーと協力してONNXを進化させ、開発者が最新の研究成果を利用して、最先端のディープラーニングモデルを本番アプリケーションに統合できるようにすると述べている。

人工知能ワークロード向けプロセッサを搭載——IBM、次世代Power Systemsサーバを発表


 IBM2017125日、次世代のPower Systemsサーバ「Power System AC922」を発表した。人工知能(AI)ワークロード向けに設計されたプロセッサ「POWER9」を採用した。16コアまたは20コアのPOWER9プロセッサを2基備え、主記憶容量は、最大1TBGPUは、最大で4個のNVIDIA Tesla V100を内蔵する。

 Power System AC922は、NVIDIAGPUNVIDIA Tesla V100」を備えており、オープンソースソフトウェア(OSS)ライブラリ「Chainer」「TensorFlow」「Caffe」といったAI向けのフレームワークと、「Kinetica」などのデータベース管理システムの処理性能向上に向けて設計されている。ディープラーニングによる機械学習は、IBMがベンチマークテストを実施した結果、x86サーバ(Xeon E5-2640 v4)と比べて約4倍高速化できたという。

 
IBM Power System AC922のイメージ図(出典:IBM

 また、Power Systemsとして初めて、CPUGPUを接続する「NVIDIA NVLink 2.0」やサーバ向けインターコネクト技術「OpenCAPI(Open Coherent Accelerator Processor Interface)」I/Oシリアルインタフェース「PCI Express 4.0」といったI/O(入出力)技術を採用した。PCI Express 3.0を採用したx86サーバと比べて9.5倍、データ転送を高速化できるとしている。

 Power System AC922では、アプリケーションがCPUの主記憶領域をGPUメモリとして利用できるため、GPUのメモリ不足を解消する。また、GPUでのデータ処理の際、CPUの主記憶領域からGPUメモリに処理対象データを転送する必要もなくなることから、プログラミングを簡素化できる。NVLinkCPUGPUを直結させるため、メモリ共有がボトルネックになることもないという。

 

AIは、自社のビジネスを左右する重要業務にこそ適用すべきだ

AIを最大限に活用するには、優先度の高い重要なビジネス課題に適用すべきだ

 ある大学の幹部は、入学者を5%増やそうと考え、人工知能(AI)を利用した。AIは入学者数に大きく貢献する可能性があったからだ。

 また、ある大手通信会社が世界的な合併を行ったとき、IT部門はAIを駆使して、新会社におけるスキル、言語、文化のギャップを埋め、それまでのライバルを友人に変えた。

 さらに、欧州のあるトラック運送会社は、ドライバーとリフトオペレーターの異言語間コミュニケーションを支援するため、AIベースの翻訳インタフェースを導入し、輸送効率を高めて貨物の取扱量を増やした。

 これらの企業や組織は業種も地域も異なるが、いずれもAIの活用により、優先度の高い重要なビジネス課題に取り組んだ。「AIは、あなたとビジネスにとって最も重要なことに適用すべきだ」。Gartnerのバイスプレジデント兼最上級アナリストのホイット・アンドリューズ氏は、201710月に米国オーランドで開催されたGartner Symposium/ITxpo 2017で、こうアドバイスした。

 「AIを社内でどのように活用すべきか考えているなら、自社にとって不可欠な部分への活用を追求しなければならない」(アンドリューズ氏)

AIのメリットは自動化だけではない

 AIの一般的な定義では自動化に力点が置かれており、その結果として、ITリーダーやビジネスリーダーにとっての活用機会は見過ごされていることが多い。AIは、主に学習によって人間の能力をエミュレートする技術であり、「人間だけで行うよりも迅速かつ大量に分類や予測を行えるもの」と表現するのが最も適切だ。

 企業は自社にとって不可欠な部分で成果を得るために、スピードや効率の向上、データ処理や分析の高度化、顧客体験の充実にAIを活用している。導入が始まって間もない現段階では、まずこれらのカテゴリーにAIの活用機会を求め、以下のように、優先度の高い重要なビジネス領域に役立つユースケースに重点的に取り組んでいる。

販売とマーケティング:販売プロセスをカスタマイズする、見込み客や顧客とのコミュニケーションをパーソナライズする、顧客に適した販売スタッフをマッチングする、パーソナライズされた価格を提案する。

サービス:顧客へのアシスタンスや問題への一次対応を仮想的に提供する、メンテナンスや近い将来の修理のニーズを予測する、サービススタッフと顧客の取り次ぎを行う、顧客対応プロセスにおけるギャップを見つける。

サプライチェーン:データエラーを発見して修正する、サプライチェーンにおけるリスクを発見する、現場のIoTデバイスから洞察を引き出す、物流を計画する。

オフィス:特定のノウハウを持つ人材を見つけて連絡する、コンプライアンス違反を発見し是正する、行動項目の提示を通じて会議ややりとりをサポートする、デジタル技術への習熟を支援する。

 ビジネスの成長はCEOの中心的な優先課題であり、顧客体験は成長の促進に重要な役割を果たす。このことからすると、現在、多くの企業がAIを利用して、まず顧客関連の取り組みを進めているのは当然だ。さまざまな業種での例を以下に示す。

銀行および金融サービス:チャットbotが顧客の口座利用の手助けをする。

ヘルスケア:仮想看護アシスタントが退院後の患者をフォローする。

小売り:機械学習と自然言語処理が顧客データから学習し、顧客行動に関する洞察を生み出す。

教育:AIによる「教師ロボット(チューターbot)」がパーソナライズされた学習を支援する。

 AIは、企業/消費者間(B2C)モデルでのみ利用されているわけではない。例えば、物流センターを運営している、あるB2B企業は、操業音をチェックして効率上の問題を未然に防止するシステムを倉庫に導入する計画を進めている。

重要業務のAI化における留意点

 優先度の高い重要なビジネス課題にAIを適用するために、以下の点に留意する。

  • 過去に人員を十分に確保できなかったために諦めた領域で、AIを活用するアイデアや可能性を探る
  • 自社に固有の課題や領域にAIを適用することを考える。これらの課題や領域は、一般性が低いほど望ましい
  • 従業員に対する調査やヒアリングにより、業務の中でAIにより対応できる側面を洗い出し、取り組みを検討する

 「ボーナスアップやビジネス価値の拡大に向けて、これまで技術を使って何を行ってきたかを考えてみるとよい。そこにAIを適用するのが正解だ」(アンドリューズ氏)

 

働き方改革ICT市場、2017〜2021年は年間平均成長率7.9%——IDC予測

 IDC Japan2017127日、2016年の国内における働き方改革関連のICT市場についての調査結果を発表した。

 IDCでは、「ハードウェア」「ソフトウェア」「ITサービス/ビジネスサービス」「通信サービス」の4分野に分類されるICTの市場規模を予測。これらの中から、働き方改革の主目的である「長時間労働の短縮」「労働生産性の向上」「柔軟な働き方」といった取り組みをサポートするICT市場の規模を積み上げ、「働き方改革ICT市場」として算出した。

 その結果、2016年の市場規模(支出額ベース)は、18210億円に達したことが分かった。この市場の5割弱を占めていたのは、働き方改革に不可欠なモビリティインフラストラクチャであるノートブックPC、タブレット、スマートフォンといったハードウェアだった。

 官民を挙げた働き方改革の大きなきっかけとなった長時間労働の削減に関する取り組みは、20162017年に積極的に実施されたものの、多くはICTが関わらないもので、「上長が部下の残業を細かくチェックして安易に残業をさせない」「夜の一定時間になるとオフィスを消灯する」「ノー残業デーを徹底する」といった取り組みだったという。

 一方、ICTを活用して生産性を向上させる取り組みとしては、稟議(りんぎ)や休暇、残業の申請承認システム、経費精算システム、Web会議、ファイルやデータのシェアリングなど、単体のアプリケーションの導入にとどまることが多い。結果として、市場規模は相対的に小さなものとなったとIDCでは見ている。

 
「国内働き方改革ICT市場予測、2016年〜2021年」(IDC Japan201712月)

 2018年以降の市場予測としては、労働生産性の向上や柔軟な働き方を実現する取り組みが洗練され、テレワークの環境整備に向けた業務ツールのクラウド化や、モバイル機器利用の拡張に伴うセキュリティ対策の強化、モビリティ機器管理ツールの導入などが進むと予測している。

 また生産性の向上を本格的に追求する企業は、業務の棚卸しに基づいた業務効率化ツールの導入といった取り組みをさらに進め、既存システムとのインテグレーション需要も拡大すると予測。そういったツールの中にはAIを搭載したものも既に出現しており、業務効率化への需要を一層刺激すると考えられるという。

 このような状況を踏まえ、働き方改革におけるソフトウェア市場とITサービス/ビジネスサービス市場は、働き方改革に限定しない全体市場の成長速度に比べてはるかに高い成長を見せ、働き方改革ICT市場全体では、20162021年の年間平均成長率(CAGRCompound Annual Growth Rate)は7.9%、2021年の市場規模は26622億円に達すると予測している。

 IDCでは、2021年に向けて、労働生産性の向上と柔軟な働き方の実現を目的としてソフトウェア導入やシステムインテグレーションに対する需要が拡大し、それが今後の働き方改革ICT市場の成長をリードするとみている。

 

Webサイト分析の人工知能「AIアナリスト」がセッションをまたぐページ貢献度分析機能を追加

 WACUL(ワカル)は人工知能(AI)によるWeb分析ツール「AIアナリスト」に新機能「セッションをまたぐページ貢献度分析」を追加した。

 AIアナリストは、「Google アナリティクス」のアクセス解析データと連携し、人工知能がWebサイトの課題を発見し、改善提案まで自動で行うツール。これまでは1度の訪問ごと(セッション単位)に分析していたが、購入などのコンバージョン(CV)に複数回の訪問を必要とする高額商材などにおいては、CV時の最終セッションだけを見ていては正しい効果が測定できないという課題があった。

 今回の新機能追加で、CVに寄与するページを、セッションをまたいで分析することができるようになったことで、セッションとユーザー、両方でのしっかりとした裏付けのある分析と、 CVに貢献するページの発見漏れ防止という2つの価値を提供できるという。

 本機能で伸びしろがある可能性が高いとされるのは、以下のようなサイトだ。

*家や車など高額商品の売買に関するサイト
*求人のエントリーをCVにしている求人サイト
*B2B向けのサイト
*子供向けの教育商材や結婚式場予約など、1人での意思決定が難しいサービスのサイト

2017年12月7日木曜日

AI時代に生き残る企業がきっと備える“4つの習慣”

 人工知能(AI)は新たな電気のようなものだ——。深層学習(ディープラーニング)の第一人者であるアンドリュー・ウン氏はそう指摘する。今から1世紀ほど前に電気があらゆる主要産業に変革をもたらしたのと同様に、AIは世界を大きく揺るがすテクノロジーとなるだろう。ただしそれはまだ先の話だ。

 ウン氏によれば、今のところAIが創出する経済価値の99%は「教師あり学習」によるものだという。教師あり学習のアルゴリズムは人間を教師とし、膨大な量のデータを学習しなければならない。骨は折れるが、高い成果を挙げることが実証された方法だ。

 例えばAIアルゴリズムは今では、猫の画像を猫と判断できる。だが、そのためには「猫」とラベル付けされた何千枚もの画像を見せ、「猫とはどのようなものか」を学習させる必要があった。人の発言内容を理解できるAIアルゴリズムについても同様だ。主要な音声認識システムはいずれも完成までに5万時間分もの音声データとその書き起こしデータの学習を必要とした。

 ウン氏は、現状のAIにとって競争上の差別化要因となり得るのはアルゴリズムではなくデータだと考える。トレーニングを受ければ、アルゴリズムは模倣することができるからだ。

 ウン氏は最近『MIT Technology Review』が開催したカンファレンス「EmTech」で次のように語った。「オープンソースのアルゴリズムが大量に存在し、情報はすぐに広まる。大半の企業にとって、他社がどのようなアルゴリズムを使っているかを知るのはそれほど難しいことではない」。AI業界の権威として知られるウン氏は現在、スタンフォード大学のコンピュータサイエンス学部で非常勤教授を務めている。

 ウン氏はプレゼンテーションにおいてAI時代の現状について説明した後、今後AIを活用する企業が共通して備えることになるであろう4つの特徴を紹介した。職務内容の変化はそのうちの1つだ。

併せて読みたいお薦め記事

人工知能が切り開く未来

真の知能への道筋


正のフィードバックループ

 今のAI時代において、データは極めて重大だ。ただし企業はGoogleFacebookのようにならなくてもAIのメリットを享受できる。必要なのは、ひとまずプロジェクトを立ち上げるのに必要なデータを確保することだけだ。そうした始動用データを用いていったん顧客を獲得すれば、次は顧客がその製品向けのデータを生み出すという好循環が生まれる。

 「こうして正のフィードバックループが形成される。しばらくすれば、事業継続に必要十分な量のデータをおのずと確保できるようになるはずだ」とウン氏は語る。

 ウン氏のスタンフォード大学の教え子たちはまさにこの手法を用いて、テクノロジーで農業を変革するAgTech分野のスタートアップ企業Blue River Technologyを立ち上げた。Blue River Technologyはコンピュータビジョンとロボット工学と機会学習を組み合わせて農場管理に役立てることを目指している。共同創業者たちはまずレタス事業から着手すべく、レタスの画像を大量に撮影して十分なデータ量を確保し、レタス生産者の支持を取り付けることに成功した。「恐らく現在、彼ら以外にこれほど多くのレタス画像を保有している企業は、世界中のどこにもいないだろう」とウン氏は語る。

 実際こうした大量のデータが彼らのビジネスを極めて有望なものにしている。「私の知る限り、世界的な大手IT企業でもこれほど大量には特定分野のデータを保有していない。たとえ大手IT企業であっても、Blue River Technologyの事業分野に参入するのは結構な挑戦となるだろう」とウン氏は語る。

 20179月には農業機械メーカーのJohn Deereが同社を3億ドルで買収し、こうしたデータ資産には数億ドルの価値があることが実際に証明された。

 「データ集積は、AIと深層学習の時代にあって、企業戦略が今後どのような方向に変化していくかを示す一例といえる」とウン氏は語る。

AI企業に共通する4つの習慣

 この先どのようなAI企業が成功するかを予想するのは時期尚早だ。ウン氏は、これまでに企業のビジネスの在り方を大きく変えた要因の1つとしてインターネットを引き合いに出し、説明を続ける。

 ウン氏がインターネット時代の到来から学んだ教訓の1つに、「企業はWebサイトを持つだけでインターネット企業になれるわけではない」というものがあるという。同氏によれば、同じことがAI企業にも当てはまる。

 「深層学習や機械学習やニューラルネットワークを追加しただけで、従来のテクノロジー企業がAI企業になれるわけではない」とウン氏は語る。

 インターネット企業と呼べるのは、ABテストや短いサイクルでの商品開発、エンジニアやプロダクトマネジャーなど現場レベルでの意思決定など、インターネットならではの特徴を生かしている企業だけだ。

 AI企業にも同じことがいえる。AIを活用してこそ、AI企業だ。ただしAI企業にとって何がABテストに匹敵するものとなるのかは、まだ定かではない。ウン氏はそう指摘した上で、今後AI企業が備えるであろう習慣として以下の4つを挙げた。

1. 戦略的なデータ収集

 企業は収益化につながる重要なデータ源泉をどこかで確保しなければならない。これは企業にとって複数年にわたりチェスをプレーするような戦略的で複雑な作業だ、とウン氏は語る。ウン氏が新製品の開発を決断するときは、「持続可能なビジネスの構築につながるデータを収集するめどが立つかどうか」が判断基準の1つになるという。

2. 統合データウェアハウス

 企業の最高情報責任者(CIO)にとって、これは驚くに当たらないことだろう。CIOは長らく、集中管理型データウェアハウスの重要性を認識している。ただし複数のソースからデータを組み合わせて活用する必要があるAI企業にとって、データサイロとその背後にある官僚主義はAIプロジェクトの命取りになりかねない。企業はデータウェアハウスの統合に今すぐ取り組むべきだ。「多くの場合、企業はこの取り組みに複数年を要する」とウン氏は語る。

3. 職務内容の変化

 チャットbotのようなAI製品の概要を説明するのと、アプリケーションの概要を説明するのとでは、勝手が違う。そのためプロダクトマネジャーはこれまでとは異なる方法でエンジニアとコミュニケーションを図る必要がある。実際、ウン氏は現在、プロダクトマネジャーに対し、エンジニアに明確な製品仕様を伝えるための訓練を施しているという。

4. 組織横断型のAIチーム

 AIのスキルを持つ人材はまだ少ない。そのため企業はまず社内の全事業部門を支援するAIチームを結成するといい。「モバイル技術が台頭した際も同じ状況だった。2011年ごろはまだどの企業もモバイルエンジニアを十分に確保することができずにいた」とウン氏は語る。スキルを持つ人材の数が需要に追い付いた後、企業は個々の事業部門にモバイル担当者を配置するようになった。「AI分野でも恐らく同じような展開になるだろう」とウン氏は語る。

 

AWSの機械学習/ディープラーニングサービス、新たな展開とは

 AWSのディープラーニング/AI担当ゼネラルマネージャーであるマット・ウッド氏は、AWS re:Invent 2017の全体セッション全てに登場し、機械学習関連の新たな発表について説明した。これだけでもAWSの機械学習/AIへの力の入れ方がうかがい知れる。では、AWSはどんな機械学習/AI関連サービスを、どのような人のために提供しているのか。ウッド氏との個別インタビューの内容と合わせてお届けする。

 今回のre:Inventにおける主要な発表は、機械学習プロセスを自動化・効率化する「Amazon SageMaker」、カメラを備えたボックスでAWSのコグニティブAPIを即座に試せる「AWS DeepLens」、エッジコンピューティングにおいて機械学習モデルを適用する「AWS Greengrass Machine Learning (ML) Inference」、コグニティブ系APIサービスの拡充、だ。

「差別化につながらない作業から、機械学習に関わる人たちを解放する」

 ウッド氏は筆者とのインタビューで、「機械学習に関わる人たちを、差別化につながらない作業から解放する」ことが、現時点で最も重要だと話した。「ビジネスユーザーが使えるような抽象化された機械学習インタフェースを提供するつもりはないのか」と聞いてみたが、「汎用的で使いものになるローコードツールは成立しにくいため、現在のところ(AWSのサービスとしては)考えていない」という。

 「機械学習に関わる人たちを、差別化につながらない作業から解放する」ためのツールの1つとして、AWSre:Invent 2017で一般提供開始を発表したのが「Amazon SageMaker」。機械学習モデルの構築、学習、適用の環境という一連の流れをサービスとして提供するもので、機械学習のプロセス全体にまたがる環境構築、およびトレーニングにおけるチューニングの自動化を通じ、ユーザーの時間と労力を節約しようとしている。

Amazon SageMakerで、「ディープラーニングにまつわる面倒なこと」を一掃

 SageMakerでは、機械学習に取り組むデータサイエンティストの多くがIDE的に使っているツールであるJupyter Notebookの環境が、ワンクリックで自動的に用意される。データサイエンティストは今までのやり方を変える必要なく、オーサリングができる。AWSでは「多様なユースケースに対応する多数のノートブックを用意した」(AWSのアンディ・ジャシーCEO)。これをテンプレートとして使い、オーサリングにかかる時間を節約することも可能。

 機械学習アルゴリズムについては、「最も人気の高い10のアルゴリズムをあらかじめ組み込んでおり、これらのいずれかを使うなら、ドライバーのインストール、フレームワークの構成などが済んだ状態で提供できる」(ジャシー氏)という。また、これらのアルゴリズムは、他の環境を使った場合に比べ高速に動作するという。ユーザーが自らアルゴリズムを書くこともできる。機械学習フレームワークとしてはTensorFlowMXNetが、構成済みとなっている。他のフレームワークを使うこともできる。

 
SageMakerでは、デフォルトで10のアルゴリズムを提供する

 トレーニングは、訓練データがあるS3バケットを指定し、インスタンスタイプを選択しさえすれば、ワンクリックで開始できる。訓練データは、Amazon S3に保存したものを使う。AWS Glueを使い、Amazon RDSAmazon DynamoDBAmazon RedshiftからS3にデータを複製することもできる。トレーニングが終われば、SageMakerのクラスタは自動的に停止する。こうして構築されたモデルは、ワンクリックでデプロイできる。

 機械学習モデルの構築では、パラメーターチューニングに多くの時間が費やされる。SageMakerは、同社が「Hyperparameter Optimization」と呼ぶ、チューニングの自動実行機能を備える(この機能については「リミテッドプレビュー」段階)。「機械学習モデルを構築する人々は、もうパラメーターチューニングに悩むことがない。投入するデータの量や種類を変える必要があるかどうかだけを考えればいい」(ジャシー氏)。

 SageMakerは料金体系として、インスタンスについては秒単位の課金、ストレージについてはGB単位の課金、データ転送についてはサービスからの出入りについて、GB単位の課金で構成される。

 ウッド氏はSageMakerについて、「データサイエンティストは余計なことを考える必要がなくなり、やるべきことに集中できる」と話す。また、「機械学習に親しみたいプログラマーにとっても、Jupyter Notebookのテンプレートを活用することで、取り組みやすくなる」としている。ウッド氏はさらに、同時発表の「DeepLensを併用することで、ますます多くのソフトウェア開発者が、機械学習に取り組めるようになる」とも語っている。DeepLensについては後述する。

MXNetと他の機械学習フレームワークとの関係

 AWSは2016年のre:Inventで、MXNetに投資する一方、主要な機械学習フレームワーク全てについて、使いやすい環境を提供していくと発表していた。この姿勢は2017年も変わらないのか。ウッド氏は、全く変化はないという。

 「幅広い選択肢を提供できること自体が、価値につながる」(ウッド氏)

 では、「MXNetへの貢献を通じて、このオープンソースプロジェクトをコントロールしたいという意図はないのか」と聞いてみたところ、「活動として支配的なレベルではなく、少数派にとどまっているという点から、そうした意図がないことは示せる」と答えた。

 ただし、結果的に、MXNetプロジェクトへある程度の影響を与える存在になりつつあることは事実のようだ。AWS2017124日(米国時間)、MXNet 1.0のリリースに伴い、構築したモデルをアプリケーションに組み込みやすくするAPIエンドポイント作成支援機能などで、同プロジェクトに貢献したことを明らかにしている。

 また、AWSの機械学習系サービスでは、必ずしも全てのフレームワークを平等に扱っているわけではない。

 AWSre:Invent 2017で発表した前述のSageMakerは、前述の通りTensorFlowMXNetについては事前に統合・構成済みであり、この2つを平等に扱っている。だが、Microsoftと協力して開始した、機械学習インタフェースのオープンソースプロジェクトであるGluonでは、現時点でMXNetに対応。次にMicrosoft Cognitive Toolkitへ対応する一方、他のフレームワークに組み込みやすくすると発表している。

 後述のDeepLensではMXNetを搭載するが、他のフレームワークも使えるとしている。また、後述のGreenglass ML Inferenceでは、MXNetをハードウェアに最適化した形で提供するとし、他のフレームワークについての言及はない。

AWS DeepLensで、ディープラーニングを開発者に親しみやすく

 DeepLensは、Intel AtomHDカメラ、マイクを搭載したボックス。re:Invent 2017のワークショップ参加者には無料で配布した。米国での販売開始を20184月に予定しており、Amazon.comでは事前予約ができるようになっている。価格は249ドル。

 ソフトウェアとしては、AWSがエッジコンピューティング用のソフトウェアとして推進している「AWS Greengrass」を搭載。すなわち「AWS Lambda」のサーバレスコンピューティング機能を動かせる。

 DeepLensはまた、MXNetの推論エンジンを搭載。SageMakerなどを使ってAWSで構築したモデルを、同デバイスに適用して実行できる。AWSではこのデバイスに最適化したMXNetを搭載しているが、他のフレームワークを使うこともできるとしている。

 「コンピュータービジョンは単純に言って楽しい」。機械学習に親しむプログラマーを増やすために、カメラ搭載ボックスを提供する理由について、ウッド氏はこう話した。

 DeepLensでは、必ずしも最初から、SageMakerを使ったディープラーニングに直接取り組む必要はない。各種のプロジェクトテンプレートが用意されていて、訓練済みのモデルを適用することもできるという。DeepLensの紹介ページには、「猫・犬の検知」「物体認識」「顔認識」「ホットドッグ検知」などが、こうしたテンプレートとして紹介されている。

 DeepLensは上記の通り、機械学習を楽しく学んでもらうことを主な目的としている。だが、当然ながら画像を対象とした機械学習を活用するサービスで、即座に開発を始め、PoCProof of Concept)を行うためにも使える。

AWS Greengrass ML Inferenceでエッジコンピューティングに対応

 IoTを機械学習と組み合わせるケースが増えている。特に日本では、不良検査や故障予測、監視の自動化などに生かす例がよく聞かれるようになってきた。

 今回のre:Inventでは、こうしたユースケースへの迅速な対応を支援する目的で、Greengrass ML Inferenceがプレビュー版として発表された。Greengrassにローカルでの推論エンジン実行機能を付加したもので、前述のDeepLensも、「Greengrass ML Inferenceを搭載している」と表現できる。

 Greengrassは、幅広いエッジコンピューティングデバイスにインストールできるソフトウェアで、デバイス上でLambda関数を動かし、AWSのサービスとつなげて利用できる。IoTで、ローカルな処理が必要なケースに適している。

 今回発表のGreengrass ML Inferenceは、これにMXNetのエンジンを付加するもの。NVIDIA JetsonIntel Apollo LakeRaspberry Piのそれぞれに最適化されたMXNetパッケージを、デバイスにダウンロードしで動かせるという。

 Greengrass ML Inferenceでは、Greengrassコンソールで、SageMakerによって構築・訓練されたモデルを直接ダウンロードして適用できる。

コグニティブ系APIでは、Alexaとも連動して世界を広げつつある

 AWS2016年のre:Inventで、画像解析の「Amazon Rekognition」、テキストを音声に変換する「Amazon Polly」、そしてPollyを活用した自動音声認識/自然言語認識アプリケーションオーサリング環境の「Amazon Lex」を発表した。

 Re:Invent 2017では、ビデオ解析の「Amazon Rekognition Video」、音声をテキスト化する「Amazon Transcribe」、テキスト翻訳の「Amazon Translate」、文章から特徴を抽出する「Amazon Comprehend」を発表した。

 Rekognition Videoでは、ビデオ中の物体や人物を検知・分類したり、シーンの不適切度を示したりできる。「不適切度が80%以上のシーンは削除する」などと決めて、ビデオの不適切コンテンツに関する編集作業を自動化するのに使える。人物の追跡も可能で、撮影済みの動画に加え、ライブビデオ(ストリーミングビデオ)に対応しているため、監視カメラによる不正の追跡にも使える。なお、Amazon Rekognitionre:Inventの約1週間前、201711月下旬に機能強化された。イメージ内のテキストの検出と認識、数千万の顔からのリアルタイム顔認識、密集写真からの最大100個の顔検出ができるようになった。

 Transcribeは、段落分けを自動で行うという。一般的な音声に加え、電話音声に対応するため、Amazon Connectの録音機能と組み合わせ、コールセンターで使うこともできそうだ。

 Comprehendは、テキストデータからキーフレーズを抽出したり、トピック分析、エンティティ分析、センチメント分析(感情分析)を行ったりできる。SNSのポストにも対応する。キーフレーズの例として、AWSでは「warm」「sunny」「beautiful」などを挙げている。

 
Comprehendは、文章から特徴的な言葉を抜き出し、分類して示せる

 音声認識APIおよび音声合成APIの基となっているのは、Alexa搭載デバイス向けのサービス。関連してAWSは今回、職場でのAlexa活用を促進するため、Alexa for Businessを発表した。

 Alexa for Businessでは、各ユーザーの個人用アカウントと職場用アカウントを、分離しながら連動できる。そして職場用アカウントは、企業が管理できる。その上で各ユーザーは、音声による命令で、ビデオ会議を開始したり、会議室を予約したり、Alexaデバイスをスピーカーフォンとして使って、電話をしたりできる。受付で来訪者に対応するロボットの開発も、適用例の1つとして挙げている。

 Alexaを搭載しAmazon Echoには、スピーカー/マイクだけでなく、カメラを搭載した製品出てきている。今後、Amazonは画像系のAPIも活用するSkillの開発を促す活動を進める可能性がある。

 こうしてAWSは、Alexaを通じてAmazonが構築したエコシステムを、さらに幅広いディープラーニングソリューションの構築・提供につなげようとしている。

 

中国の人工知能技術が、米国を追い抜く日は近い?

 最近、人工知能の開発に投資を行うニュースが増えています。政府だけではなく、トヨタやオムロン、日立製作所、ダイキンなどの企業も次々と投資を表明。研究拠点の設立や、人材育成、企業買収、ベンチャー投資など、その内容はさまざまです。

 こうした投資の動きは、日本だけではありません。補助金に加えて税制優遇など、間接的、直接的な"支援"という形で、世界各国が惜しみなく資金をつぎ込んでいます。

 ロシアのプーチン大統領が、2017年9月に行われた講演で「人工知能(AI)分野で主導権を握る者が世界の支配者になる」と語ったことからも、これはいわばプライドを賭けた、国家間のAIを巡る争奪戦が起きていると考えてよいでしょう。

 そんな中、諸外国の支援状況を見ている日本国内の研究者からは「もっと政府に支援をしてもらいたい」という切実な声が上がっています。

 人工知能の技術開発を担う、理化学研究所 革新知能統合研究センター長の杉山将氏は、読売新聞の取材に「世界に大きく遅れている。周回遅れと言ってもいい」「一企業が年に数千億円を投じる米国に対して、日本は新センターの新年度予算案が約30億円。差は広がる一方だ」と話し、危機感をあらわにしています。

 このまま、日本は人工知能の研究開発で、海外に負けてしまうのでしょうか。今回は米国政府と中国政府に焦点を絞り、国家としてどのような"支援"を行っているのかをご紹介します。

米国が人工知能にかける意気込みは?

 米国は人工知能に対して、どのくらい本気なのでしょうか。直接的に人工知能という分野に投資をしている金額については公表されていませんが、国全体における研究開発の投資金額という点では、国立研究開発法人科学技術振興機構が発表している「主要国の研究開発戦略」が参考になります。

 その資料によると、AI以外も含めたあらゆる研究開発に対して、米国の官民合わせた投資金額の規模は、2013年で4561億ドルとなっています。これは世界の総研究開発投資1兆6710億ドルの約3割を占める勢いです。研究費の負担割合は連邦政府が27.7%とのことで、ざっくりと1263億ドル程度が政府支出額だと推察できます。

 4561億ドルという金額は世界でトップであるものの、対GDP比率を見てみると"約3%"と、他の先進国とそんなに変わらない割合であることが分かります。世界銀行が発表した全世界のGDP内訳を見ると、米国は18兆5691億ドルで、全世界の約25%を占めます(2016年)。つまり、基本的にGDPという国の経済力によって、研究開発投資規模が連動すると考えればいいでしょう。

 米国の分野別研究開発費では、国防が48%と公表されていますが「人工知能が戦争に使われる恐ろしさを、正しく理解しているか?」でも紹介したように、防衛のための人工知能開発というケースも考えられます。

 実際、大統領府が2016年の10月に発表した「Preparing for the Future of Artificial Intelligence(人工知能の未来に備えて)」では、国防高等研究計画局(DARPA)で新兵の能力開発に人工知能を活用する事例が紹介されているのです。

「中国の人工知能技術が米国を追い抜く」?

 投資金額について参考になるのは、同じく大統領府が2016年10月に発表した「National Artificial Intelligence Research and Development Strategic Plan(人工知能研究開発戦略計画)」です。民間が率先して取り組めないような時間のかかる領域や公共性が高いテーマなど、官民の住み分けができる研究を列挙した文書であり、いわば国家の戦略的優先事項といえます。

 この文書の中では「2015年の米国政府による投資額は約11億ドル」と書かれています。先ほど1263億ドル程度と推察した政府予算のうち、意外にもほんの1%程度です。とはいえ、このころは人工知能に対してまだ懐疑的な目が向けられていた時期。実際、2016年10月以降、大統領府は人工知能に関する取り組みや法整備、予算に対する注文を相次いで発表しています。

 特にバラク・オバマ氏が大統領を退任する直前の、2016年12月に発表された文書「Artificial Intelligence, Automation, and the Economy」は注目すべきでしょう。人工知能が及ぼす、雇用を中心とした社会的な影響を網羅し、そのための政策を説明したものですが、オバマ氏の大統領退任スピーチでも、人工知能が経済に及ぼす影響が語られました。

次にやってくる経済の混乱は、海外からではありません。容赦ないスピードで進む自動化によって、多くの善良な中産階級の人々は、仕事を奪われることになるでしょう

 一方、代わったトランプ大統領が、人工知能への投資に本気になれるのかという点については疑問が残ります。2018年度における連邦政府の研究開発は、予算教書によると1177億ドル(前年比マイナス21%)と大幅に削減される見込みです。

 「人工知能の発達は雇用を奪う」といわれる中で、"アメリカ・ファースト"で雇用回復を重視するトランプ政権においては、「研究開発への投資より雇用回復が先」というスタンスになる可能性も高いように思います。

 しかし、それでも投資金額が依然として大きいのは事実。国家の支援という観点では、米国政府は2016年から一気にギアを上げてきたわけですが、その背景には、中国に対する危機感があったといわれています。

 読者の皆さんも、人工知能の"先進国"と言えば、数多くの世界的IT企業を有する米国を思い浮かべる人は多いのではないでしょうか。しかし、最近では中国の発展がめざましく、その勢いは米国をしのぐレベルにまで達しています。

 つい最近の話ですが、2017年9月に「ゴールドマンサックスは、中国のAI技術が米国を追い抜くと予想している」とCNBCが報道して話題になりました。中国はその予想に値する投資を2014年ごろから準備し、かつお金をジャブジャブと投資してきました。

 先述した「National Artificial Intelligence Research and Development Strategic Plan」でも、ディープラーニングに関する研究論文の発表数について、2013年に中国が米国を抜いて世界一となり、さらにその差が広がっていることを詳細に報告しています。

 特許においても中国の勢いは止まりません。数についてはもちろん米国が多いものの、伸び率で見れば中国が圧倒的な状況です。人工知能を巡る覇権争奪で、トップを走っていると思ったら、真後ろに中国がいた——焦ってギアを上げる気持ちは想像に難くありません。

"Made in China"は優れた人工知能の証になる?

 中国は2010年に「知能製造」(ドイツの「Industry4.0」のような産業政策)を提唱して以降、インターネットを活用した戦略的な政策を推進しています。

 2015年3月に開催された第12期全国人民代表大会では「インターネット・プラス」、2016年には「インターネット・プラスAI3カ年計画」と立て続けに計画立案を進めていますが、その内容は米国より野心的です。2018年までに人工知能分野で1000億元(約1兆7000億円)レベルの市場を創出しようと、具体的な数字を掲げました。「その数字が達成できなかったらどうするんだ!」と批判する野党がいないからこそ、できる芸当なのかもしれません。

 さらに、2017年8月には新たな国家戦略として「次世代AI発展計画」を発表しました。同計画では、具体的な時期を絞って戦略目標を定めています。最終的に2030年までには、中国を世界の主要な「AIイノベーションセンター」にして、AI中核産業規模は1兆元(約17兆円)、関連産業規模は10兆元(約170兆円)にまで成長させることを目標にしています。

 そのための推進エンジンとして、2017年11月には「次世代AI発展計画推進弁公室」が設立されました。今後、この推進弁公室のもと、百度(バイドゥ)、阿里雲(アリババ)、テンセント、科大訊飛(iFlytek)など、中国内の産学が連携しながら、中国を巨大なAI国家へと育て上げるようです。

 こうした計画を考えると、2030年の"Made in China"は「粗悪なコピー品」の代名詞ではなく「優れた人工知能搭載製品」を意味するのではないか? と私は思ってしまいます。ファーウェイ輪番CEOの徐直軍氏は、2017年4月の経営戦略説明会で「今後は全ての製品とサービスにAIを盛り込む」と意気込んでおり、既にその動きは始まっているように思います。

 こうした動きに懸念がないわけではありません。中国は、昔から研究開発において基礎研究や応用研究を重視しない国家として知られています。2015年における研究開発投資の内訳を見ても、基礎、応用研究の割合は全体の15%程度しかありません。これは他諸国の2分の1から3分の1程度です。

 ビジネス的な"目先の魚"が釣れればいいのではないか——そんな批判を浴びていることを中国当局も意識はしており、「次世代AI発展計画」では、基礎研究を大事にするとうたっています。

投資金額で勝つのは難しい——どうする、日本?

 米国政府や中国政府の動きを見ていると、主に2014年から2016年に、政府として本腰を入れ始めたのが分かるでしょう。2〜3年程度ということで、時間という面では、リカバリができる範囲だと思います。

 しかし、投資金額においては、やはり国家規模の差が如実に表れます。特に政府だけではなく、民間企業を含めた差は広がっているのが現実です。Google、Facebook、Apple、百度、阿里雲、テンセント、ファーウェイ……こうした巨大企業に続き、AIに巨額の投資を行う日本企業が求められています。

 「そんなに金が大事なのか」と疑問に思う人もいるかもしれません。もちろん投資をしたからといって、必ず結果が出るとは限りませんが、これまでの連載で説明した通り、人工知能はデータ収集からデータ基盤の構築、アルゴリズムの開発人材、インサイトの発見など、何かにつけてお金がかかります。

 冒頭に挙げたように、トヨタやオムロンなどの企業が動き始めていますが、それを支える国家の支援も必要でしょう。総務省も「次世代人工知能推進戦略」の中で、投資を含めたさまざまな課題を挙げているのですが、具体的な施策や政策にまで落とし込めていないのが現状です。

 人工知能をはじめとするデータ活用ビジネスは"先行者利益"が非常に強い市場と言えます。良質な人工知能を開発したり、育てたり(チューニングしたり)するにも膨大なデータが必要です。膨大なデータを手に入れるにはお金が、投資が必要なのは言うまでもありません。そして、圧倒的な技術力を持ったプラットフォーマーが市場を独占(寡占)し、他の企業が参入できない、または到底勝てない状況になる——というのは昨今よく見る光景でしょう。

 「金で解決ぶぁい」と言っていたのは「おぼっちゃま君」でした。AIを巡る覇権争奪戦については、お金がなければ、解決どころか、その土俵にすら上がることすらできないのかもしれません。

 米国に肉薄する中国の事例は、国を挙げて投資をすることで、人工知能開発で世界のトップに踊り出るだけの可能性を見せてくれました。その点において、日本にとって中国は絶望の象徴でもあり、希望の光でもあるのです。

IoTでJavaが選ばれる4つの理由

 Java言語の最大級の利点は、アプリコードの安定性にある。C言語がメモリ参照用に明示ポインタを使っているのに対し、Javaのオブジェクト参照は全て、アプリのコードでは操作できない暗黙のポインタが使われる。これによって、アプリが突然動作を停止する原因となるメモリアクセス違反のような問題の可能性が自動的に排除される。C言語で書かれたアプリを新しいプラットフォームに移植するには時間とコストがかかってミスが生じることもある。これに対してJavaのもう1つの利点は、1度書けばどこでも実行できる点にある。アプリで使っているAPIが変わらなければ、既存のJARファイルクラスにデプロイし直すだけで済む。単純な再コンパイルを行えば、Javaの新しいバージョンに移行できる。

IoTアプリケーション開発でJavaが選ばれる4つの理由

 Javaで開発されたIoT(モノのインターネット)アプリは非常に重要性が高く、今後も長期的に存在し続ける。今後もJavaが現実的であり続ける理由を以下に挙げる。

1.成熟度の高さ、継続的な進化

 Javaは現時点で最も安定性が高く、成熟したプログラミング言語の1つだ。バージョンが新しくなるごとに、多様な新機能や性能の強化が盛り込まれる。例えば、複数の有名なJavaアプリケーションは機能的・並列的プログラミングに対応している。

2.手堅いセキュリティ機能

 Javaのセキュリティ機能のおかげで、プログラマーにとっては大型アプリやエンタープライズアプリが構築しやすい。Java仮想マシン(JVM)は中間にあるバイトコードを検証して、アプリによる危険な動作を防止する。開発者は高度なセキュリティ管理機能を使い、信頼できないバイトコードをサンドボックス化されたシナリオの中で実行することにより、特定のAPIや機能へのアクセスを防止できる。同時に、同プラットフォームが提供する安定したセキュリティAPIを活用することもできる。これをユーザー認証やセキュアな通信プロトコルと組み合わせれば、開発者が他の言語以上にJavaを信頼する助けになる。

3.IoTのサポート

 Javaは現時点でIoTに対応しているプログラミング言語の1つだ。Jigsawプロジェクトでは、さらに多様なポータブルデバイスや小型デバイスにJavaを対応させることを目指す。一方で、同プロジェクトは引き続きJavaの拡張性やネットワーキング、セキュリティ、パフォーマンスなどの特性を維持しながら、そうした新しいデバイスや小型デバイスで実行できるようにすることを目指している。

4.プラットフォームからの独立

 現代のプログラマーは、多様なデバイスやプラットフォームをターゲットとするアプリを開発しなければならない。従って、アプリのコードをいったん書いてしまえば、余分な労力をかけなくても複数のプラットフォームに横断的にデプロイできるプログラミング言語を求めている。Javaコードは簡単にバイトコードにコンパイルでき、そのバイトコードは再びコードのコンパイルをしなくても、多様なプラットフォームを横断してデプロイできる。

IoTにとってのJavaのメリット

 Javaの利点はよく知られている。開発者がデスクトップで構築し、デバッグしたコードは、JVMを使ってどんなチップにでも移行できる。これは、スマートフォンやサーバのようにJVMが一般的な場所だけでなく、最小のマシン上でもコードが実行できることを意味する。小型電話や組み込みデバイス向けには、2000年に規格が承認されて以来、Java Micro Edition(Java ME)が提供されてきた。Java MEではクラスライブラリのコレクションや他のツールを制限することによって、スペースを削減した。今日最も重点が置かれているJava SE Embeddedは、容量においてStandard Editionに近い。開発者はJava 8の現在の機能を使い、そのコードを小型の組み込みデバイスに移植できる。Javaのコンピューティングリソース節減の大部分は、キーボードやディスプレイを接続しないヘッドレスでマシンを運用できる設定において、情報の表示に必要なクラスをそぎ落とすことによって実現している。

IoTにJavaが求められる理由

 Javaはネットワークの移植性を実現する。開発者にとっても習得しやすい。この2つの側面が組み合わさって、Javaはデバイスの相互接続を支援する完璧なプログラムとなっている。PCから携帯電話に至るまで、ほぼ全てのデバイスがJavaを使っている。Javaはインターネットの世界を構成する部品でもあり、IoTにとっては素晴らしい選択肢になる。Javaはあらゆるデバイスに業界で最高水準の機能と最高水準のセキュリティ、豊かな拡張性を提供する。さらに、Javaが大規模なエコシステムを形成しているという事実は、あらゆるIoTへの適応性をさらに高める。上級のJava開発者は、革新的なアプリを開発して、つながる世界の目標達成を支援できる。

 組み込みアプリの開発を検討するに当たっては、どのリアルタイムOSとプロトコルを使うべきかなど、考慮すべき要素が多数ある。Java MEを利用すれば、そうした要素が全て抽象化され、どこへも変更の呼び出しを行わなくてもさまざまなデバイスで実行できるアプリを簡単に書くことができる。

 プラットフォームとしてのJavaは、普遍性や内蔵のセキュリティ機能、暗号化技術を考えると、IoTのための素晴らしい出発点といえる。