2018年1月5日金曜日

2018年、クラウドが主役の世界でハードウェアの価値はどう変わるか

 今さら……と思うかもしれないが、まずは人とコンピュータの関わりについて当たり前のこと、そして少しばかり昔の話から書き始めたい。

 時代とともに「パーソナルコンピューティングの定義が変化してきた結果」として、PC、タブレット、スマートフォン、それぞれの位置付けが変化してきた。その背景には「個人」と「コンピュータ」を掛け合わせたときに求められる機能が、どんどんインターネットの向こう側……すなわちクラウドに染みだしている流れがある。

 もちろん、「現時点」という時間軸では、デバイスごとの性能や機能にも差異化要因はある。そうでなければ、「どれを買っても同じ」になるからだ。まだそこまでは進んでいないが、パーソナルコンピューティングの核となる部分がデバイス側のコンピュータの中にあるのか、それともクラウドを構成するサーバコンピュータ側にあるのか。そこを真剣に考え始めると、既にかなりの部分がクラウド側にあるようにも思える。

 それは「2017年は珍しく(27年ぶりに)PCを買わなかった」という個人的な出来事にも少しだけ関連する話題だ。

●時間をかけて進んできたクラウドシフトの影響

 アプリケーションの核がネットワーク側に向かうといっても、いきなり全てがネットワークサービスになるわけではない。始まりは2000年ぐらいだったから、17年ほどの時間をかけてゆったりとアプリケーションのサービス化が進み、現在もメガトレンドとして業界は動き続けている。

 そのことを最初に実感したのは、実は初代「Mac mini」が2005年に発売されたときのことだ。バージョンアップを重ねて、そこそこ使えるようになりつつあったMac OS Xを試すため、低廉で小さなMac miniを買ってみたのである。すると、すぐに慣れてしまい、デスクではMac、出先では薄軽モバイルPCの多いWindowsというマルチプラットフォーム体制となった。

 すぐに慣れることができたのは、必要なアプリケーションがMacでもそろう上、ネットワークサービスを通じての連携などが、特に問題なく行えたからに他ならない。今では想像もできないが、90年代のMacは得意分野はあったもののソフトウェアの網羅度が低く、一度Windows PCで環境を整えてしまうとMacに引っ越すことは困難だった。

 ところが実際に運用を始めてみると、意外にもMac+Windowsを併用しても困らなかったのだ。時代がネットワークサービス……当時クラウドという言葉はなかったが、クラウド時代へのシフトが確実に進み、アプリケーションはソフトウェアから「ソフトウェア+サービス」の時代へと移り、その結果、特定のプラットフォームへの依存度が下がっていたからだ。

 そして90年代には活発だった「MacとWindowsのどちらが優れているか」という議論も、徐々になくなっていった(2006年にIntelプロセッサ搭載のMac、およびWindows OSをMacで動かせるBoot Campが登場したことも関係するが)。

 その気になればMacとWindowsの両プラットフォームを交互に使っても、あるいは片方から片方に乗り換えても(操作の慣れなどを除けば)少しばかり頭をリセットするだけで同じように使えてしまう。プラットフォーム乗り換えへのハードルが下がったことで、プラットフォーム選択の重みも軽くなったのだ。

 こうしたことは「クラウド時代のPCユーザー」には当たり前のことだ。しかしコンピュータ業界全体がWindowsへと傾倒し、WindowsのAPIとMicrosoftの開発ツールへの依存度が高かった時代を経験している身としては、ほぼ死にかけていたMacというプラットフォームに活力が戻り、WindowsでもMacでも、それどころか今やiOSやAndroidベースの端末でも不自由なく仕事ができている現状にあらためて驚いている。

 そして、その背景にあるのがクラウドへとアプリケーション価値が吸い込まれる長期トレンドというわけだ。

 視点を変えて俯瞰(ふかん)すると、Chromebookで十分という層も、スマートフォンで全部をこなしてしまうという層も、はたまたタブレット向けプロセッサを用いた薄軽ノートPCのユーザー層も、さらにはx86エミュレータを搭載するARM版Windows 10に興味を持つ層も、全てはこうした時代の流れが生んだものだと言える。

 さらにもう少し視点を変えると、その視野には「スマートスピーカー」のトレンドも入ってくる。

 米国市場の約1年遅れで日本でも流行し始めたスマートスピーカーだが、現時点での実用度はともかく、クラウドの中で多様に存在しているアプリケーションへのPC、スマートフォン、タブレットとは別の接触点として現れた製品ジャンルとも言えるからだ。

 2017年はよく「スマートスピーカーははやるのか」という質問を一般系媒体の編集者などからされたのだが、スマートスピーカーがはやるかどうかよりも、パーソナルコンピューティングの中で生まれた多様なアプリケーションがクラウドへと流れ込んだ昨今、クラウド内のアプリケーションと人間の間を取り持つ機器は多様化が今後も進んでいくと予想する。

●クラウドシフトで変わるデバイスの価値

 このように順を追っていくと、今後、伸びていくメーカーやブランドは、「ユーザーインタフェース技術に長けたところ」、あるいは「最終製品でエンドユーザーとの関係構築に長けたところ」になってくる。

 そもそもAppleが長期的に伸びてきたのは、ユーザー体験の演出、インタフェース設計の良さが理由だった。その後、ものづくりの面でも他社にないアプローチで品質面でも他社を突き放したが、Appleの品質が改善したのはMacで言えばアルミ削り出し筐体のユニボディーを始めてから、iPhoneで言えば「iPhone 4」の世代からだった。

 一方でソニーは戦略の喪失とユーザー体験追求の甘さ、コストダウンによる影響でガラクタを量産していたが、現在の平井社長体制になってからは「ラストワンインチ」をキーワードに、手に触れる商品の質感やデザイン、ユーザーインタフェースに力を入れるようになり業績を急回復させている。

 商品が単純に良くなったというだけでなく、パーソナルコンピューティング、デジタル製品などの市場全体がクラウドシフトになじんできた結果、クラウドと利用者の間をつなぐ製品の体験へと、消費者の求める価値観が変化したと考えるべきだと思う。

 以前ならば、細かな実装の良しあしよりも、少しでも多くの性能を、機能を求めていたが、アプリケーションのコアがクラウドにあるならば、ユーザーが直接触れる製品に求めるのは体験の質である。

 PCの場合、元よりコンピュータとしてのハードウェアはプラットフォーム、フレームワークがしっかりしているため、プロセッサのパフォーマンスなどの要素では差異化がしにくくなる。「コスト対パフォーマンス」の関係性がプラットフォームに依存しているからだ。

 その上で差異化できるとしたら、ユーザーインタフェースやモノとしての質感など、よりエンドユーザーに近い部分だ。以前、Intelのプラットフォーム、プロセッサなどのブランド化が進んだことがあったが、現在はそのブランドシールの意味も希薄化してきていないだろうか。

 どんなプラットフォームを選択しているかよりも、その製品自身の作り、位置付け、狙いなどの方がずっと製品を選ぶ上で重要になってきているからだと思う。そうした観点からすると、あるいは2018年は「新しいPCを買いたい」と思える、新コンセプトの商品が登場することに期待が持てるのかもしれない。

インテルやARM、AMDのCPUに脆弱性、機密情報が漏れる可能性。PCやスマホのアップデートを推奨

インテルは2017年11月にCPUの不具合から遠隔操作される脆弱性を公表、その解決に取り組んでいます。しかし今度はインテル製CPUだけでなくARMやAMDなどのCPU製品にまで影響するセキュリティ上の問題が見つかりました。

これはCPUが備える先読み命令実行機能の問題を突くことで、OSが直接使用するカーネルメモリーとして保護されるはずの領域に、一般のプログラムからある程度アクセスできてしまうというもの。インテルだけでなく、ARMやAMDといった各社のプロセッサーでに影響があると報告されており、特にインテル製CPUの場合は約20年前から問題が存在していたとされます。この問題が報道された当初は、インテルCPUの脆弱性として取り扱われました。しかし、インテルは問題に関する声明で「この問題が悪用され、データを破損、改ざん、または削除されるような可能性はない」としました。また、この問題は「インテル製品に固有だとする報道は間違い」だと主張しました。

この問題はCPUが次に実行する命令を先読み実行することで処理速度を上げる"投機的実行"と呼ばれる処理を突くことで発生するため、インテルのCPUに限らず、他メーカーのCPUでも同様のことが起こりえます。そしてこの問題によって、カーネルメモリーに格納されるパスワードやセキュリティキー、キャッシュファイルといった機密情報に一般プログラムからアクセスでき、最悪はクラウド上で実行されるプログラムから、カーネルメモリー内の機密情報を読み出せてしまう可能性があります。

インテルの声明を受け、ARM HoldingsはCortex-A系列のチップがこの問題の影響を受けることを確認したものの、主にIoT製品に使われるCortex-M系列には影響がないことを公表しました。一方、AMDは「アーキテクチャが異なることから、現時点でAMDプロセッサにおけるリスクはほぼゼロ」だと述べています。

ZDNetはGoogleのセキュリティ調査チーム「Project Zero」の研究者が発見したとする、投機的実行の問題を突く2つの脆弱性"Meltdown" および "Spectre" を紹介、Meltdownはインテル製CPUのみに影響するもののセキュリティパッチで対応できること、SpectreはARMやAMD製品にも影響し対策にはCPUを設計から変更する必要があるが、悪用するのは難しいことを報告しています。

具体的な修正は、OSがカーネルメモリーと通常のプロセスを完全に分離するよう処理を変更することで対応できるとされます。しかしこの処理によってシステムコールやハードウェア割り込み要求のたびに2つのメモリアドレス空間を切り替える手間が生じます。

修正の適用が一般のPCユーザーが使うウェブブラウジングやゲームなどにどれほど影響するかはわかっていません。しかし、タスクとCPUモデルによっては最大30%ものパフォーマンス低下の可能性があると予想され、とくにAmazon EC2やGoogle Compute Engineといった仮想化システムへの影響が懸念されます。

なお、問題が公になる前からインテルはマイクロソフトやLinuxカーネル開発者らに情報を共有しており、すでにWindows 10やLinuxにはこの問題に関連するパッチが提供され始めています。一方、OSカーネルに詳しい専門家のAlex Ionescu氏によると、アップルは12月6日に公開されたmacOS 10.13.2ですでにこの問題への対応を開始しており、macOS 10.13.3でさらに修正を加えるとされます。

The RegisterはAmazon Web Service(AWS)が米国時間1月5日に、Microsoft Azureクラウドサービスが1月10日に修正適用を実施するだろうと伝えています。またGoogleはAndroid向けのパッチを提供予定ではあるものの「Androidデバイスでこの脆弱性を悪用するのは難しい」としており、スマートフォン各社が自社製品のためにパッチを提供するかは微妙なところかもしれません。Googleはこのほかにも各種サービスの対応情報をまとめてブログに報告しています。

今回の問題を突かれて実害が発生したという報告はまだないものの、ほとんどすべてのインテル製CPUが影響を受けるというのは深刻な話です。商用のクラウドサービスにとっても、パッチ適用でパフォーマンスが落ちるとなると、場合によっては設備増強など然るべき対策が必要になるかもしれません。

一方、われわれユーザーができることは、つねにPCのOSとパッチを最新に保つことしかありません。たとえパフォーマンス低下があるにしても、パッチを当てるだけで良いなら何らかのセキュリティ被害を被るよりははるかにましなはずです。

囲碁AIのすさまじい進化をプロ棋士が解説、人間の棋譜はもう不要?

米グーグルの囲碁AI「アルファ碁」が人類最強棋士に勝利してから約半年。さらに二つの成果が発表された。人間のデータを学習に使わない「アルファ碁ゼロ」と、碁以外にも汎用化した「アルファゼロ」だ。AIが急速に進化していく中で、人類とAIはどう向き合っていくべきなのか。囲碁AIの現状を、大橋拓文六段が描く。

二つの衝撃的な論文で分かったアルファ碁の急速な進化
 米グーグル傘下のディープマインドが開発した囲碁AI「アルファ碁」の進歩には、心の準備をしていても驚かされる。10月と12月には、衝撃的な二つの論文が立て続けに発表された。

 まず10月に発表されたのは、アルファ碁の新バージョン「アルファ碁ゼロ」である。最初に囲碁のルールをプログラムした後は、人間の棋譜を与えずに、自分自身との対戦による強化学習だけで、従来版のアルファ碁の強さを超えたのだ。

 そして12月に発表された「アルファゼロ」。アルファ碁ゼロに改良を加え、汎用化された。名前から「碁」の文字がなくなったことからも察せられるように、囲碁だけでなく他のゲームもプレイできるようになった。そして2時間の学習で最強の将棋AIに、4時間で最強のチェスAIに、そして8時間で2016年版のアルファ碁に勝つまでになった。

自己対戦で学習する囲碁AI 人間の"お手本"はもはや不要か
 アルファゼロとアルファ碁ゼロの仕組みは似ている。ここでは大きな飛躍となったアルファ碁ゼロと、今までの囲碁AIとの最大の違いを説明しよう。従来の囲碁AIは、まず始めに人間の棋譜データを使って学習していた。人間のデータで囲碁の基礎を学んだ後に、自分自身との対戦による強化学習によって強くなるという流れだ。

 ところがアルファ碁ゼロは、人間の"お手本"を使わない。何も知らないAIが、ひたすらランダムに石を打ち合う自己対局を繰り返し、そこで生成されたデータだけで自ら学んでいくのだ。

 碁盤は19×19=361の着点があり、その変化の数は宇宙に存在する原子の数よりも多いと言われている。初めからランダムな自己対戦だけでは、この膨大な変化の数から有益な手を見つけ出すのは難しいと思われていた。そのため、これまでは学習を軌道に乗せるまでは人間のデータを使っていた。

 しかしアルファ碁ゼロは、メチャクチャな自己対戦からも次第に勝つ手を学び、強くなり続けることができる。教師となる人間のデータを必要とせず、自己生成できることを示し、AIの可能性は大きく広がったといえる。

 では、この流れを真似すれば、誰しもアルファ碁ゼロのような強力な囲碁AIを作れるのだろうか。

 実は、ここに一つの問題がある。アルファ碁ゼロは、学習開始からたった3日で人間の世界トップレベルを上回った。この学習には、グーグルが開発した機械学習に特化した超高性能の半導体「TPU」が2000個使われている。

 複数の囲碁AI開発者によれば、この計算量を市販のコンピュータを使って個人ベースで実行しようとすると数百年、小規模の研究室レベルでも数十年かかると試算されている。ディープマインドの技術力と、グーグルの莫大なリソースが合わさってこその成果と見ることもできる。誰でも簡単に、同じ規模の開発をできるわけではないのだ。

 ところが、世界にはこれを対抗できる猛者がいる。それが、中国のIT大手・テンセントが開発する囲碁AI「絶芸」だ。

 テンセントは、11月に時価総額が米フェイスブックを上回る5230億ドル(約59兆円)に達し、中国のIT企業で初めて時価総額世界ランキングでトップ5入りした。近年の成長は著しく、AIにも巨額の投資をしている。アルファ碁ゼロの論文発表からわずか1ヵ月。テンセントが開発した絶芸の新しいバージョンは、3ヵ月前の絶芸に100%勝つようになった。AIの進歩は"秒針月歩"なのだ。

同じサイズの脳ならば人間の棋譜も学んだアルファ碁の方が強い
 アルファ碁ゼロが、既存のアルファ碁のどのバージョンよりも強くなったことで、「人間のデータが、実は無駄だったのではないか」という議論が登場している。しかし今のところ、それが無駄だったという証拠はない。

 人間の棋譜を使ったアルファ碁の最強バージョンが、アルファ碁マスター(以下マスター)だ。マスターは2017年の正月に世界トップ棋士に60連勝し、一躍有名となった。ディープマインドは対局の勝敗数から強さを数字化する「Eroレーティング」を使い、強さを比較しているのでそれを見てみよう(レーティングの数が大きい程強い)。

 ここでのポイントは、アルファ碁ゼロには二種類あるということだ。初期の20ブロック版と、最終的にマスターを超えた40ブロック版だ。このブロック数とは、人の脳を模した学習用のニューラルネットワークのサイズを示す。ブロックが多い方が、脳みそが大きいとイメージすればいい。

 となると、気になるのはマスターのブロック数だ。アルファ碁の開発者によれば、マスターは20ブロックだと明かされている。つまり、同じ20ブロックという頭脳の条件で比べれば、アルファ碁ゼロよりも、人間のデータを学習初期に使ったマスターの方が強いのである。なお、アルファ碁のニューラルネットワークは最新の「ResNet」を使っており、1ブロックは2層である。より詳しく知りたい方は、拙著『よくわかる囲碁AI大全』(日本棋院)を参照されたい。

世界大会で飛び出した新星囲碁AIの驚愕の3手目
 囲碁AIの性能が急速に上がっていく中、12月9、10日に囲碁AIの世界大会「AI竜星戦」が東京・秋葉原で行われた。参加したのは世界から20チーム。アルファ碁は不参加だったが、多数の囲碁AIが熾烈な戦いを繰り広げた。上位の順位は次のようになった。

 優勝は先ほども紹介した、中国テンセントが開発するFineArt(絶芸)だった。トーナメント形式の本大会の上位陣最終戦は"日中決戦"の様相を呈し、今回は中国勢が全て勝った。特に絶芸は、アルファ碁ゼロの論文から1ヵ月という短期間でそのシステムを取り入れ、大会直前までにさらに実力を向上させた。ただし、絶芸は人間のデータを大量に使って学習している。やはり強い囲碁AIを早く作りたい場合は、人間のデータは有効なのだ。

 一方で、筆者が注目した囲碁AIは、初参加で3位に入賞し、新人賞を獲得した中国の新星、Tianrangだ。なぜ注目したかというと、独特な手で異彩を放ち、そしてその手がアルファ碁ゼロとよく似ていたからだ。

 Tianrangの独特の手を理解するために、まずは、囲碁の基本戦略を簡単に説明することにしよう。図1を見てほしい。

 囲碁は陣地を取り合うゲームだ。黒石の■で囲まれた▲が、黒の陣地である。隅、中央のどちらも16目(▲の陣地の数)である。だが、16目を取るために費やした、外側の黒石を数えてみよう。

 隅の■は8手だが、中央の■は2倍の16手だ。隅の方が、陣地を取るために効率が良いのがお分かりいただけるだろう。囲碁の基本戦略は、まずお互いに四つの隅を占め合うところからはじまるのだ。

 この隅から打ち合うことは"人間の"定石なのだが、Tianrangの序盤は異彩を放っていた。準決勝のDeepZenGo戦のTianrang の驚きの3手目を紹介しよう。

 これまでの常識ならば、通常の黒の3手目と白の4手目では、それぞれAやB近辺のどちらかに打つ。陣地を確保するために効率のよい四隅を優先するためだ。ところがTianrangは、白2の揚げ足をとるように黒3といきなり内側に侵入したのだ。

 盤面の端から数えて3・3の地点に打つ「三々入り」は、以前の記事(「囲碁AIにも『個性』があった!プロ棋士が対局して発見」)でも紹介したようにアルファ碁が序盤に好むことで有名になった手である。ただそれでも、アルファ碁が三々入りを決行するのは、AやBなど隅を打った後だった。

 ところが、アルファ碁ゼロの学習過程では、黒3と即三々入りする傾向が見られた。AやBと隅を打たずに、白が先着した隅に早速侵入する黒3は、よりがめつい戦略と言える。この手順は、自己対戦だけで学習した囲碁AIに顕著な特徴である。

人間らしいAIと人間離れしたAI
 Tianrangの開発者に聞いてみると、予想通り、人間のデータを使わないで学習していた。Tianrangは中国のAIベンチャー企業で、他分野への応用を視野に入れて囲碁AIを開発しているとのことだった。

 それにしても、アルファ碁ゼロがグーグルの巨大なマシンパワーを使って学習したことは、すでに述べたとおりである。論文発表から1ヵ月余りの短期間で、今大会3位に入るまで強くしたTianrangの存在は注目に値するだろう。

 三々入りなど、囲碁AIの打ち方の個性については、前回の記事でも詳しく書いた。筆者は、AI同士の自己対局を重ねて強くなった囲碁AIはこの三々入りを好むのではないかと考えていたが、今回、アルファ碁ゼロの方法を模倣したTianrangがこの三々入りを多用したことで、この仮説を裏付ける例が一つ加わった。一方で、AI竜星戦で優勝・準優勝した絶芸やDeepZenGoなど、人間のデータの比重が大きい囲碁AIでは、早期の三々入りは見られない。

 このように、囲碁AI界では、人間のデータを使い効率よく強くなった、ある程度"人間らしい"棋風の強い囲碁AIと、他への応用ありきで作られた"人間離れした"棋風の囲碁AIが入り乱れ、面白いことが起きている。

 指数関数的に進歩していくAIの世界で、これまでの人間の知識がどの程度有効なのかを見極める、格好の実験になっているとも言えるだろう。人間とは違う棋風の囲碁AIの登場にワクワクしながらも、人間のデータが有効であってほしいという気持ちが筆者には強い。AIの進歩と人間の知恵が合わさることで、さらなるイノベーションが起きることを期待している。

役に立つAIシステムを作ることは、まだまだ難しい

TensorFlowやOpenAIのようなAIフレームワークのサポートがあったとしてもなお、人工知能は依然として、大勢のWeb開発者たちが必要とするものよりも、深い知識と理解を必要とする。もし動作するプロトタイプを作ったことがあるのなら、あなたはおそらく周囲では最もスマートな人物だ。おめでとう、あなたは非常に独占的なクラブのメンバーということだ。

Kaggleに参加すれば、実世界のプロジェクトを解決することで、それに相応しい報酬を得ることさえできる。全体的にみれば価値のある立場ではあるが、ビジネスを立ち上げるのには十分だろうか?結局、市場の仕組みを変えることはできない。ビジネスの観点から見れば、AIは既存の問題に対する、もうひとつの実装に過ぎない。顧客が気にするのは実装ではなく結果だ。つまり、AIを使ったからといって万事解決というわけにはいかないのだ。ハネムーンが終わったら、実際の価値を生み出さなければならない。長期的に見れば、大切なのは顧客だけだ。

そして顧客はAIについては気にしないかもしれないが、VCたちは気にしている。プレスもそうだ。それも大いに。その関心の違いは、スタートアップたちにとって、危険な現実歪曲空間を生み出す可能性がある。しかし、間違ってはならない。普遍的な多目的AIを作成したのではない限り、濡れ手に粟というわけにはいかないのだ。たとえあなたがVCのお気に入りであったとしても、顧客のための最後の1マイルはきちんと歩ききる必要がある。ということで運転席に座り、将来のシナリオに備えるために、どのような準備ができるのかを見てみることにしよう。

主流AI列車
AIは、ブロックチェーン、IoT、フィンテックといった、他のメジャートレンドとは異なるもののように見える。もちろん、その未来は極めて予測不可能だが、そのことは、どのような技術にもほぼ当てはまることである。AIの持つ違いとは、単に様々なビジネスだけでなく、人間としての私たちの価値が危険に晒されているように見える点だ。意思決定者であり創造者でもある私たちの価値が、再考を迫られているのだ。そのことが、感情的な反応を呼び起こしている。私たちは自分自身を位置付ける方法を知らない。

非常に限られた数の基本的な技術があり、そのほとんどが「深層学習」という用語の傘の下に分類されるものである。それがほぼ全てのアプリケーションの基礎を形作っている。例えば畳み込みおよびリカレントニューラルネットワーク、LSTM、オートエンコーダー、ランダムフォレスト、グラジエントブースティングなどだ。

AIは他にも多くのアプローチを提供しているものの、上に挙げたコアメカニズムたちは、近年圧倒的な成功を示してきた。大部分の研究者は、AIの進歩は(根本的に異なるアプローチからではなく)これらの技術を改善することで行われると考えている。ということで、以下これらの技術を「主流AI研究」と呼ぶことにしよう。

現実的なソリューションはいずれも、これらのコアアルゴリズムと、データを準備し処理する非AI部分(例えばデータ準備、フィーチャエンジニアリング、ワールドモデリングなど)とで構成されている。一般的にAI部分の改善により、非AI部分の必要性が減少する傾向がある。それはAIの本質に根ざしていて、ほとんどその定義と呼んでも良いようなものだ——すなわち個別の問題に対する取り組みを時代遅れなものにしていくのだ。しかし、この非AI部分こそが、多くの場合、AI駆動型企業の価値なのだ。そこが秘密のソースというわけだ。

AIにおけるすべての改善は、この競争上の優位性をオープンソースの形にして、誰にでも利用可能なものにしてしまう可能性がある。その結果は悲惨なものとなるだろう。Frederick Jelinekはかつて「言語学者をクビにする度に、音声認識装置のパフォーマンスが上がります」と語った。

機械学習がもたらしたものは、基本的には冗長性の削減なのだ。すなわちコードのデータ化である。ほぼすべてのモデルベース、確率ベース、およびルールベースの認識技術は、2010年代の深層学習アルゴリズムによって洗い流されてしまった。

ドメインの専門知識、フィーチャモデリング、そして数十万行のコードが、今やわずか数百行のスクリプト(と十分な量のデータ)によって打ち負かされてしまうのだ。前述のように、主流AI列車の経路上にある独占コードは、もはや防御のための資産とはならないことを意味する。

重要な貢献は非常に稀である。真のブレークスルーや新しい開発のみならず、基本コンポーネントの新しい組み合わせ方法でさえ、行うことができるのは非常に限られた数の研究者たちだけだ。この内側のサークルは、あなたが想像するよりも遥かに小さなものなのだ(そこに属するのは100人以下の開発者たちだ)。

何故そうなのか?おそらくその理由は、コアアルゴリズムであるバックプロパゲーションに根ざしている。ほぼすべてのニューラルネットワークは、この方法によって訓練されている。最も単純な形式のバックプロパゲーションは、大学1年の最初の学期でも定式化できる程度のものだ——洗練とは程遠い(とは言え小学校レベルということはない)。こうしたシンプルさにもかかわらず(あるいは、まさにその理由によって)その50年以上にわたる興味深くきらびやかな歴史の中で、ほんの僅かな人たちだけが幕の裏側をのぞきこみ、その主要なアーキテクチャに対して問いかけを行ったのだ。

もしバックプロパゲーションの意味合いが、早い時期から今日のように理解されていたなら、(計算能力は別にして)私たちは現在既に10年先を進んでいたことだろう。

70年代の簡素な原始ニューラルネットワークから、リカレントネットワークへ、そして現在のLSTMへと進んできたステップは、AI世界に起きた大変動だった。にもかかわらず、それはわずか数十行のコードしか必要としないのだ!何世代にも渡って学生たちや研究者たちが、その数学に取り組んで、勾配降下を計算し、その正しさを証明してきた。しかし最終的には、彼らの大部分は納得して「最適化の一方式だ」と言って作業を進めたのだ。分析的理解だけでは不十分なのだ。差をつけるためには「発明者の直感」が必要だ。

研究のトップに立てることは極めて稀(まれ)であるため、全企業の99.9%が座ることができるのは助手席に過ぎない。コア技術は、オープンソースのツールセットとフレームワークとして、業界の主要プレイヤーたちから提供されている。最新のレベルを追い続けるためには、独自の手法は時間とともに消滅していく。その意味で、AI企業の圧倒的多数は、これらのコア製品と技術の消費者なのだ。

私たちはどこに向かっているのか?
AI(および必要なデータ)は、電気、石炭、金などの多くのものと比較されて来た。技術界が、いかにパターンや傾向を探し出そうと躍起になっているかがわかる現象だ。なぜならこの知識が、自分たちのビジネスを守るために必要不可欠だからだ。さもなくば、この先の投資が、ひとつの単純な事実の前に無駄になってしまうだろう。その事実とは、もし主流AI列車の経路上にビジネスを築いてしまったら、未来は暗いという事実だ。

既にビジネスに向かって猛烈に突き進んでいるエンジンがある中で、考慮すべき重要なシナリオがいくつか存在している。

第1のシナリオは、主流AI研究列車は急速に減速する、あるいは既に停止したというものだ。これは、これ以上アプローチできる問題クラスが存在しないことを意味する。つまり、私たちは列車を降りて、顧客のために「ラストマイル」を歩かなければならないということを意味するのだ。これは、スタートアップたちにとって大きなチャンスとなる。なぜなら持続可能なビジネスを創出するチャンスを秘めた、独自技術を構築する機会が与えられるからだ。

第2のシナリオは、主流列車が現在の速度で進み続けるというものだ。その場合には、避けることも、列車を降りることも一層困難になる。個別のアプローチに対するドメイン知識は、大企業による「オープンソース化」によって急速に危機に晒されることになる。過去のすべての努力には価値がなくなるかもしれないからだ。現在、AlphaGoのようなシステムは、オープンソースのフレームワークが提供する標準(バニラ)機能とは別に、非常に高い割合の独自技術が必要とされている。しかし近いうちに同じ機能を備えた基本的なスクリプトを見ることになったとしても、私は驚きはしないだろう。しかし「予測もつかない未知のできごと」(unknown unknown)は、次のステージで解決できるような問題クラスだ。オートエンコーダーとアテンションベースのシステムは、そのための有望な候補だ。

主流AI研究列車は急速に減速する、あるいは既に停止した。

次のシナリオは、列車はさらに加速するというものだ。そして遂には「シンギュラリティは間近」ということになる。そのことについての本が何冊も書かれている。それについて異を唱えている億万長者たちもいるし、私もその件に関しては別の記事を書くつもりだ。ここでの究極の成果は、汎用人工知能だ。もしこれを達成できれば、すべての賭けは終了となる。

そして最後に、ブラックスワン(予想もつかなかったことが起きる)シナリオがある。誰かがガレージで、現在の主流とは全く似ていない次世代のアルゴリズムを発見するというものだ。もしこの孤独なライダーが、それを自分自身のために使うことができなら、私たちは史上初の自力1兆ドル長者(trillionaire)を目撃することになるだろう。しかし、これはどこから来るのだろうか?私はこれが何もないところから突然出てくるとは思っていない。それは、主流技術と放棄されたモデルベースのアルゴリズムとの組み合わせになるかもしれない。2010年代には、ニューラルネットが発展し、研究の基礎の一部が失われていた、かつて有望だったアプローチ(シンボリックアプローチなど)にも目が向けられた。現在のAIで行われている活動も、その他の関連した研究フィールドを復活させている。いまや研究者で溢れていないような、「あまり知られていない」技法やアルゴリズムを発見することは難しくなりつつある。それにもかかわらず、ゲームを変えるアプローチを見つけたり、復活させたりする外部者が登場する可能性は捨てきれない。

勝者は誰か?
以上をまとめて、この極めて難しい質問を行うことにしよう。これに対する答は、上記のシナリオだけでなく、あなたが何者であるかに依存する。リソースと既存の資産が戦略の鍵であるために、ビジネスの出発点がこの方程式では重要な要素である。

AIチャンピオンズリーグでは、十分な資金力を持ち、重要な才能を引き付けることができる企業の数は少ない。これはどちらかと言えば現在はコストがかかるプロセスなので、収益源は他に求めなければならない。こうしたことから、プレイヤーはよく知られたGoogle、Facebook、Microsoft、IBMたちに限定されることになる。彼らは現行のオープンソーススタックとは異なる、巨大な独自システムを構築し、新しいクラスの問題に取り組んでいる。ある程度の時間が経過したら、活力のあるコミュニティを構築するために、彼らはこれを次世代のオープンソースフレームワークに組み込むだろう。

こうしたプレイヤーたちは、より良いアルゴリズムを訓練するのに適した、既存のプラットフォームも所有している。AIはメガトレンドかも知れないが、企業のためのそして企業による、日々のビジネスへの適用も、彼らの成功のためには重要である。こうしたプラットフォーム:Amazon、Facebook、Google Apps、Netflix、さらにはQuoraさえもが、AIを利用してそのコアビジネスモデルを守り強化している。彼らはAIによって顧客により良いサービスを提供する方法を発見しているが、その一方、自身のコアビジネスを、人工知能を用いてやっていることとは別のものとしている(少なくとも表向きは)。

一方、一部の新興プラットフォームは、彼ら自身のツールセットに、AIを組み込む方法を見出している。こうした企業たちは、なによりもまずAIがビジネスを可能にしてくれた、そして収益化を可能にしてくれたと主張している。こうしたビジネス例の1つが、文法チェッカーのGrammarlyである。

一見したところでは、既存のベンダーでも自分で簡単に開発できる、気の利いたアドオンのように思えるだろう。しかし、内容はもっと複雑だ。彼らはここで2つの資産を構築している。さらなる品質向上のためのコミュニティ生成データセット、そしてより持続可能な、広告パートナーのための驚くほどパーソナライズされたマーケットプレイスだ。

そしてツールメーカーたちもいる。Mark Twainが語ったように、金を掘るのは他人に任せて、その横でシャベルを売るのだ。そのやり方はかつてうまくいったが、おそらく今回もうまくいくだろう。データの提供、コンテストの開催、人材の交流、人びとの教育。企画のためには、すべてのAIの志望者が必要とする(または望む)ものを見つけ出せばよい。そしてそれで稼ぐのだ。

UdemyはAIコースを教え、Kaggleは企業を支援しデータサイエンティストたちにスキルを習得させるための、AIコンテストを創始した。AIのコアコンピテンシーを構築する必要もない、企業たちは成功するためにペタバイト規模のデータを必要としているからだ。そして彼らのほとんどは教師あり学習を採用しているので、それを監督する人間も必要なのだ。

そしてAIコンサルティングというニッチな領域を見つけた企業もある。巨人の提供するオープンソースフレームワークの肩の上でさえも、やるべきことがまだたくさん残っているのだ。

Element AIのような企業は、そうした追加のAI関連の仕事を行う部品を、プロダクトやサービスに組み込むことを可能にした。確かに、最近行われた1億200万ドルの調達によって、彼らは成功のために必要な十分な資金を得ることができた。

出番を待っているその他の企業たちもある。人工知能ソリューションを持ち、既存のビジネスプロセスを置き換えようとしている企業たちだ。しかし、こうした企業たちは、2つの点で課題に直面している。1つは同じ問題を解決するための、オープンソースプロジェクトを開発することが可能であること、そしてもう1つは、既存のベンダーが同じ問題を解決するために、より自動化されたソリューションに対して多額の投資を行っていることだ。

業界で最も重要な要素は、非常に少数の研究者グループの中で起こっている、主流AI研究のスピードだ。彼らの研究成果は、ほとんど遅れることなく、AIチャンピオンプレイヤーたちによって開発されているフレームワークの中に取り込まれる。その他大勢の私たちは、人工知能列車の乗客か、もしくはその経路上にある障害物だ。結局のところ、ポジショニングが全てである。自分たちの位置付けを上記のコンテキストを考慮して決定する企業は、のぞむ目的地に辿り着ける可能性があるだろう。