2018年5月31日木曜日
支援型自動化と自律型自動化
支援型自動化は、従業員のデスクトップで実行されるさまざまなアプリケーションをRPAツールを使って自動化する場合に用いる。このモデルでは、プロセスの自動化手順を設定するのに人手の介在が必要になる。ユーザーが複雑なプロセスを遂行するのを支援する目的で使われることが多い。支援型自動化のメリットには、プロジェクトの処理時間の短縮、コスト効率の向上、顧客や従業員エクスペリエンスの改善などがある。支援型自動化の大きなデメリットは、RPAが失敗する可能性があることだ。こうした失敗は、グラフィックスやディスプレイの解像度設定の違いなど、デスクトップ設定の不整合が原因になる。また、自動化手順の実行中にデスクトップがロックされることもある。
これに対して、自律型自動化は人手の介在を必要としない。このモデルでは、RPAソフトウェアが独自に自動実行され、問題が発生した場合のみ従業員に警告する。自律型自動化により、RPAソフトウェアを毎日24時間稼働することが可能になる。これはプロセス全体を最適化する理想的なシナリオだ。残念ながら、このモデルには大きな課題がある。自律型自動化を実装するには、構造化した情報と明確に定義したルールが必要になる。だが、こうした情報がプロジェクトのあらゆるユースケースに当てはまるとは限らない。
どちらのモデルを採用するとしても、一方のモデルをサポートしないことを理由にベンダーを選択肢から外さないことが重要だ。複数のツールを利用することが最も有効な手段になることもある。
人工知能(AI)の進化が生む「音声認識」の新たな用途とは
企業における音声認識技術のユースケースは、主に2種類ある。指示に基づいて処理をする制御アプリケーションへの利用と、AI技術を使った従業員の生産性向上アプリケーションへの利用だ。AI技術が成熟し、企業の業務プロセスに深く浸透していけば、ユースケースはさらに広がるだろう。
音声認識技術を制御アプリケーションに適用すれば、今まではテキストで指示をしたり、手動でこなしたりする必要があったタスクの実行を効率化できる。例えば会議をセットアップしたり、会議室機能を管理したりする音声コマンドをUC製品に組み込むことが可能になる。参加者全員が会議に出席できる時間の調整や会議への招待、会議の予約、関連資料の共有といった作業を、音声による指示で自動化できる。
会議中にはAI技術のレベルに応じて、照明や音量、音響・映像(AV)機器を音声コマンドで操作できる。UCベンダー各社はAI技術を使った音声認識に取り組み始めたばかりであり、今後ユースケースは広がっていくだろう。
生産性向上アプリケーションにAI技術ベースの音声認識技術を生かすユースケースはさらに興味深く、UCベンダーの可能性がますます拡大しそうだ。
AI技術を使った近年の音声認識の精度は、人のレベルに近づいている。テキストから音声へ、音声からテキストへの変換の用途は、無限に広がる。
新しい音声認識技術の活用例として挙げられるのが、議事録作成だ。リアルタイムで発言を記録できれば、出席者はメモを取らずに済み、会議に集中できる。テキスト読み上げ機能を使ってメールを音声で聞いたり、ポッドキャスト(インターネットで更新される音声番組)を作成したりすることもできるだろう。
UCベンダー各社には、こうした音声認識技術を活用した新しい生産性向上機能の提供を期待する。
音声認識技術」に注目するベンダーの動き
「音声アシスタント」の企業利用とリスク
モジュール式を採用したマルウェア「VPNFilter」はなぜ厄介か
感染原因についてはまだ不明ですが、デフォルト設定のままの認証情報を用いたか、あるいは既知の脆弱性が悪用された可能性が指摘されています。少なくともQNAP、Linksys、MikroTik、NETGEAR、TP-Linkの製品で感染が確認されており、Taolsによると、ウクライナを中心に54カ国で50万台に上る機器が感染したといいます。感染した機器はbotネットを形成し、攻撃者が操るC2サーバの指令に従う形です。
TalosやSymantecが分析結果を公開していますが、VPNFilterは「モジュール式」のマルウェアで、3つの段階を経て情報窃取を行います。
第1段階は、攻撃に必要なモジュールをC2サーバから継続的にダウンロードするための設定で、いわば「ダウンローダー」「バックドア」的な役割を果たすものといえるでしょう。第2段階で感染したマルウェアによって、デバイス管理情報などの窃取などが行われます。
そしてさらに別のモジュールをダウンロードしてくるのが第3段階で、通信内容を盗聴するスニファーやTor通信モジュールといった拡張機能が加わります。中には、IT機器だけでなく、制御システムを構成するPLC(Programmable Logic Controller)のコントロールに用いられる通信プロトコル「Modbus」を監視するコンポーネントが含まれているとの報告もあります。
もう1つ厄介なのは、再起動すれば第2段階のマルウェアまでは消去されるのですが、第1段階のマルウェアは再起動後も残っていることです。これまでのIoTデバイスをターゲットにしたマルウェアとは異なり、再起動だけでは根本的な再感染の防止が困難なのです。Talosをはじめとするセキュリティ企業は、機器を工場出荷状態にリセットして再起動し、ファームウェアを最新のバージョンにアップデートすることを推奨しています。
その危険性を鑑み、米FBIはC2サーバの停止措置(テイクダウン)を実施したと発表しています。
だからといって、これで事態は収束する、と考えるのは楽観的に過ぎるかもしれません。過去のITシステムへの攻撃では、モグラたたきのように、あるドメインが差し押さえられても異なるドメイン、異なるIPアドレスを用いて、botによる攻撃が継続したケースがあります。VPNFilterについても、「第一報」の波が収まった後も継続してウォッチしておく必要がありそうです。
Roaming Mantisのケースもそうですが、デフォルトパスワード設定の変更とファームウェアのアップデート、よほど必要がない限り外部からのアクセスを制限する、といった基本的な対策を徹底することが引き続き重要でしょう。
2018年5月30日水曜日
Cloud Foundry on Kubernetes、その理由とは
2018年4月の「Cloud Foundry Summit 2018 in Boston」では、Kubernetes上でコンテナとしてCloud Foundryを動かすCloud Foundry on Kubernetesについて、2つの大きな動きがあった。
IBMはCloud Foundry on Kubernetesのマネージドサービス、「IBM Cloud Foundry Enterprise Environment 」を発表。SUSEは同社のソフトウェア「SUSE Cloud Application Platform」が、Cloud Foundry FoundationからCloud Foundry Application Runtimeディストリビューションとしての認定を受けたと発表した。
ただし、いずれもまだ、本格提供には至っていない。
一方、SUSE Cloud Application Platformは2018年1月に限定顧客を対象としてリリース。2018年4月にはバージョン1.1を提供開始した。少数顧客との協業を通じ、良好な利用体験が得られるよう、取り組みを続けるという。今後数カ月にわたって、対象を拡大していくとする。
「Cloud FoundryはPaaS、KubernetesはIaaS+」
では、この2社はなぜCloud Foundry on Kubernetesを推進するのか。
IBMのリードIBM Cloud Foundryアーキテクトであるサイモン・モーザー(Simon Moser)氏は、ブログポストで次のように述べている。
「(Cloud FoundryとKubernetesは、)コンテナランタイムを動かすという点で非常に大きなオーバーラップがある。そして、この2つのコンテナランタイムの実装方法は異なっている(最終的にはrunc/containerdをベースとすることにはなるが)。(中略)だが一方で、k8s(訳注:Kubernetesのこと)の開発者にとっての使い勝手はとても貧弱だ。一般的にk8sは、『PaaS』というより『IaaS+』と考えられている」
KubernetesとCloud Foundryは抽象度の違いにより、管理者にとっての使い勝手が異なる(出典:モーザー氏のTHINK 2018における講演資料)
「では、k8sがPaaSというよりも『IaaS+』に近いのなら、CF(訳注:Cloud Foundryのこと)をk8s上で動かせるのではないか? CFの特徴の1つは特定の『IaaS』に縛られないことだ。だからできるはずではないか? そこでわれわれは試してみた」
モーザー氏たちは、まずCloud Foundryでプロビジョニング/ライフサイクル管理ツールとして使われているBOSHを用い、KubernetesをIaaSに見立ててKubernetesプロバイダーインタフェースを書いたという。だが、Kubernetesはサーバ仮想化などのIaaSに比べて「インテリジェント」であるため、うまくいかなかったという。
そこでSUSEが開発したfissileおよびSUSE Cloud Foundryに目を付け、これらを使ってCloud Foundry on Kubernetesを構築したという。
一方、SUSEのプロダクト&テクノロジープログラム担当バイスプレジデント、ジェラルド・ファイファー(Gerald Pfeifer)氏は、筆者のメールによる質問に、次のように返答している。
「コンテナを動かし、管理するオペレーションタスクに関しては、Kubernetesがリーダーであり、市場に選ばれた存在だといえる。しかし、アプリケーション構築のための開発者にとってのワークフロー機能だ。(一方、)Cloud Foundryはコンテナベースのアプリケーションをパッケージングしてデプロイするための開発者のためのワークフローという点でリーダーであり、数々の企業においてもこれは実証されている。しかし、(Cloud Foundryは)これまで、今日広く普及しているKukbernetesプラットフォームを、オペレーションで活用してこなかった。SUSEがCloud Application Platformを開発したのはそのためだ」
「アプリケーションのパッケージングおよびデプロイメントについては、Cloud Foundryの非常に効率的なワークフローを手に入れられ、実際には今日のITプロフェッショナルの多くが動かすことを前提としているKubernetesプラットフォーム上に、デプロイできることになる」
ファイファー氏は、このアーキテクチャが、Cloud Foundryユーザーにとって、2つのメリットをもたらすと答えた。
第1に、Cloud Foundryをコンテナ化するため、物理マシンや仮想マシン上にCloud Foundryを直接導入するのに比べ、フットプリントを小さく抑えられる。
「従って、他のディストリビューションではコストがかかり過ぎて導入に至らなかったような、新しい層のユーザーにとって、手が届くようになる」
関連して指摘できるのは、SUSEがCloud Application Platformで、パブリッククラウドの多様なKubernetesマネージドサービスへの対応を進めていることだ。バージョン1.1ではMicrosoft Azureの「Azure Container Service」をサポートした。こうして多くのパブリッククラウドが提供している各種のKubernetesマネージドサービス上で、Cloud Foundryを「気軽に」使える環境が整ってくると考えられる。
第2にファイファー氏が指摘するのは、BOSHを使わなくて済むということだ。
「BOSHはパワフルだが複雑な技術」だとファイファー氏は述べている。KubernetesにCloud Foundryの管理を任せれば、Kubernetesに慣れた運用担当者が、これに加えてCloud Foundryを動かすだけのために、BOSHを設定し、管理する必要がなくなる。
「既存のKubernetes環境上で、Cloud Foundryのもたらす開発体験を、かなり容易に追加できることになる」(ファイファー氏)
つまり、開発者にとっては、「cf push」に象徴されるアプリケーション投入の容易さを提供するためにCloud Foundryを利用することが望ましい。そこで、Cloud Foundry on Kubernetesにより、Kubernetesユーザーである運用担当者にとってのCloud Foundryの導入、運用作業を簡単にすることで、この開発者にとって望ましい環境を、従来よりも提供しやすくできるのだという。
なぜ、Cloud FoundryとKubernetesを横に並べて使うよりもいいのか
Cloud FoundryプロジェクトおよびPivotalは、BOSHによる管理を通じ、Cloud FoundryとKuberenetesを横に並べて運用する環境を整備する取り組みを進めてきた。
では、Cloud Foundry on Kubernetesは、なぜCloud FoundryとKubernetesを横に並べて使うよりも優れているのか。ファイファー氏にあらためて聞いてみた。答えは次の通りだ。
「横に並べることで、顧客はCloud FoundryとKubernetesのどちらも利用できる。これは良いニュースだ。しかし、このアプローチには不要なオーバーヘッドがある。横に並べて動かすと、2つの独立した環境を管理しなければならないことになる。結局のところ、Cloud Foundryが得意なのは、開発体験の部分だ。一方運用面に関しては、アプリケーションを稼働するという点で、KuberenetesがCloud Foundryのインフラと完璧に競合し得る状況になっている」
「Cloud Foundryの運用基盤としてKubernetesを利用することで、双方の『いいところ取り』ができる。Kuberentesは既に多くの企業で採用されている運用基盤だ。Cloud Foundryは、その本来の目的であるユーザーエクスペリエンスの提供のために使われるべきだ。2つを横に並べて動かすのでは、これらの利点を得るために、2つの別個のインフラを稼働し、管理しなければならなくなる。最終的には、Kubernetes上にCloud Foundryを稼働させる実装により、2つを並列で動かす必要がなくなる。2つの同様な(、そして技術的に競合する)運用インフラを持つ必要はない」
2018年5月29日火曜日
量子コンピューティングは“物理実験”の段階にあり、企業はアルゴリズムの研究に集中せよ
2018年4月27日に開催された「ガートナーITインフラストラクチャ、オペレーション・マネジメント&データセンター サミット2018」(東京)では、同社でResearch Director、HPC Servers、Emerging Tech.を務めるChirag Dekate氏が「量子コンピューティング——十分理解されず懸念もある『大胆な破壊』」と題して、量子コンピューティングの現状と近い将来の姿を示した。本稿では講演の要旨をレポートする。
指数関数的な性能向上「ムーアの法則」を引き継ぐ量子コンピューティング
各国の大学や大企業、スタートアップ企業が量子コンピューティングへの取り組みを進め、加速しつつある。量子コンピューティング戦略を策定するITリーダーの割合は現在、全体の1%にとどまるが、2022年までに20%程度まで増えると予測しているという。
量子コンピューティングが重要な理由はこうだ。シリコン半導体を応用したコンピュータ技術の進化は、現在が最終段階であり、次世代の技術が求められている。過去30年にわたり、IT産業は半導体の密度と性能が指数関数的に増加する「ムーアの法則」に乗って成長してきた。しかし今やシリコン微細加工技術が限界に近づき、半導体の性能の伸びは鈍化している。
シリコン半導体では、トランジスタの数と性能がほぼ比例する。これに対して、量子コンピュータでは内蔵する「量子ビット」の数が増えると、性能が指数関数的に向上する。
現在の技術で扱うことができる量子ビットの数は少なく、既存の量子コンピュータの計算能力は、現在のシリコンベースの高性能なコンピュータには及ばない。だが、量子ビット数が向上していけば話は変わってくる。現在では考えられないような、高度な応用が可能となるだろう。
暗号解読やDB検索以外にも用途あり
量子コンピューティングでは、暗号解読に役立つ素因数分解の「ショアのアルゴリズム」や、データベース検索の「グローバーのアルゴリズム」が有名だ。
だが、それ以外にも量子コンピューティングが有効となるユースケースは幾つもある。以下では5つのユースケースに注目したい。
・最適化問題 問題の規模に応じて計算時間が指数関数的に増加する。ここで量子コンピューティングが有効となる
・個別化医療 2万種類を超えるタンパク質と薬物の相互作用をモデリングする
・化学 量子シミュレーションは原子を1個追加するごとに複雑性が指数関数的に増加するものの、この課題を量子コンピューティングが解決できる
・材料科学 原子の相互作用を計算し、新材料の発見に要する期間を短縮する
・生体模倣 例えば光合成のようなプロセスをシミュレートする
注意しておきたいことは、量子コンピューティングは成熟した技術ではなく、研究の初期段階ということだ。半導体でいえばトランジスタの発明から最初の集積回路(IC)の誕生の間ぐらいだろう。
最初のトランジスタは補聴器の小型化のために作られた。今のようなITの基盤になるとは考えられていなかった。量子コンピューティングは、まさにそのような段階にある。今後投資が拡大する中で、予想もつかない新たな応用が出てくるだろう。
量子コンピューティングへの取り組みは3種類に分かれる
Chirag Dekate氏の講演から、量子コンピューティングにはIT産業の今後の発展を支える大きな可能性があり、特有の強みがあるものの、実用化以前の段階にあることが分かった。
では、先進的な取り組みを続ける企業は何を試みているのか? 一般企業や研究を支援する国は、今何をすればよいのか? 以下では同氏へのインタビュー模様を紹介しよう。
──量子コンピューティング分野の戦略を策定しているITリーダーは現在1%未満にとどまるそうですが、その先進的な1%とは、どのような人たちなのでしょうか。
Chirag Dekate氏:まず所属している企業が大きく2つに分かれます。1つは米Googleや中国アリババ(Alibaba)のようなハイパースケールカンパニー。もう1つは、伝統的な大企業です。
Googleやアリババは、量子コンピューティングの新しい技術をゼロから立ち上げようとしています。Googleはカリフォルニア大学サンタバーバラ校と協力しています。アリババは、中国科学技術大学らと協力しています。
一方、長瀬産業やJPモルガン・チェースのような伝統的な企業は、量子コンピューティングそのものの技術よりも、事業関連領域のアプリケーションに集中しています。取り組みの種類が全く違うのです。
加えて第3の領域として政府機関があります。米国やEU諸国、中国、日本、オーストラリア、カナダなどの政府系団体も取り組みを進めています。以上が、量子コンピューティングに取り組む1%未満のプレ−ヤーの顔ぶれです。
──この中で、伝統的な大企業といえる長瀬産業やJPモルガン・チェースのような会社は、量子コンピューティングへの取り組みで今どのような段階にいるのでしょうか。
Dekate氏:非常に早期の段階です。これらの企業は自社の事業に量子コンピューティングをどのように適用できるか検討中です。しかし、アプリケーションの成熟までにはあと5〜10年はかかるでしょう。
──IBMは量子コンピューティングのクラウドサービス(QCaaS)として「IBM Q Experience」の提供を開始しています。このようなサービスで「今できること」は何でしょうか?
Dekate氏:IBMがクラウドサービスで提供する量子コンピューティングも16量子ビットと、現時点の計算能力はまだ小規模です。しかもそれを複数のユーザーで共有しています。このようなクラウドベースの量子コンピューティングは、「従来の問題を新しいアルゴリズム、新しいアプローチで見直すことを追求するため」に使われています。
5〜10年後には、クラウドで利用できる量子コンピューティングも50〜100量子ビットの規模に達し、誤り訂正も付くでしょう。そうなったとき、最初の成果が出てくるだろうと考えています。例えば2018年末までにGoogleが「量子超越性(Quantum Supremacy)を達成した」と発表するかもしれません。しかし、最初の段階ではトイプロブレム(ごく簡単な問題)用であって、(実務上)意味があるアプリケーションには遠いと考えた方がよいでしょう。
大事な点は、現在の取り組みの多くは、本質的には大規模な「量子物理実験」だということです。エンタープライズユーザーのほとんどにとって、まだ非常に早期の段階です。読者に対しては、ぜひ「今は過剰な投資をしたり、大規模な契約を結んだりする時期ではない」と伝えてください。
企業が今すべきは、"過剰な期待"を捨て、アルゴリズムの研究に集中すること
──Dekateさんは、講演の中で「広くサポートされる量子プログラミングのアプローチを選ぶべきだ」と提言していましたが、企業はどのような点に着眼すべきでしょうか? 例えば、量子ゲート方式(チューリングマシンを量子ビットで再構築したもの)と量子アニーリング方式(組み合わせ最適化問題を解くための一種の物理実験装置)の違いについてはどのように考えますか?
Dekate氏:確かに両者は違います。量子アニーリング方式は、量子コンピュータではないと主張する人もいます。ただ量子コンピューティング分野では、異なる組織が異なるアプローチで"量子物理実験装置"を作っています。その中には、うまくいくものもあれば、うまくいかないものも出てくるかもしれません。
ここで重要な問いが2つあります。1つはエンドユーザーアプリケーション開発の戦略があるか否か。もう1つは開発ツールの準備がどれだけ整っているかです。どちらも不十分です。その理由は、現状ではハードウェアの複雑さをまだ十分に標準化できておらず、その結果、ソフトウェアのレイヤーへの投資はまだ進んでいないからです。
従って、企業が今できることは、アルゴリズムの研究に集中すること、といえます。今後5年で量子コンピューティングのソフトウェアスタックが整備され、そこでアプリケーションの開発が現実的になるかもしれません。
──AI分野の深層学習(Deep Learning)では計算量、データ量の増大が顕著です。量子コンピューティングがAI分野に貢献できる可能性はありますか?
Dekate氏:確かに量子コンピューティングによる深層学習、機械学習を検討している人はいます。しかし率直に言えば、現時点では「同じことができるアプリケーション」を既存環境で、より安価に、より効率的に作成できます。ほとんどのITリーダーは今あるものを選ぶでしょう。つまり前述のように、しばらくの間は「実際に実現するものは何か」「過剰な期待を持っているのではないか」、それを見極めることなのです。
量子暗号が、国による投資のドライバーに
──量子暗号などの分野については、どのように見ていますか?
Dekate氏:量子暗号は重要です。既にアルゴリズムが存在しています。一方、ショアのアルゴリズムは素因数分解を高速化し、既存の暗号を解読できる可能性があります。
米国やEU、中国で量子コンピューティングへの投資が盛んな理由の1つは、暗号は国家の安全保障に深く関係するからです。誤り訂正付きの300量子ビットの量子コンピュータがあれば、現在ある最も高度な暗号も解けるでしょう。
──それが登場するのはいつ頃でしょうか?
Dekate氏:質問されたのが2年前だったら「20年後になる」と答えていたでしょう。しかし、ここ2年で状況が変わりました。
Googleは非常に大きな予算を投入しています。Intelもオランダのデルフト大学と提携して量子コンピューティングの研究に乗り出しています。アリババもIBMも盛んに研究を進めています。従来の予測をはるかに上回るスピードで進展があります。やがて、驚くような結果が出てくるかもしれません。
2015年には世界全体で15億ユーロ(約2000億円、1ユーロを130.57円として換算)の研究予算が量子コンピューティング分野に投入されたという推定です。そのうち米国が3億8000万ユーロ(約500億円)、中国が2億2000万ユーロ(約290億円)、ドイツが1億2000万ユーロ(約160億円)、カナダ1億ユーロ(約130億円)、オーストラリア7500万ユーロ(約98億円)、日本6300万ユーロ(約82億円)。この投資額が現在さらに急ピッチで上がっているのです。
(https://www.economist.com/news/essays/21717782-quantum-technology-beginning-come-its-own)
IT投資は、国策として考えるべきだ
──日本の投資額は、カナダやオーストラリアより小さいのですね。
Dekate氏:その通りです。オーストラリアやカナダは量子コンピューティングに大きな投資をしています。カナダでは、BlackBerryの創業者らがウォータールー大学に量子コンピューティング研究所を設立し、この地域をシリコンバレーならぬ「Quantum Valley(量子バレー)」にすると発言しています。オーストラリアもこの分野に強い意欲を持っています。
中国では5カ年計画で量子コンピューティングのテクノロジーの進展を図っています。この分野の投資額は2006年には600万元(約10億円、1人民元を17.36円として換算)にとどまっていました。それが2016年には60億元(約1000億円)の規模と推定されています。国家が20億元、それ以外が40億元を投資した計算です。このように中国では今までに見たことがないような規模で投資が進んでいます。その結果、この分野でリーダーとなる人材が育ってきています。
──研究予算で日本は既に他の国と巨大な差がついてしまっています。そのような状況にある日本の人々へのアドバイスはありますか?
Dekate氏:今やITへの投資は国策として考えなければいけません。無論、これは量子コンピューティングに限った話ではありません。特に重要なのは次世代のITリーダーを育てることです。リーダー人材は世界的に見て希少です。そのために国としては行政が政策フレームワークを作り、持続的なエコシステムを作るべきではないでしょうか。企業あるいは新たな技術のエンドユーザーとしては、政府機関や、行政に関与する政治家に対し、進んで意見を出していくことが大切だと考えます。
量子コンピュータがやってくる?
プレスリリースを見ていると、「INTEL'S 49-QUBIT PROCESSOR」というキャッチコピーと「Tangle Lake(タングルレイク)」という開発コードがまず飛び込んでくる。とたんにIntel Xeonか何かの既存プロセッサ系列のプレスリリースとのアナロジー(類推)が頭に浮かぶ。第7世代のCoreプロセッサは「Kaby Lake」、第8世代は「Coffee Lake」と、Intelの最近の開発コードは、「×× Lake」となっているからなおさらだ。
今にもデータセンターで必須のオプションボードとして使われるのか? 値段はいくら? 市場規模の予想はどのくらい? といった感覚になってくるのだが、違う。だいたい20mK(ミリケルビン、セ氏マイナス273.13度)に冷やさないと動作しないようなチップを普通の場所で使えるはずがない。
一般に「量子コンピュータ」というと、普通のコンピュータで解読に何百万年もかかる暗号を一瞬で解ける、といった「応用例」が流布されてきている。だが、今回のIntelのチップでそれが実現できるわけではない(と思う)。間違っていたら申し訳ないのだが、そういう計算が本当にできたら、ある意味、現代社会の情報インフラに崩壊の危機をもたらす巨大なインパクトである。今のところそういう心配はしなくてよさそうだ。
もっと端的なところでいうと、その手の問題が解けるような「汎用性」があるのならば、「××コインのマイニング」などは一瞬でできるはずだ。もしそうなら、採掘用にチップを売ってぼろもうけしているらしい、Intelの「目の上のたんこぶ」ともなっているグラフィックスチップで有名なN社のチップの値段が暴落すると思うが、そうもいかない。
昔話に脱線する。アナログコンピュータというものを触ったことはあるだろうか。筆者は大学の頃に少しだけ使ったことがある。40年も昔のその当時でもすでに旧式感が半端ない「装置」であった。
端的に言うと微分方程式を解くための装置といってよかろう。主として機械系の制御など、微分方程式で記述できるものを解いたり、場合によっては実時間で制御したりするために使われていた。ボードの上に抵抗、コンデンサー、アンプといった素子で、その微分方程式と等価な回路を作り、電気を流すと測定したい部分の電位が時間とともに変わり、それを拾ったペンが回転するドラムの上の紙にグラフを書いていくのだ。難しい方程式でも等価回路さえ組めれば短時間で解が得られる。
まだデジタルコンピュータの性能が十分でなく、コストも高かった時代に、計算尺では時間が大幅にかかるような設計を可能にした装置であった。物理現象そのもののアナロジーによっているから、人手では解けないような微分方程式も解けるのだが、解というのは「測定値」であって、まさにアナログである。使用した部品精度や測定精度に依存する近似解と言っていいだろう。
なお、この手の計算手法は今もなくなったわけでなく、デジタルコンピュータが安く高性能になった現代では、Matlabなどにとって代わられている。自動車業界などで流行のMBD(モデルベースデザイン)用のブロック図がアナログコンピュータのボード代わり、ともいえる。
何でそんなことを書いたかというと、現状、商用化を「狙っている」量子コンピュータというものは、ほとんど「アナログコンピュータ」だといわれることが多いからだ。計算途中の誤りなく完璧に動作できれば、それこそ暗号を一瞬で解けるはずだが、そうはいかない。「誤りナシ」とはいかず、「ある程度の誤り」があることを前提にしないと、計算ができないからだ。
現状、近似解でも求まれば役に立つ、というような応用分野でないと適用できないはずだ。昔のアナログコンピュータが人手では解けないような微分方程式を近似的に解いて工学的な問題解決に役立っていたように、現段階の量子コンピュータは、現段階のデジタルコンピュータでは時間がかかりすぎて解けないような問題で、かつ近似的に解けるだけでも十分役に立つような問題にフォーカスせざるを得ない。
そこで候補になってくるのが創薬といった分野である。素人考えであるが、薬は開発にたくさんの時間とお金がかかるし、ひとたび当たれば年間何千億円といった売り上げもついてくる。よって、近似解でも開発の役に立つなら使おう、というモチベーションはあるのかと想像する。量子コンピュータが一部で「熱い」だけでなく、本格的なブレークを果たすためには、量子コンピュータを使ってこんなにすごい(こんなに、もうかる)薬を発明した、といった事例が欲しいところである。そうなれば猫も杓子(しゃくし)も飛びつくことになる。まぁ、そのような成功事例の呼び水とするためのプレスリリースなのかもしれない。
それにどうも「量子コンピュータ業界」内部の事情も大分絡んでいるように見受けられる。遠くから見ていると、この業界に「火」をつけたのは、カナダのD-Wave Systemsという会社だ。製品が発表された当初は、本当に「量子コンピュータなのか?」という議論が続いたようだ。
素人にはよく分からない議論だったが、彼らのマシンが古典的な「量子コンピュータ」概念からは外れていたためだと思う。現在では「量子効果」を使っている、という意見が大勢を占めているらしいが。その真贋(しんがん)論争よりも、実際にマシンに組み上げたインパクトは大きかったんだと思う。
「量子コンピュータ」向けに考えられてきた計算方式が「役に立つ」問題を解けそうな雰囲気が出てきたからだ。そのせいか「量子効果」を使っているのか否かにかかわらず「役に立つなら」いいじゃないか、という派が増えたように見える。
中には「量子コンピュータ」に「インスパイヤ」されたけれど、量子効果は使っていません、と断言する方式まで登場するに至っている。「量子風」コンピュータか。「本格」量子コンピュータを作り上げるのは相当に困難そうだから、「量子風」方式でも「役に立つ」問題を解けるのなら早く立ち上げて主導権をとりたい、ということなのだと思う。
主導権をとれれば、応用先も増え、実績も出て「エコシステム」が出来上がる。一度「エコシステム」ができると勝手に回り始める。何せ、先にどれだけの広がりがあるのかまだ分からない分野なのだから。手を上げるところが多いのも分かる。
これに対して、Intelの「量子コンピュータ」に対する取り組みは、結構、本道じゃないかと思う。ちゃんと「量子効果」を使っている。プレスリリース文だけ読んでいると、今にも売り始めそうな勢いに見えるが、方向的には「量子コンピュータ」のあるべき姿に向けて取り組んでいる感がある。
けれど「本格量子」でないライバルたちが、先行して何か実績上げてしまうのではないか、という危機感というか焦りのようなものは、ないのだろうか。取りあえず何か実績見せておきたいのではないのだろうか、と考えてしまう。でも、それで「アナログコンピュータ」というのは……。
人工知能(AI)インフラ製品、主要ベンダー18社の特徴をつかむ(前編)
企業が人工知能(AI)インフラを構築しようとする場合、選択肢はたくさんある。多くのITベンダーが、幅広い分野で多種多様な製品やサービスを提供しているからだ。企業がAIアプリケーションを支えるITインフラを構築し、維持するのに役立つ。
本稿では、企業が効果的なAIインフラを構築し、AIを活用して最大の価値を生み出すには、どのような製品が必要かを素早く大まかに把握できるように、主要なベンダーとその製品の概要をまとめた(前編では11社の製品を紹介する)。
AIインフラ市場に関する幅広い調査を踏まえ、市場をリードする先進的なベンダーと、歴史のある有力ベンダーの両方に焦点を当てた。参考にした調査データには、TechTargetの調査結果に加え、Gartnerなど、定評のある調査会社のレポートのデータを含む。
なお、本稿ではGoogleを取り上げていないが、これは同社の機械学習アクセラレータ「Cloud TPU(Tensor Processing Unit)」が、本稿執筆時点でまだβ版だからだ。
Amazon
Amazon.comの子会社Amazon Web Services(AWS)は、社名と同名のクラウドインフラプラットフォームで多くのAIサービスをサポートしている。注目を集めているのが、機械学習サービスの「Amazon SageMaker」だ。SageMakerは、開発者やデータサイエンティストが任意の規模の機械学習モデルを迅速かつ簡単に構築し、トレーニングし、デプロイできるように設計されたフルマネージドサービスだ。単体で、または組み合わせて使用できるモジュールが用意されている。
SageMakerには「Jupyter」のノートブックインスタンスが含まれる(注1)。ユーザーはこのJupyterノートブックを使って、「Amazon Simple Storage Service(S3)」に保存されたトレーニングデータの探索や可視化ができる。S3内のデータに直接接続するか、フルマネージド型ETLサービス「AWS Glue」を使用して、「Amazon Relational Database Service(RDS)」やフルマネージド型NoSQLデータベースサービス「Amazon DynamoDB」、データウェアハウスサービス「Amazon Redshift」からAIデータをS3に移動して、それらのデータをノートブックで分析できる。
※注1:Jupyterノートブックとは、ノートブックと呼ばれる形式のファイルにプログラムや実行結果などを記録して管理できる、データ分析ツールのこと。
SageMakerでは、アルゴリズムの選択に役立つように、最も一般的な12の機械学習アルゴリズムが事前にインストールされている。このサービスは、オープンソースフレームワークの中で最も人気のある部類に入る「TensorFlow」と「Apache MXNet」を実行するよう事前に構成してある。独自のフレームワークを使用することも可能だ。
SageMakerのユースケースには、広告のターゲティング、債務不履行の予測、産業用IoT(モノのインターネット)、サプライチェーンと需要の予測などがある。
AWSはSageMakerについて、従量制のさまざまな料金モデルを用意している。
Baidu
中国のインターネット検索企業Baiduは、自社のAI機能をオープンプラットフォームの「ai.baidu.com」でサードパーティー開発者に開放している。このプラットフォームは、画像認識、音声認識、自然言語処理などのためのAPIとソフトウェア開発キットを提供している。同社によると、それらの大部分は無料だ。
Baiduのオープンソースベンチマーキングツール「DeepBench」は、ディープニューラルネットワークや推論のトレーニングに含まれる基本的な演算のパフォーマンスを測定する。これらの演算は、さまざまなハードウェアプラットフォームでニューラルネットワークライブラリを使って実行される。
DeepBenchはソースコード管理サービス「GitHub」でリポジトリを公開しており、「ディープニューラルネットワークで使用される基本的な演算で最高のパフォーマンスを発揮するのはどのハードウェアか」という問いに答えを出すことを目指している。
Cloudera
Clouderaの「Cloudera Altus」は、機械学習とアナリティクスのためのPaaS(Platform as a Service)であり、AIデータカタログおよびデータコンテキストの共有が可能だ。
Altusは、データエンジニアリング、SQL、ビジネスインテリジェンス(BI)ツールを含んでいる。Clouderaはデータサイエンスツールも追加する計画だ。同社によるとAltusは、さまざまなデータ分析機能において共有データエクスペリエンス(SDX)を実現する。これは、全ての機械学習および分析サービスで使用されるメタデータ(スキーマ、セキュリティ、ガバナンスポリシーなど)の信頼できるソースが1つあるということだ。
ClouderaはAltusとSDXにより、分析環境の無秩序な増殖を避けながら、セルフサービスによる分析を可能にするとともに、複雑なデータドリブンアプリケーションを開発できるオンデマンドツールをビジネスユーザーに提供したい考えだ。
Altusの課金体系はマネージドクラウドサービスの料金に基づく。この料金は、データエンジニアリングに利用する場合で1時間当たり0.08ドルとなっている。
Confluent
「Apache Kafka」をベースにしたConfluentの「Confluent Platform」は、AIデータから価値を引き出そうする企業向けのストリーミングプラットフォームだ。組織のエッジまでをカバーし、リアルタイムイベントのストリームデータをキャプチャーする。そのため、小売り、物流、製造、金融サービス、ハイテク、メディアといった業種の企業が、オンプレミスでもクラウドでも、このストリーミングプラットフォームを使って、顧客イベントやトランザクション、ユーザーエクスペリエンス、市場の変動にリアルタイムで対応できる。
Confluent Platformは、企業における詐欺検知、カスタマーエクスペリエンス支援、予測メンテナンスなど、スケーラブルなリアルタイムアプリケーションを構築する際の中枢を担う。このプラットフォームは、こうした特定のユースケースでは、移動中のデータを処理するという特徴がある。これにより、受け身ではなくリアルタイムの処理を実現している。
Confluent Enterpriseはサブスクリプションで利用できる。
Databricks
Databricksは「Apache Spark」を生み出したチームによって設立された。Apache Sparkは、ビッグデータエコシステムの中でも非常に活発なオープンソースプロジェクトだ。Databricksが提供する「Unified Analytics Platform」(統合型アナリティクスプラットフォーム)は、データサイエンスとエンジニアリングを1つのワークフローに統合し、データの専門家が生データとアナリティクスのギャップを橋渡しできるよう支援する。
Databricksプラットフォームは、Apache Sparkアプリケーションがクラウドにおいて、統合されたコラボレーション環境として本番環境を提供する。Databricksは、データ探索、プロトタイピング、データドリブンアプリケーションの運用というプロセスを民主化し、効率化する。
Databricksプラットフォームの料金は、利用するクラウドサービスプロバイダー、ワークロードの種類、機能によって違ってくる。
Hortonworks
「Hortonworks Data Platform」(HDP)は、エンタープライズ対応のオープンソースビッグデータプラットフォームだ。リアルタイム顧客アプリケーションのサポートや、分析機能の提供など、保存データのさまざまなユースケースに対応している。
HDPに含まれるデータ処理エンジンは、SQL、リアルタイムストリーミング、データサイエンス、AIユースケースなどをサポートしている。企業はテキストアナリティクス、画像検出、レコメンデーションシステム、異常検出、コホート/クラスタリング分析、リアルタイムネットワーク分析などのユースケースのために、HDPの一部としてApache Sparkを使用できる。
そしてHDPは、「IBM Data Science Experience」(DSX)と連携して動作する。DSXは、モデルを大規模かつ迅速にデプロイできるデータサイエンティスト向けのエンタープライズAIプラットフォームだ。HDPとDSXの連携の目的は、コラボレーションを容易にするとともに、エンタープライズグレード環境でオープンソースツールを活用することにある。
DSXは次のようなオープンソースデータサイエンスツールを提供する。これらは全てDSXプラットフォームに統合されている。
- 「RStudio」(統計分析用オープンソース開発言語「R」の統合開発環境)
- Apache Spark
- Jupyterや「Apache Zeppelin」ノートブック
IBM
「IBM Power Systems」が提供する「Accelerated Compute Server」(AC922)は、AIやハイパフォーマンスコンピューティング(HPC)、データ分析といったワークロードで求められるパフォーマンスを実現する。
AC922に搭載した新しいプロセッサ「POWER9」は、「PCI Express 4.0」「OpenCAPI」「NVIDIA NVLINK」といった次世代のI/O技術を提供する。これにより、AC922はPCI Express 3.0ベースのx86システムと比べて、プロセッサからアクセラレータへのAIデータの転送が9.5倍高速になっている。
POWER9プロセッサは、x86プロセッサと比べて最大5.6倍のI/O能力と2倍のスレッド数をサポートする。16、20コアの構成で使用でき、AC922の最大コアは44だ。
AC922は、「CORALプロジェクト」(オークリッジ国立研究所、アルゴンヌ国立研究所、ローレンス・リバモア国立研究所における米国エネルギー省主導のスーパーコンピュータ計画)のバックボーンだ。このスーパーコンピュータは、200ペタフロップス(PFLOPS)を超えるHPCパフォーマンスと、3エクサフロップス(EFLOPS)の"サービスとしてのAI"パフォーマンスの実現に向けて順調に開発が進んでいる。企業はAC922を、ディープラーニングフレームワークやデータベースアクセラレーションのようなデータ集約型ワークロードのデプロイに利用できる。
Informatica
Informaticaの「Intelligent Data Platform」は、同社の「CLAIRE」(CLoud-scale AI-powered REal-time)エンジンで動作し、エンタープライズAIインフラのデータ管理基盤を提供する。
CLAIREは、メタデータ、AI、機械学習を組み合わせてインテリジェントな提案を実現し、データ管理プロジェクトの開発とモニタリングを自動化するAI駆動エンジンだ。機械学習を用いてIntelligent Data Platformの全機能のインテリジェンスを促進し、数千のデータベースやファイルセットから類似データを検出し、データ品質の異常を発見し、データ構造を特定し、パフォーマンスの問題を予測、解決する。
例えば、CLAIREはインテリジェントデータを使って、データを発見し、重複を検出し、個別データ項目をビジネスエンティティにまとめ、複数のデータセットにタグを適用し、ユーザーにデータセットを提案する。データベースや非構造化ファイル全体にわたって自動的にデータドメイン(人、商品、コード、雇用日、場所、連絡先情報など)を推測できる。さらに、データドメインの集合体から成るエンティティ(購入注文や健康記録など)を特定できる。
Informaticaは価格情報を公表していない。
Information Builders
Information Buildersの「iWay 8」の安全でスケーラブルな環境は、マイクロサービス、ビッグデータ、データ統合戦略をサポートする。アプリケーションサポートを提供し、サービスおよびイベント指向のブロックチェーンアーキテクチャの基盤を構築する。
センサーが収集したデータなどのストリームデータ環境では、iWay 8のデータ管理技術がネイティブにビッグデータを取り込み、クリーニングし、整形し、他の情報ソースと統合する。これにより、行動につながるインサイト(洞察)に役立つコンテキストベースのインテリジェンスを企業に提供する。
「iWay Service Manager」は既存のオペレーションインフラとの統合により、ビジネスデータを結合する。そしてコーディングなしでアプリケーション、サービス、APIを統合し、新しいAIのデータタイプやソースへのアクセスを可能にする。開発者はシンプルな接続定義からビジネスロジック全体まで、適用可能な構成コンポーネントを再利用できる。
Intel
Intelは新型プロセッサの「Nervana Neural Network Processor(Nervana NNP)」をニューラルネットワーク専用に設計したとしており「ディープラーニングのサポートに必要な柔軟性を企業に提供するとともに、コアハードウェアコンポーネントを可能な限り効率的にすること」をこのプロセッサの目標に掲げている。
IntelによるとNervana NNPは、処理要素内と高帯域幅メモリ(HBM)の両方でデータをローカルに直接管理できる柔軟性をソフトウェアに提供する。
テンソルは、インメモリデータが常に、関連するコンピュート要素の最も近くに配置されるように、HBMモジュール間で分割できる。HBMは、コンピュート要素と外部メモリの間で最大1TBの帯域幅をサポートする。ソフトウェアは、どのデータブロックを処理要素内に長時間保存するかを判断できるので、外部メモリとのデータ移動を減らして消費電力を節約できる。
Microsoft
Microsoftは「Microsoft Azure」で開発者向けにAIプラットフォームを提供している。その中にはツール、サービス、AIインフラが含まれる。このプラットフォームは、開発者が既存アプリケーションをモダナイズする場合にも、新しいAIサービスを開発するために高度な機能を求めている場合にも対応できる。
「Microsoft Cognitive Services」など構築済みAI製品は、開発者がアプリケーションに最小限のコードで視覚、音声、言語、検索、知識に関する機能を追加するためのインテリジェントAPIの集合体だ。データサイエンスモデリングが不要であるため、アプリケーションは、ユーザーとの自然言語でのコミュニケーションや、画像内の意味のあるコンテンツの特定、声によるユーザーの認識といったタスクを実行できる。
Microsoftが会話AIの分野で提供する「Azure Bot Service」は、Azureプラットフォームに統合されているプラットフォームであり、人とコンピュータの比較的自然なやりとりを実現できる。
「Azure Machine Learning」は、データサイエンティストがカスタムAIおよび機械学習モデルを作成するためのクラウドサービスを提供する。