2018年10月26日金曜日

「AI導入のリスク」よりも、「AIを活用しないことで起こるリスク」を考えろ

AI」「機械学習」「ディープラーニング」といった技術への期待が過熱する中、あらゆる業種、業界で、これらをビジネスへ適用する動きが加速している。アイティメディアは、2018926日に東京・秋葉原で「AI/ディープラーニング ビジネス活用セミナー」を開催。セミナーでは、AI活用を支えるさまざまなソリューションが紹介された。

AI導入のリスク」よりも「AIを活用しないリスク」に対処せよ

 AIを導入することによるリスクよりも、AIを活用しないリスクを考えよ——。

 こう訴えかけるのは、NECのプラットフォームソリューション事業部でマネージャーを務める青木勝氏だ。本セミナーでは「AIの時代を迎え撃つためのヒント」と題するセッションを行い、企業が今すぐにAI活用に向けて動き出すべき理由や、そのためのステップを紹介した。

 「もはや、AIはブームではなくなっている。『ビッグデータ』がバズワードとなった2012年から既に5年以上が経過しており、データを重要な資産として蓄積してきた企業は、それをベースにAI活用を進めることができる。『AIの精度が100%ではない』ことをリスクと捉えて手をこまねくくらいであれば、むしろ今後は『AIを活用しないこと』で想定されるリスクへ対処するために、データを蓄積し、AI活用に取り組むべきタイミングになっている」(青木氏)

 「AIを活用しないことで想定されるリスク」とは、少子高齢化に伴う労働者人口の減少や業務のノウハウを持った社員が不足することによる業務品質の低下などが挙げられる。青木氏は例として、NECフィールディングが5年以上にわたって取り組んできた「保守部品の需要予測」へのAI活用を紹介した。

 結果として、予測誤差率は、従来の35%から9%にまで下がり、年間で約2億円分の在庫削減効果があったという。青木氏は「予測精度は100%ではないが、それでもAIを使うことで、従来の手法と比べて大きく在庫リスクを削減できることが実証された」とその意義を強調した。

NECフィールディングが「保守部品の需要予測」へのAIを活用した結果、予測誤差率が35%から9%にまで下がった

 「AIでは、人手では難しい大量のデータ処理を迅速に行える。また適用範囲は広く、『人(採用、配置、離職予防など)』『モノ(品質予測、検品、故障予測など)』『カネ(在庫削減、売上最大化、不正検知など)』といった、ビジネスのあらゆる分野で活用できる。必要な条件は『課題解決に適切なデータがあること』のみ。だからこそ、まずはデータの蓄積を行っていることが重要になる」(青木氏)

企業の情報活用ステージを引き上げる、NECのソリューション

 青木氏は、AI導入につながる「情報活用」の成熟度を示すステージとして「データ取得(収集)ができているか」「データが活用できる形で蓄積できているか」「データを見える化してビジネスに活用できているか」「予測、最適化などの高度な分析のトライアルができているか」「分析モデルを作成しビジネスで成果を挙げているか」の5つを挙げた。

AI導入につながる「情報活用」の成熟度を示すステージ

 企業では、このステージを1段階ずつ上りながら「情報活用」のレベル向上を目指すことになるが、NECでは、このステージを一気に登れるようサポートする製品とサービスを提供しているという。

 例えば、ビッグデータ処理向けのデータベースアプライアンスサーバとしては「Data Platform for AnalyticsDP4A)」を用意する。データの検索や集計に特化した列指向型のデータベースと、大規模データ処理向けのハードウェアをアプライアンスとしてパッケージングした製品だ。データ活用に欠かせない「高速性」「簡易性」「経済性」を兼ね備えている。

 また、具体的に業務への機械学習導入を検討し始めている企業には、ディープラーニングを核とした機械学習アプリケーション「RAPID機械学習」を提供している。

 RAPID機械学習は、OSSの機械学習ライブラリ「Torch」をエンジンに採用したアプリケーションで、NECによる商用サポートが提供される。画像解析、テキストマッチング、時系列数値解析といった、応用範囲の広いモデルのテンプレートがあらかじめ用意されており、企業が手持ちのデータを使ってディープラーニングによる分類、検知、レコメンドなどをすぐに検証することが可能だという。

NECの機械学習アプリケーション「RAPID機械学習」

 「NECは、50年以上にわたってAI技術の研究開発を続けており、2000件以上のプロジェクトに関わってきた。ビッグデータの専門組織を持ち、その中でコンサルタントやデータサイエンティストも多く育成している。

 AIやデータ分析のための技術や製品は、ユーザーにとっては、システムで実現したい機能の一部でしかない。だからこそ、さまざまな業務とAIとを結び付けられるシステムインテグレーション力が重要になる。NECでは、AI活用を目指す企業に、コンサルティング、製品、インテグレーション、継続的な改善といったライフサイクル全体をサポートするサービスを提供できる。AI時代におけるパートナーとして、ぜひ相談してほしい」(青木氏)

AIや機械学習を包含する「アナリティクス」専業ベンダーの強み

 続くセッションでは、SAS Institute Japan ビジネス開発グループ エバンジェリストの畝見真氏が、企業における「アナリティクス・ライフサイクル」の重要性や、AIプラットフォームについて説明を行った。

 SAS Instituteは、1976年に設立された「アナリティクス」の専業ベンダーである。畝見氏は「近年、話題になっているディープラーニングは、機械学習のジャンルの一つ。SASにおいて『アナリティクス』は、機械学習をはじめとして、統計解析、データマイニングといった手法全てを包含する概念だと定義している」とする。

 「SAS40年以上にわたって、アナリティクス分野で豊富な経験と実績を積み重ねてきた。SASの顧客は、これまでもアナリティクスを通じて多くのビジネス的な価値を生み出してきた」

SASにおいて「アナリティクス」は、機械学習をはじめとして、統計解析、データマイニングといった手法全てを包含する概念だと定義している

 畝見氏は、AIを含むアナリティクスの活用を通じて、ビジネス上の価値を創出するためのポイントは、企業の中で「アナリティクス・ライフサイクル」を確立することだと強調する。

 アナリティクス・ライフサイクルとは、「データへのアクセス」「クレンジング」「準備」「データの探索」「分析」「モデル生成」「モデル管理」「業務への実装」「モニタリング」「結果に基づく改善」といった一連のプロセスであり、このサイクルをいかに素早く、正確に回し続けられるかが、ビジネス面での価値創出に直結するという。

 「ビッグデータの取り回しや、アナリティクスに関しては、OSSを含めてさまざまなソリューションがある。しかし、アナリティクス・ライフサイクルにおいて、それぞれのフェーズで使う個別のツールを継ぎはぎして使っていては、どうしても時間がかかってしまう。同じ時間の中で、できるだけ多くサイクルを回すためには、あらかじめ必要な要素が統合されたプラットフォームが適している」(畝見氏)

データ分析で価値を生み出すには、「アナリティクス・ライフサイクル」が重要だという

「アナリティクス・ライフサイクル」の確立に統合環境が必要な理由

 企業が「アナリティクス・ライフサイクル」を確立するためのツールとして、SASが提供しているのが「SAS Viya」と呼ばれるプラットフォームだ。SAS Viyaでは統一されたGUI環境から、先ほど挙げたライフサイクルの全プロセスを、実行および管理できる。

SASが提供するプラットフォーム「SAS Viya

 「SAS Viyaでは、ビジネスユーザーやビジネスアナリスト、データサイエンティスト、デベロッパーなど、さまざまな役割とスキルレベルを持つ人が、自分に合ったユーザーインタフェースを使い、同一のプラットフォーム上でアナリティクス・ライフサイクルを展開できる」(畝見氏)

 例えば、ビジネスアナリスト(業務部門でデータ分析を行うユーザー)は、基本的にSAS Viyaに用意されたGUIツールを使ってデータの準備や分析を行い、データサイエンティストは、GUI環境やSAS言語に加えて、PythonRJavaLuaといった言語の中から自分が慣れ親しんだものを使って独自の処理を加え、そのコードをViya上にホスティングし、共有するといったことも行える。

 データの分析やモデル作成といったアナリティクスは、SASの最も得意とする領域だ。SAS Viyaでは、あらかじめ用意されたモデルテンプレートを使って視覚的に分析のプロセスを作成できる。このテンプレートのコードはオープンになっているため、必要に応じて独自にカスタマイズすることも可能だ。

 また、SAS Viyaは、ディープラーニングの活用に当たって「モデルによる判断の根拠を可視化できる」機能が用意されている点が特長だという。一般に、ディープラーニングによる判断のロジックは"ブラックボックス"であり、なぜそのような結果になったのかの原因究明は難しいとされる。

 SAS Viyaでは、例えば画像認識ならば、判断結果に強く影響を与えた部分をヒートマップとして表示したり、影響の大きな入力変数や、その変数と他の変数との相互作用などを探索したりできる仕組みが用意されている。この機能は「より効率的なモデル改善に活用できる」(畝見氏)という。

「データサイエンティストの本質は、ビジネス価値の創出にある」と畝見氏は強調する

 作成したモデルは、業務に適用して初めて価値が生まれ、その結果をモニタリングし、改善していくことで価値を高められる。SAS Viyaでは、モデルを"企業の資産"として管理し、改善していくための環境も用意している。予測モデルのバージョン管理、業務プロセスへのデプロイ、実装後の精度モニタリング、必要に応じた再学習の実施といった作業が、他のプロセスと統合されたGUIから実行可能だ。

 「こうした、各プロセス間の遷移や連携がスムーズに行える点が、統合プラットフォームであるSAS Viyaの最大の特長。複数ベンダーのプロダクトやOSSの組み合わせでは、ここまでスムーズにはいかない」(畝見氏)

 畝見氏は今後、企業におけるデータサイエンティストの役割は、さらに広がっていくと予測する。

 「かつてのデータサイエンティストは、データの加工や分析、モデルの精度向上などが主な仕事とされていた。しかしこれからは、ビジネス知識を備え、社内のさまざまな部署を巻き込みながら、プロジェクトマネジャーと連携して『アナリティクス・ライフサイクル』のグランドデザインを描き、ビジネス価値を創出していくことが真価になるだろう。ただ、そこまでが可能なスーパーマンは少ないのも事実。そのときは、SASが提供しているソリューションもぜひ検討してほしい」

 

「マルチクラウド」と「ハイブリッドクラウド」を徹底比較 意外なIT担当者の認識

 「マルチクラウド」はIT用語としては新しい。「パブリッククラウド」「プライベートクラウド」「エンタープライズクラウド」「ハイブリッドクラウド」などの用語は以前からあるが、どれもマルチクラウドが持つアーキテクチャを説明するものでないことは明らかだ。では、マルチクラウドという不思議な環境は厳密にどのようなもので、他のクラウドとはどう違うのだろうか。

 用語から明らかなように、マルチクラウドには複数のクラウドが含まれている。これについてはハイブリッドクラウドも同様だ。だが、マルチクラウドとハイブリッドクラウドには大きな違いがある。その違いによって市場の注目はわずかにマルチクラウドの方に集まっている。

 ハイブリッドクラウドは1つの独立した存在だ。プライベートクラウドと1社以上のパブリッククラウドが混在するものと定義される。SaaS(Software as a Service)、IaaS(Infrastructure as a Service)、PaaS(Platform as a Service)、その他の「as a Service」の任意の組み合わせになる。複数のクラウドの組み合わせでも、ハイブリッドクラウドは単一の存在を表す。

マルチクラウドとハイブリッドクラウドの本質的な違い
 マルチクラウドは本質的に1つの存在ではない。寄せ集めて管理する必要がある一連の複数の存在だ。

 マルチクラウドとハイブリッドクラウドという用語は、意味論的に見ればこの2つを置き換えても大きな支障はない。だが一般的に、ハイブリッドクラウドにはパブリッククラウドとプライベートクラウドが混在している一方で、マルチクラウドは運用するクラウドの種類を区別しない。マルチクラウドにはプライベートクラウドが一切含まれないこともある。「Amazon Web Services」(AWS)と「Microsoft Azure」で大半のものを運用し、Googleの「G Suite」を一部利用する——これもマルチクラウドの環境だ。

 マルチクラウドとハイブリッドクラウドを比較する際、意識すべき違いがもう一つある。マルチクラウドの環境ではクラウド同士が統合されずに運用されてもよく、それがマルチクラウドを複数の存在であると表現する理由だ。一方でハイブリッドクラウドは、コンポーネントが統合されて、結合した単一の存在になるという思い込みがあるようだが、それは誤った想定だ。

クラウドの進化
 クラウドに対するユーザーの考え方が変わってきたように、クラウドを説明する用語も以下のように変化している。

プライベートクラウドでは、全てが企業のデータセンター内に存在する。サービスには独自のサンドボックスがあり、アプリケーションはモノリシック(全体が1つのモジュールでできていること)な設計になっている。
パブリッククラウドはデータセンターの外部にある。サービスとアプリケーションが中心で、各アプリ間は境界線で区切られている。クラウドでの利用を前提とするアプリケーションはモジュール構造になる。だがユーザーは考え方を変えずに、この環境をまだデータセンターとして扱っている。
ハイブリッドクラウドは、プライベートクラウドとパブリッククラウドの両方の要素が入っている。それぞれは分離しているが、両方で全体が形成される。大抵の場合はアプリケーション中心の利用となっている。分散アプリケーションの始まりでもある。
マルチクラウドでは、アプリケーションをクラウド全体に広げることができるが、必須ではない。アプリケーションのコンポーネントは、理にかなった場所ならどこにでも配置できる。ユーザーはデータセンターのことを考えなくなっている。ユーザーはアプリケーションのコンポーネントを結び合わせる大規模なファブリック(各ハードウェアを高速のインターコネクトでつないだシステム)だと捉えている。
このリストは変遷を示すことを意図しており、包括的に説明しているものではない。

マルチクラウドとハイブリッドクラウドのメリットを比較
 ハイブリッドクラウドは、オンプレミスのプライベートクラウドとパブリッククラウドの両方からサービスを利用できる柔軟性がある。両方のクラウドにワークロードを導入することもできる。例えば重要なセキュリティ要件がある、業務を遂行する上で不可欠なワークロードは、企業がインフラやソフトウェアスタックを制御するプライベートクラウドに導入する。Webサーバやテスト環境など、その他のワークロードはパブリッククラウドに導入することが多い。これにより、企業ではワークロード全てについて、プライベートクラウドのインフラに全面的に投資する必要がなくなる。パブリッククラウドに導入するワークロードには、使用したリソースに対してのみコストを支払うことが可能だ。

 ハイブリッドクラウドでは、パブリッククラウドが持つ拡張性を活用して、必要に応じて負荷の大きな処理ができる。大規模な「Apache Hadoop」クラスタの作成を伴うビッグデータ分析などだ。また、企業がクラウド間でリソースを共有できるようにもなる。ワークロードのデータがパブリッククラウドに保管されていても、プライベートクラウドからそのワークロードを実行できる。リソースのコストが変動型である利点を利用して、ネットワークトラフィックに応じてパブリッククラウドとプライベート間でワークロードを移行させることも可能だ。

 マルチクラウドではその環境全体が作業場になり、パブリッククラウドとプライベートクラウドをさまざまな組み合わせで利用することができる。それらを密接に統合することは必ずしも要求されない。当然、サービスの利用方法によっては統合が推奨される場合もあるが、本質的に必要なものではない。例えば、いずれかのクラウドに障害が生じた場合の保護を目的として、分散アプリケーションの異なる要素をマルチクラウドに導入する。

 マルチクラウドでは、アプリケーションやワークロードを構成する個別のコンポーネントを企業やアプリケーション開発者が選ぶこともできる。乗り越えるべき技術的なハードルは存在しない。開発者は単一のベンダーから提供されるものを我慢して利用するのではなく、自身のニーズを満たす特定のサービスを選択できる。

デメリットを比較
 ここまでのマルチクラウドとハイブリッドクラウドの説明では両アプローチのメリットを紹介してきた。とはいえ、デメリットも存在する。ハイブリッドクラウドでは導入と保守が複雑になることがある。ハイブリッドクラウドに適用するプライベートクラウドの要素を導入することは、それ自体が大変な作業になる。インフラに関して広範囲に及ぶ責任が生じ、担当者に高い専門知識が求められる。その上、ハイブリッドクラウドのモデルになるには、プライベートクラウドに加えて、ソフトウェアスタックが利用できる1社以上のパブリッククラウドを統合しなければならない。プライベートクラウドを複数のパブリッククラウドと統合する場合は、さらに大変で複雑な作業になる。

 ハイブリッドクラウドには独自の管理やセキュリティ、オーケストレーションに関する課題もある。合理的な効率性の水準を保つために、できる限り詳細にプライベートクラウドとパブリッククラウドの両面を統合することが推奨される。そのためには、統合された一貫性のあるID管理と認証のプロセスを実現する方法が必要になる。統合するサービスによっては、他の脆弱(ぜいじゃく)性が潜んでいることも注意する必要があるだろう。例えば、APIのトラフィック交換のセキュリティ保護などだ。オーケストレーションの観点では、パブリッククラウドのコスト、セキュリティ、トラフィック、可用性などの基準によって、ワークロードの配置先を決定できるインテリジェントなツールがハイブリッドクラウドで求められる場合もある。

 マルチクラウド構成を使用すると、セキュリティの問題が次々と起こるだろう。使用するクラウドが増えるほどセキュリティの課題は大きくなる。セキュリティについては、攻撃対象領域にハッカーが攻撃を仕掛けてくる恐れがあることを忘れてはならない。マルチクラウド環境にサービスを追加すればするほど、攻撃対象領域は広がり、悪意のある攻撃者が弱点を見つける機会を増やす。

 マルチクラウドでは気を付けなければコストが手に負えない状況に陥る可能性がある。クラウドの請求額が急増して驚くユーザーは少なくない。複数のクラウドを使用しているとそうした状況はさらに悪化する。データベースのクエリの構築が不完全だと、CPUが過度に使用されて予算に大損害を与える恐れもある。

 最後に、ガバナンスの問題がある。適切なガバナンスと監視によって大半のデメリットに対処することができるが、ガバナンスが適切に実施されていない企業は少なくない。一部の開発者は依然としてガバナンスと指揮統制の取り組みを同一視している。それは全くの見当違いといえる。ガバナンスは今後成功するための土台を作るものだ。一方、指揮統制は、悪者によって引き起こされる出来事に対処する通常の取り組みだ。適切なガバナンスによって、開発者や組織が有益な成果を生み出すための活動にますます集中できるようになるし、許容できないほどのリスクも回避できるだろう。

クラウドビッグスリーのハイブリッドクラウド戦略を比較

 従来、企業がハイブリッドクラウドの導入を計画する場合、OpenStackかVMwareのソリューションをプライベートクラウドの基盤として選定し、それを自社が選んだパブリッククラウドと組み合わせるのが一般的だった。だがそのためには、ITチームが少なくとも2種類のプラットフォームについて個別に調べ、管理する必要があった。

 しかし今や、ハイブリッドクラウドの様相は変わった。Amazon Web Services(以下、AWS社)、MicrosoftおよびGoogleは、オンプレミス環境を視野に収益の拡大を狙う。この変化に押されて2018年は、複数の新しいあるいは刷新されたハイブリッドクラウド技術の登場が予想できる。

Azure Stack
 企業向けハイブリッドクラウドの筆頭かつ、2018年最もエレガントな技術は「Azure Stack」だろう。Microsoftはエンタープライズ市場における強力な地盤を足掛かりとしてパブリッククラウド「Microsoft Azure」の顧客獲得につなげ、特にオンプレミスの「Windows Server」クラスタとの連携を強みとする。Azure Stackはそのアイデアを一歩先へと進め、Microsoftを中心とするハイブリッドクラウドの中で、社内のプライベートな基盤の一画としての役割を果たす。

 少し時間はかかるかもしれないが、MicrosoftはいずれAzure Stackでプライベートクラウドとパブリッククラウドを横断するシームレスなコントロールを実現させ、人工知能(AI)やデータベース、分析機能といった幅広いパブリッククラウドサービスをオンプレミス環境から直接利用することを可能にするだろう。

VMware Cloud on AWS
 これまでプライベートクラウドのアイデアを寄せ付けなかったパブリッククラウド大手のAWS社だが、2016年にVMwareとの間で、「VMware vSphere」の管理をパブリッククラウド「Amazon Web Services」(AWS)へと拡張する提携を結んだ。両社は2017年、「VMware Cloud on AWS」を正式にスタートした。

 同サービスでは膨大な量のオンプレミスのVMware環境を維持しながら、AWSへと拡張し、そのハイブリッドインフラを一元的に管理できる。

 だがAzure Stackに対抗するために、AWS社とVMwareにはまだやるべきことがある。vSphereからAWSへアクセスするには時間がかかる。両社のロードマップを調整して、ソフトウェアにおける衝突や重複を排除するのにも時間がかかるだろう。VMwareとAWSの技術の橋渡しや、負荷分散、セキュリティといったサービスに関する連携強化に向けて、一層の取り組みを期待したい。

 VMware Cloud on AWSもAzure Stackと同様に、受け入れ態勢がある大規模なインストールベースを活用できる。

Google Cloud Platform
 GoogleもRed Hatとの提携を通じてOpenStackのサポート強化することで、ハイブリッドクラウド技術を進化させてきた。一部のOpenStackに関するサービスは比較的未成熟だが、Googleはその資本力によって、ハイブリッドクラウド市場で強力な存在となる可能性がある。

 Googleは向こう数年以内に、より新しいソフトウェアパラダイムを活用して、オープンかつアジャイルなハイブリッドクラウド環境を提供できるかもしれない。同社はまた、クラウドの性能とAIおよび機械学習に焦点を絞った手堅いロードマップを構築している。

今も残るハイブリッドクラウドの溝
 こうしたハイブリッドクラウド技術の進展にもかかわらず、抜け穴は今も存在する。例えばクラウドを横断するストレージ性能は、WAN帯域幅の不足や長時間のレイテンシに起因する重大な制約がある。現時点でそうした問題を緩和する最善の方法として、ゲートウェイのキャッシュや予測的ソフトウェアが利用できる。

 ストレージスペースを削減する手段としてのデータ圧縮という選択肢もあるが、その真価は、WAN転送に必要な帯域幅が減る点にある。SSDは、リアルタイムのデータ圧縮に利用できる予備的なI/Oを提供する。SSDの価格は今や企業向けのHDDを下回り、2018年にはSATA HDDも下回ると予想されることから、プライベートクラウドを全てフラッシュとすることは理にかなう。

 最後に、2017年に発覚したIntel関連のセキュリティ問題は、2018年を通じてハイブリッドクラウド市場に影響を及ぼすだろう。古いサーバの場合、「Meltdown」「Spectre」の脆弱性に対処するソフトウェアパッチをインストールすると、最大で30%も減速する可能性がある。製造後1年以上のサーバは特に大きな影響を受ける。従って、サーバの入れ替えが急ペースで進むことも予想され、ベンダー各社はハイブリッドクラウド技術の効率性向上をうたって新しいハードウェアを売り込むかもしれない。

IT部門にとってマルチクラウド戦略を取った方がいい4つの状況

 1つのクラウドを快適に利用している場合、複数のクラウドを利用すれば、もっと快適になるだろうか。必ずしもそうとは限らないが、そうしたマルチクラウド戦略が理にかなう状況は確かにある。サービスの信頼性確保や、プライバシー要件への対応、柔軟性の向上、クラウドサービス利用の最適化に取り組む必要がある場合、IT部門はマルチクラウド戦略を検討すべきだ。

1.サービスの信頼性欠く
 企業がマルチクラウドを最初に採用したのは、クラウドの信頼性に不安を感じていたからだ。こうした企業は、災害が発生した場合でも、データ損失を防ぎ、事業継続を確保しようとする。クラウドプロバイダーが世界各地にデータセンターを展開し、安全なレベルの冗長性を提供できても、ゼロデイ攻撃や、従業員の不正によるインシデントのようなイベントが発生した場合、グローバルレベルでデータに影響が及ぶ可能性は依然としてある。

 クラウドにデータを保存している企業は、事業に不可欠なデータの損失を防止できる災害復旧戦略を実行しなければならない。複数地域にまたがるデータ複製サービスを提供する1社のクラウドプロバイダーに依存することは、冗長化対策を何も行わないよりは良いが、マルチクラウドサービスを利用すれば、さらにリスクを低減できる。

 1社のプロバイダーを利用して自社データの全てのコピーを保存している場合、IT部門は現状改善を真剣に考えなければならない。インシデントなどでデータが永続的に失われる心配がなくても、サービスプロバイダーが一時的なサービス中断を余儀なくされることはあり得る。数時間のダウンタイムが発生すれば、業務に支障が出てしまう。複数のクラウドプラットフォームにまたがってフェイルオーバー戦略を実装すれば、どのような中断が発生しても、企業はアプリケーションの稼働や従業員の生産性を簡単に維持できる。

2.プライバシー要件への対応
 クラウドでデータをホストしている企業は、個人情報の保存方法や保存場所を規定する業界の規制やポリシーの適用を受ける。例えば一部の国は、データを物理的に国内や地域内に置くことを義務付けている。グローバルサービスを提供する企業は、全ての地域にわたってデータの主権要件を満たせるクラウドプロバイダーを見つけるのに苦労するかもしれない。

 マルチクラウド戦略を取れば、こうした要件をケース・バイ・ケースで満たしつつ、変化する法律やルールに柔軟に対応できる。企業が1社のベンダーに頼り切っていると、規制が変わった場合、移行に大変な手間が掛かることがある。だがIT部門が、柔軟なデータ移行をサポートするマルチクラウド構成を実現していれば、新しいプロバイダーへの切り替えは、はるかに面倒が少ない。

 また、プライバシー保護に力を入れている企業も、マルチクラウド環境を利用して、機密データを分割し、複数のプラットフォームに分散することが可能だ。例えば、イレージャーコーディングを使用すれば、データを細分化してさまざまな場所に保存できる。こうすれば、1つのクラウドサービスにデータの完全なコピーを預けずに済む。プロバイダーのデータセンターが侵害されても、攻撃者は機密情報を読み取れない。

3.柔軟性の向上
 ベンダーロックインの回避は、企業がマルチクラウドサービスに目を向ける大きな理由となっている。

 IT部門が1つのインフラにコミットし、その中の1つのストレージプラットフォームにロックインされると、別のプラットフォームにデータやアプリケーションを移行するのに苦労することがある。マルチクラウドアプローチを取れば、柔軟性が向上し、特定の1社のベンダーへの依存が減るとともに、異種混在環境における、より高いポータビリティーが得られる。マルチクラウドアーキテクチャを構築しておくことで、アプリケーションやデータをあるクラウドから別のクラウドへ、あるいはオンプレミスからクラウドへ、はるかに簡単かつ迅速に移行できる。

 こうした柔軟性によって、ビジネス要件の変化や、一時的なビジネス要件に迅速に対応することも可能になる。例えばIT部門は、新しい販売キャンペーンの結果として、ストレージ容量の予想外の拡大要求に応えたり、新しい分析製品のテストのような1回限りのプロジェクト向けに一時的なリソースを提供したりすることが、簡単にできるようになる。

4.クラウドサービスの最適化
 クラウドプロバイダーのサブスクリプションは、リソースの使用状況や、使用するアプリケーションのタイプなどによってコストが違ってくる。マルチクラウド戦略を取る企業は、ストレージやワークロードの要件に基づいて、提供されている中で最も経済的なサービスを利用できる。

 また、企業はマルチクラウドにより、パフォーマンスメリットも享受できる。例えば、データセンターの設置場所に基づいてプロバイダーを選択し、アクセスするユーザーの近くでアプリケーションやデータをホストできる。さらに、ストレージやアプリケーションの特定の要件に他のプロバイダーより効率的に対応でき、特定のワークロードで優れたパフォーマンスを発揮するプロバイダーがあるかもしれない。マルチクラウドを使用すれば、現在のニーズと利用可能なサービスに基づいて、最もパフォーマンスの高いプラットフォームを選べる。

 クラウドプロバイダーによって、提供する機能やサービスの特徴も異なる。ビジネスインテリジェンスや機械学習機能に強いプロバイダーもあれば、ストレージオプションが充実していて、データセンターの世界展開が進んでいるプロバイダーもあるかもしれない。マルチクラウド戦略を取れば、特定のニーズに最適なサービスを提供するクラウドプロバイダーを組み合わせて利用できる。幾つかの分野で適切な機能を提供するにすぎない1つのサービスで妥協する必要はない。

マルチクラウド戦略を選択する
 クラウドサービスを最大限に活用したい場合、マルチクラウドアプローチを真剣に検討すべきだ。このアプローチなら、あるクラウドプラットフォームが特定のニーズを満たさなければ、別のプラットフォームに簡単に乗り換えられる。

 しかし、マルチクラウドセットアップが常に"正解"とは限らない。効果的なマルチクラウド戦略を実装するのは、容易なことでない。IT部門は、全ての要素をきちんと安全に組み合わせるのに必要なリソースやノウハウを持っていなければならない。

 1社のクラウドプロバイダーを利用するメリットもある。大手のプロバイダーは、複数プロバイダーのサービスを組み合わせて使う場合には得られないような多様なサービスのセットを、割引料金で提供できる。また、1社のプロバイダーを利用する場合は、中央管理コンソールで全てのサービスを管理できる。マルチクラウドでは、まだこうした管理は不可能だ。

 それでも、あらゆるタイプの企業がマルチクラウドを利用することで得られる明確なメリットがある。信頼性の確保、プライバシーの保護、柔軟性の維持、クラウドエクスペリエンスの最適化だ。

IaaS比較は落とし穴ばかり 「Amazon、Microsoft、Googleから選ぶ」では失敗する?

 IaaS(Infrastructure as a Service)を選ぶときはまず、クラウドサービスのどういった機能を利用するのかを把握する必要がある。

 Synergy Research Groupが2017年に公開した調査によると、IaaSは数多く存在するが、Amazon Web Services(Amazon)、Google、Microsoftといった大手クラウドベンダー3社による「Amazon Web Services」(AWS)、「Microsoft Azure」(Azure)、「Google Cloud Platform」(GCP)の3サービスとIBMの「IBM Cloud」が市場収益の63%を占めるという。だが参入しているクラウドベンダーは相当数に上る。Rackspaceをはじめとして、DigitalOceanのように小規模だが特定の市場をターゲットとするクラウドベンダーなど多岐にわたる。

 自社のニーズに合ったIaaSを選ぶことは複雑で難しい。性能や価格がクラウドベンダー間で標準化されていないことがその一因だ。米国とヨーロッパの主要パブリッククラウドに対し、仮想マシン(VM)インスタンスとストレージの性能で比較したランキングを作成しているCloud Spectatorのような企業もあるが、パブリッククラウド分野で信頼性の高いベンチマークレポートを見つけるのは依然として困難だ。

 それでもIaaSを選ぶ場合は、さまざまな機能や要素を基に比較し、評価しなければならない。比較する機能や要素には、信頼性、地理的規模、価格、ハイブリッドクラウドをサポートする能力などがある。

VMのオプションと性能
 各クラウドサービスのVMは、同じような構成に見えても性能や価格に違いがある。その原因はCPUの速度や機能の差異などハードウェアの違いによるものもあれば、VMにパススルーするソフトウェアや構成の違いによるものもある。

 Cloud Spectatorによると、同じ構成でもVM本来の性能が2倍も変わることがあるという。入出力性能ではその差がさらに広がり8倍に達する。ただし、これはRackspaceのクラウドサービスの突出した数値で、他クラウドサービスは全て3倍以内に収まっているという。

 IaaSの機能という点から見ると、豊富なエコシステムを備えるAmazonが首位に立っているのは明らかだ。GoogleとMicrosoftは同社に追い付こうと奮闘している。IBMも強力な製品ラインアップを構築しているが、IaaSに構築するSaaSの基本機能に集中している。大手クラウドベンダー3社は、幅広い種類とサイズのVMを用意しており、コンピューティングリソースを集中的に使用するアプリケーション、メモリを多用するアプリケーション、入出力処理の多いアプリケーションなどを対象に最適化している。また、GPUインスタンスも提供している。そして間もなくFPGA(Field-Programmable Gate Array)によって加速される人工知能(AI)や機械学習(ML)機能も提供するようになる。こうした機能は特定市場をターゲットにするクラウドベンダーや小規模クラウドベンダーとの大きな差別化要因として、大手クラウドベンダー3社の迅速な導入能力を示している。

 考慮すべき最も重要な点は、VMの価値に違いがあることだ。アプリケーションをサンドボックス化して、自社に合ったスペックを把握するのが賢明なアプローチといえる。

信頼性と地理的分布
 大手クラウドベンダー3社であっても障害は起きる。米国バージニア北部のデータセンターで、AWSの「Amazon Simple Storage Service」(Amazon S3)に障害が発生し、復旧まで2日間かかった。だが、その影響を受けたのは、複数ゾーンのストレージレプリケーションを使用していないテナントだけだった。大手クラウドベンダーの障害のほとんどは、ルーターのコード更新の失敗など、社内管理ミスが原因だ。

 ユーザーは、ワークロードを複数のクラウドベンダーのアベイラビリティーゾーンや複数ストレージに分散することで、全てではないとしても、大半の障害を緩和できる。そうは言っても、大手クラウドベンダー3社は小規模クラウドベンダーよりもアベイラビリティーで優れている。大手のクラウドベンダーは大抵、しっかりと検証したオーケストレーションコードや、復旧に役立つリソースプールを有しているためだ。さらに広範な地域にデータセンターを設置しているため、アベイラビリティーの選択肢が多い。ただし小規模クラウドベンダーといえども、通常少なくとも2カ所にデータセンターを用意している。クラウドベンダーの地理的多様性はバックアップとアーカイブシステムにも影響する。

 だがAmazon、Google、Microsoftをはじめとする一部のクラウドベンダーは、ゾーン間やリージョン間のデータとVMの移動に追加料金を課している。そのためTCO(総保有コスト)にこの費用を盛り込む必要がある。

 最後にクラウドベンダーのアベイラビリティーゾーンを評価する際は、自社市場の地域性を考える必要がある。データを顧客の近くに置けば、遅延やコストを削減できる。これは多国籍Web運営企業にとっては重要なポイントだ。

管理性と使いやすさ
 管理ダッシュボードからスクリプトの作成、破棄をするツールまで、IaaSの管理ツールの使いやすさは管理者の日常業務に影響を及ぼす。Amazon、Microsoft、Googleは、クラウドのアドオンサービスに力を注いでいる。こうした動きは運用オプションの増加にはつながるが、同時に簡略化するコストも増加する可能性がある。これに対し、DigitalOceanはアドオンサービスよりも、自社のサービスの使いやすさを重視している。

 Amazon、Microsoft、Google、IBMは、多種多様なことができるよう、ツールやサービスの提供に力を注いでいる。データベースなど、自社製のコードと他社サービスの統合を計画している場合に評価できる。大手クラウドベンダーは、統合の潜在的価値を高めるために、サードパーティー製SaaSのサポートを増やしている。この分野では大手クラウドベンダーが優位に立つだろう。

 こうした大手クラウドベンダーは、スクリプトを作成するツールや、仮想ネットワークの開発を進めていて、この点ではAmazonが市場をけん引している。AmazonはIaaS用のコンピューティング容量を、どの競合他社よりもはるかに多く有しているため、スクリプト作成などの分野におけるツールの標準化と互換性への取り組みを主導することが多い。その一例が、オブジェクトストレージのインタフェースだ。他の全ての大手クラウドベンダーがAWSの「Amazon Simple Storage Service」(Amazon S3)の互換モードを利用している。

 また、CLI(コマンドラインインタフェース)やダッシュボードによる管理制御も提供している。こうした管理ツールを評価するには、各クラウドベンダーの機能を把握するために、まず小規模サンドボックスを構築する。次に、一連のインスタンスを構築し、作成と削除の両面で管理を行う。さらに続けて、異なるストレージシステムにデータを移動する。

 アプリケーションの実行性能を測定し、コストと使いやすさを確認することも必要だ。大規模VMクラスタの場合は、クラスタ管理ツールも評価する必要がある。

 ユースケースによっては、さらなる検証が必要になる場合がある。Cloud Spectatorによる検証が示すように、コンピューティング性能は能力の一部にすぎず、入出力性能にも大きな違いがある。入出力が多いワークロードの場合は、ストレージ性能も測定する必要がある。サードパーティー製のツールを必要とする高度なワークロードもある。GPUベースやFPGAベースのVMクラスタがその例だ。基盤となるハードウェアによっては、ネットワーク性能や特殊なコンピューティング処理に大きな差が出る場合がある。

 クラウド間連携の取り組みが行われているのは確かだが、クラウドベンダー間でAPIが異なることから、完全に相互運用可能になるまでには至っていない。

データサービス
 多くのクラウドベンダーが提供する幅広いデータサービスは、IaaSの初期決定に影響を及ぼす可能性がある。現時点では、クラウドの生産性を向上させるサービスについては、大手クラウドベンダー3社とIBMが他の小規模クラウドベンダーや特定市場をターゲットとするクラウドベンダーに勝っている。こうした生産性向上サービスには、さまざまなデータベース、ロードバランサー、ビッグデータ分析、GPUのサポートなどがある。データサービス分野ではAmazonが他をリードし、Microsoftがこれに続いている。GoogleとIBMは成長著しいインテリジェンス市場に的を絞っている。

 同じことがGPUインスタンスやAIインスタンスにも当てはまる。IBMは、幅広いサービスを提供し大手クラウドベンダー3社と肩を並べている。新たに出現するこうした技術は多額の開発費用を必要とするため、小規模クラウドベンダーは太刀打ちできないかもしれない。

ハイブリッドクラウドのサポート
 ハイブリッドクラウドをサポートする能力は、IaaSの一機能だがその重要性は増している。この分野での新たな連携とサービスが、AmazonやMicrosoftなどの市場リーダーの力を強め、クラウドベンダーの選択に影響を与える可能性がある。

 Microsoftは、企業がプライベートクラウドとパブリッククラウドによりシームレスに連携しAzureを導入できるようにする「Azure Stack」をリリースした。またAmazonとVMwareの提携によって、VMwareの「VMware vSphere」環境をAWSで利用できるようになる。GoogleはRed Hatと提携してハイブリッドクラウド導入を実現する。

 こうした提携により、今後数年以内にAmazon、Microsoft、Googleがハイブリッドクラウドの一部を担当し、ユーザーは単一のドメインからそれぞれを管理できるようになる可能性が高い。パブリッククラウドとプライベートクラウドの相互運用を可能にするソフトウェアの開発にかかるコストは、他のクラウドベンダーがこの市場に完全に参入するのを妨げるだろう。だがOracleやSAPなどのベンダーが、複数セグメントで利用できるデータベースなど、ハイブリッドクラウド機能が備わったツールを開発することも考えられる。

 クラウドの移行が容易でないことを考えると、IaaS機能を検討する企業にとっては、ハイブリッドクラウドのコンポーネントが大きな鍵となる可能性がある。Microsoftを使用する企業はAzureを好み、LinuxユーザーはGoogleとAWSを好むだろう。また、AWSはVMwareユーザーにとっても魅力的なサービスとなった。

 OpenStackを運用している企業は、Red Hatと提携したGoogleのサービスを好むと思われる。ハイブリッドクラウドにおけるIBMの役割は、IBMの「IBM Watson」によって、運用管理の高度な自動化を提供することかもしれない

経済と戦略の実行可能性
 Hewlett Packard Enterprise(HPE)とVMwareの例が示すように、IaaSの競争を勝ち抜くためには、潤沢な資金とIT分野での高いブランド力だけでは不十分だ。Amazon、Google、Microsoftは早くからクラウド競争に加わり、強力な顧客基盤を構築してきた。

 小規模クラウドベンダーは生存競争に直面している。Rackspaceは管理にさらに注力するために、パブリッククラウド市場から撤退している。こうしたことは、小規模クラウドベンダーがこの市場で生き残れるのかという疑問を生む。IBMとOracleはどちらかというと、特定市場を対象とするベンダーだ。だがIBMはWatson、Oracleはデータベースという防御策を用意している。中国市場ではAlibaba Group HoldingやHuaweiといったベンダーが強い存在感を示している。

IaaSのマルチクラウド対応を比較 AWS、Azure、Googleの共通点と違いは?

 大手IaaSInfrastructure as a Service)ベンダーは、伝統的に自社のプラットフォームと他のパブリッククラウドとの間で、ワークロードの移行を容易にするための相互運用性の標準を策定してこなかった。だがマルチクラウドモデルに対する企業の関心が高まるにつれ、こうした姿勢を見直しているベンダーもある。

 Amazon Web ServicesAWS)、MicrosoftGoogleなどの大手ベンダーには幾つかの大きな違いがあるものの、マルチクラウドのサポートについては多くの共通点を持っている。まず、どのベンダーも主にサービスまたはAPIドリブンということだ。これにより、ユーザーはAWSGoogleMicrosoftの各クラウドテクノロジーのサービスやAPIを組み合わせ、アプリケーションを構築、実行できる。一般的にクラウドベンダーが自社のサービスをAPI経由で公開している場合、ベンダーのプラットフォームでアプリケーションがホストされていなくても、ユーザーや他のベンダーはAPIを使ってそのサービスにアクセスできる。

マルチクラウドを選ぶ理由と課題

IaaSベンダーを比較


大手IaaSベンダーの主な共通点

 大手IaaSベンダーはマーケットプレースを運営しており、そこでユーザーは特定のIaaSベンダーのサービスと連携可能なサードパーティー製サービスを見つけることができるという共通点もある。管理ツール、監視ツール、セキュリティツールなど、サードパーティー製品の多くは複数のクラウドベンダーで利用できる。

 別の共通点はデータだ。プラットフォームに関係なく、どのようなワークロードでもパブリッククラウドで稼働しているクラウドネイティブのデータベースや、サードパーティー製データベースのデータにアクセスできる。適切なネットワークアクセスと資格情報があれば、3つのパブリッククラウドプラットフォームのデータベースからの異なるデータをアプリケーションで使用できる。

 これらの特徴は大手IaaSベンダー3社に共通するものだが、マルチクラウド利用をサポートする各ベンダー固有のネイティブなサービスもある。以下で、各ベンダーのサービスを詳しく紹介する。

AWS

 AWSが提供するコアテクノロジーの一つが、「Amazon Simple Queue Service」だ。このキューイングサービスによって、マイクロサービスや他のクラウドプラットフォームを含む分散システム、サーバレスアプリケーションとの接続と切断が可能になる。企業はこのサービスを利用して、クラウドネイティブアプリケーションとリモートでホストするアプリケーションとの間でメッセージを送受信できる。

 「AWS Service Catalog」は、管理者がAWSでの利用を承認した仮想マシン(VM)からアプリケーションまでの一連のITサービスとリソースを構築するのに役立つツールだ。AWS Service Catalogはマルチクラウド環境でも利用できる。AWS Service Catalogの主なメリットの一つは、ITサービス管理ツール「ServiceNow」などのSaaSSoftware as a Service)アプリケーションに接続する機能だ。この機能により、ITチームはServiceNowAWS Service Catalogにつなぎ、ストレージやコンピューティングなどといったAWSのリソースを要求できる。

Microsoft

 Microsoftがクラウド監視サービスベンダーCloudynを買収したことで獲得したテクノロジーをベースにした「Azure Cost Management」は、クラウドコンピューティングのコストを監視、確保、最適化する機能を提供する。この機能は「Microsoft Azure」でメリットがあるだけでなく、AWSや「Google Cloud Platform」(GCP)のコストの分析や追跡にも利用できる。

 これはCloudynのツールが、複数のプラットフォームをサポートするようMicrosoft Azure外部で作られたという事実の表れだ。今後は特定のクラウド用に作成した管理/監視ツールを、外部ベンダーもサポートできるように拡張する可能性がある。

Google

 GCPと他のクラウドプラットフォームをうまく連携させる必要がある場合は、「Google Cloud Endpoints」に目を向けてみよう。このサービスはOpenAPI SpecificationOAS)を使用して、APIを作成・管理するフレームワークとツールを提供する。さらに「Stackdriver Monitoring」「Stackdriver Trace」「Stackdriver Logging」を使用し、APIのパフォーマンスを可視化する。

 考え方はシンプルだ。Googleはクラウドで顧客が必要とするかもしれない全ての機能を提供しているわけではないため、「AWS Lambda」といった他のクラウドサービスでも利用できるAPIを作成・導入するためのフレームワークをGoogle Cloud Endpointsで提供している。ただし、Google Cloud Endpointsを含めて即座に連携できるテクノロジーはない。他のサービスとの接続を有効にするには、APIを作成して導入しなければならない。


 結局のところ、全ての大手IaaSベンダーがAPIの作成・管理機能を提供してはいるが、大半のユーザーが望んでいるような「プラグアンドプレイ」ではない。もし大手IaaSベンダーがこのユーザーの需要を察知しなければ、他のサードパーティーベンダーが気付きその役割を担うだろう。

 

「AWS」がVMwareユーザーに、「Azure Stack」がMicrosoft支持者に選ばれる理由

 複数のパブリッククラウドを組み合わせて活用する「マルチクラウド」と、パブリッククラウドとプライベートクラウドを組み合わせて活用する「ハイブリッドクラウド」。この2種類のクラウド導入形態について、全く同じアプローチを取るベンダーはない。どのベンダーも、企業の間で高まるマルチクラウドやハイブリッドクラウドへの関心に応えようとしている。

 「ハイパースケール」と呼ばれる大手クラウドベンダーには、Amazon Web Services(AWS)、Microsoft、Google、IBMの4社がある。ほとんどの企業、少なくとも既存のVMware環境を利用していてハイブリッドクラウド導入を目指す企業は、AWSとMicrosoftに魅力を感じているようだ。

AWSか、Microsoftか
 フリーランスのITコンサルタントであるジェンス・ソルドナー氏によると、企業がAWSとMicrosoftのどちらを選択するかは、各社のニーズやシステム環境によって異なるという。

 「実際のところMicrosoftとAWSは互角だ。ただしVMwareのユーザー企業を見ると、確かにAWSを選ぶ傾向がある。AWSは、自社のクラウドサービスで本格的にVMware製品を利用できるようにしているからだ」。ソルドナー氏は、VMwareが製品/技術の普及に貢献した個人に贈る「vExpert」の称号を持つ。

 Microsoftは、自社のクラウドサービス群「Microsoft Azure」で、VMware環境からの移行を容易にするサービスを提供している。加えてMicrosoftの製品/サービスを利用する大規模IT部門を特に引き付けたいベンダー各社は、「Azure Stack」を利用したハイブリッドクラウドをアピールしている。Azure Stackは、Microsoft Azureの主要機能を、オンプレミス環境で実現可能にする、アプライアンス(「Azure Stack統合システム」)を中心とした製品群だ。「ユーザー企業がこれまでMicrosoft製品を利用してきた背景があり、既にパブリッククラウドでAzureの使用経験がある場合は、明らかにAzure Stackにやや傾く」(ソルドナー氏)

 マルチクラウドとハイブリッドクラウドの市場で覇権を得ようとしているベンダーの顔ぶれは、さまざまだ。例えばDockerやRed Hatは、クラウドサービス間でのワークロードの移植性を高めるべく、コンテナ技術の普及を後押ししている。古くからのハードウェアベンダーも成果を得ようと参入している。

 他にもCisco SystemsがGoogleと共同で、コンテナオーケストレーションシステムの「Kubernetes」、マイクロサービス管理システムの「Istio」、ハイパーコンバージドインフラなどをバンドルするハイブリッドクラウドサービスを提供中だ。

 マルチクラウドとハイブリッドクラウドの市場で、どのベンダーが成功するか。それはハイパースケールベンダーであれ、古くからのハードウェアベンダーであれ、コンピューティングサービスや開発サービスでさらなる「スタックの充実」をどれだけ進められるかに、大きく掛かっている。

複雑過ぎる契約書の審査、AIの力で24時間から1分に——リコーの新技術「ディープアライメント」を見てきた

 企業同士の取引に不可欠な契約書を、専門家の代わりに人工知能(AI)が自動でチェックしてくれる——そんな機能をリコーが開発中だ。幕張メッセで開催中の「第2 AI・業務自動化展 秋(20181026日まで)」で、同社が「契約書審査AI支援オプション(参考展示)」展示している。

 無数の項目に分かれ、膨大な数の決まりが書き込まれた契約書は、全体像を把握しにくい。目当ての箇所を探すのに、プロでも時間がかかりがちだ。

 「契約書審査AI支援オプション」は、企業が他社と契約を取り交わす際、他社から送られてきた契約書の内容を、AIが一般的な契約書の項目と照らし合わせ、足りない項目を可視化する。また、「同じ意味」と判定した文章を1文ずつ色分けして表示してくれる。

社内の"悲鳴"が開発のきっかけ

 リコーICT研究所のAI応用研究センターで同機能の開発に関わった伊東秀夫さんによれば、"法務を代行してくれるAI"が生まれたきっかけは、自社内の法務部門から来た要望だったという。

 「これまで、社内では、各事業部門が他社と契約を取り交わす際、契約書の内容チェックを法務部門が全て人の目で行っていました。ものによっては長い契約書の項目をチェックする作業を繰り返すため、業務負担が大きく、チェック漏れが起こるリスクも少なくありませんでした」(伊東さん)

 同社には、自社で契約書を作る際に使うテンプレートがある。その項目を他社の契約書と突き合わせ、内容を比較する仕組みを作れば、チェック作業が楽になるのでは——そう考えた伊藤さんたちは、2018年の4月から新機能の開発に着手した。

 当初は「契約書間で単語同士を突き合わせればいいのでは」と考えたが、契約書の中には実際に同じ単語が何度も登場するため、全くうまくいかない。試行錯誤の末、「企業」「倒産」といった複数の単語の位置や関連性から自動的に文章の大意を推測し、内容を比較する自然言語処理技術「ディープアラインメント」を開発。社内に蓄積していた過去の契約書から、6700万語の日本語を学習させた。

まだまだある? 企業の"隠れAIニーズ"

 開発後、社内の法務部門では、実際に同機能を使って、契約書30件(482条文)を自動で比較した結果を社員がチェックするPoCを実施。その結果、「78割の精度だが、チェック業務にかかる時間を24時間から1分に短縮し、チェック漏れを防止するなど十分に業務に貢献する、という判断が現場から出た」(伊東さん)という。

 リコーでは、「契約書審査AI支援オプション」を、既に出している企業の法務部門向け製品「法務支援クラウド RICOH Contract Workflow Service」の新機能として、早ければ20194月に正式リリースする予定だ。また、契約書だけではなく「応募レジュメ」「製品マニュアル」「知財文書」といった、新たな分野への進出も考えているという。

 「翻訳などの機能を除けば、AIを使った文章比較の機能は、まだまだ歴史が浅いのではないでしょうか。大学や教育機関でのAI研究が盛んな一方で、今回のような、本来ならAIで満たせるはずの企業独特のニーズがまだ見つかっていないケースがあるかもしれません。今後はさまざまな企業からニーズを聞きつつ、今回開発したAIの応用先を探していきたいと考えています」