Our early look at Fuchsia OS last May provided a glimpse into a number of new interface paradigms. Several months later, we now have an updated hands-on with Google's future operating system that can span various form factors. This look at the in-development OS eight months later comes courtesy of Ars Technica who managed to get Fuchsia installed on the Pixelbook. The Made by Google Chromebook is only the third officially supported "target device" for Fuchsia development. As our last dive into the non-Linux kernel OS was through an Android APK, we did not encounter a lockscreen. The Ars hands-on shows a basic one that displays the time at center and Fuchsia logo in the top-left corner to switch between phone and desktop/tablet mode, while a FAB (of sorts) in the opposite corner lets users bring up WiFi controls, Login, and Guest.
Only Guest is fully functioning at this stage -- at least for non-Google employees. Once in this mode, we encounter an interface similar to the one we spotted last year. The big difference is how Google has filled in demo information and tweaked some elements. On phones and tablets, Fuchsia essentially has three zones. Recent apps are above, at center are controls, and below is a mixture of the Google Feed and Search. The controls swap out the always-displayed profile icon for a Fuchsia button. Tapping still surfaces Quick Settings which actually reflect current device battery levels and IP address. Impressively, Ars found a working web browser that can actually surf the internet. Google.com is the default homepage, with users able to visit other sites through that search bar. Other examples of applications, which are just static images, include a (non-working) phone dialer, video player, and Google Docs. The Google Calendar is notable for having subtle differences to any known version, including the tablet or web app.
2018年1月19日金曜日
Google's Fuchsia OS On the Pixelbook
2018年1月18日木曜日
Oracle 18c Autonomous Databaseとはどのようなものか
近年Oracleはクラウド対応を進めています。オンプレミスのOracle Databaseと同じように、クラウドでもハイブリッドクラウドでも使えることを強みとしてアピールしています。Microsoftの「Data Everywhere」とは同じではないものの、オンプレミスからクラウドへの移行、あるいはハイブリッドクラウドで使いやすいことを重視しているという点では共通しています。
2017年のOracleといえば最も印象深いのは、10月のOracle OpenWorld 2017で発表された「Oracle 18c Autonomous Database」です。この名称には、次のバージョンを示す「18c」と、「自律的」を意味する「Autonomous」が入っています。同社のラリー・エリソン氏は「完全な自動運用」と豪語したようですが、どこまで自動化できるのか興味津々です。
大事なポイントとなるのが、「Oracle 18c Autonomous Databaseでは、次期版のOracle DatabaseをOracle Cloudで稼働させることによって、高度な自律性を実現できる」ということです。Oracle Database 18cだけ、つまりオンプレミスでは全ての自律的な機能を享受できません。高いSLAや自動的な運用は、次期版のOracle DatabaseとOracle Cloudを組み合わせることで実現できる世界です。
2017年12月に日本オラクルが開催したOracle CloudWorld Tokyoで、オラクル・コーポレーションのアンドリュー・メンデルソン氏が詳細を解説しました。
オラクル・コーポレーション オラクル・サーバー担当 エグゼクティブ・バイスプレジデント アンドリュー・メンデルソン氏
Autonomousは基本的には既存の自動化機能を自動化することで実現していくようです。
Oracle Databaseには既にリソース管理やチューニングなどで「自動〜〜」と名の付く機能が多く存在します。例えば「Oracle自動ストレージ管理(Oracle ASM)」などです。ただしこうした機能をキックするのは運用管理者です。人間が、機能を理解し、必要なタイミングで実行または有効化してきました。こうした自動化機能を、Oracle Cloudでさらに自動的に機能させることで、「Autonomous(自律型)」を実現していくようです。
今後は段階的に、Oracle Cloudで「Oracle 18c Autonomous Database」が提供されていくようです。まずはデータウエアハウス向け「Autonomous Data Warehouse Cloud」が2018年1月終盤に登場ということなので、近々となりそうです。メンデルソン氏の説明では分析のワークロードを自動で最適化し、チューニングやパーティション作成が不要になるとのことです。
その先にはOLTP処理に対応した「Autonomous OLTP and Mixed Workload Cloud」が提供される予定です。データウェアハウスに比べ、OLTPやワークロード混在環境では、自動化のハードルが格段に高くなります。こちらは恐らく提供開始まで半年以上は待つことになりそうです。
運用管理を経験するとよく分かることですが、データウェアハウス(分析)とOLTPではチューニングですべきことが異なるのです。正反対といってもいいくらいです。将来的には完全自動化を目指すとしても、現段階では利用状況や目的に合わせた自動化を実現していくことになるでしょう。
2017年のOracleといえば最も印象深いのは、10月のOracle OpenWorld 2017で発表された「Oracle 18c Autonomous Database」です。この名称には、次のバージョンを示す「18c」と、「自律的」を意味する「Autonomous」が入っています。同社のラリー・エリソン氏は「完全な自動運用」と豪語したようですが、どこまで自動化できるのか興味津々です。
大事なポイントとなるのが、「Oracle 18c Autonomous Databaseでは、次期版のOracle DatabaseをOracle Cloudで稼働させることによって、高度な自律性を実現できる」ということです。Oracle Database 18cだけ、つまりオンプレミスでは全ての自律的な機能を享受できません。高いSLAや自動的な運用は、次期版のOracle DatabaseとOracle Cloudを組み合わせることで実現できる世界です。
2017年12月に日本オラクルが開催したOracle CloudWorld Tokyoで、オラクル・コーポレーションのアンドリュー・メンデルソン氏が詳細を解説しました。
オラクル・コーポレーション オラクル・サーバー担当 エグゼクティブ・バイスプレジデント アンドリュー・メンデルソン氏
Autonomousは基本的には既存の自動化機能を自動化することで実現していくようです。
Oracle Databaseには既にリソース管理やチューニングなどで「自動〜〜」と名の付く機能が多く存在します。例えば「Oracle自動ストレージ管理(Oracle ASM)」などです。ただしこうした機能をキックするのは運用管理者です。人間が、機能を理解し、必要なタイミングで実行または有効化してきました。こうした自動化機能を、Oracle Cloudでさらに自動的に機能させることで、「Autonomous(自律型)」を実現していくようです。
今後は段階的に、Oracle Cloudで「Oracle 18c Autonomous Database」が提供されていくようです。まずはデータウエアハウス向け「Autonomous Data Warehouse Cloud」が2018年1月終盤に登場ということなので、近々となりそうです。メンデルソン氏の説明では分析のワークロードを自動で最適化し、チューニングやパーティション作成が不要になるとのことです。
その先にはOLTP処理に対応した「Autonomous OLTP and Mixed Workload Cloud」が提供される予定です。データウェアハウスに比べ、OLTPやワークロード混在環境では、自動化のハードルが格段に高くなります。こちらは恐らく提供開始まで半年以上は待つことになりそうです。
運用管理を経験するとよく分かることですが、データウェアハウス(分析)とOLTPではチューニングですべきことが異なるのです。正反対といってもいいくらいです。将来的には完全自動化を目指すとしても、現段階では利用状況や目的に合わせた自動化を実現していくことになるでしょう。
オープンソースに歩み寄るMicrosoft、SQL ServerのLinux対応はどうやって?
2017年はMicrosoftが提供するリレーショナルデータベースの最新版が登場しました。Microsoft SQL Server 2017(以下、SQL Server 2017)です。最大の変化はLinuxへの対応です。近年マイクロソフトは、オープンソースとの親和性を高めており、SQL Server 2017のLinux対応はその一環です。Dockerにも対応しました。
他のサーバ製品なら、WindowsとLinuxが選べるのは珍しくありません。しかし、Microsoft製品でOSにWindows以外も選べるようになったのは大きな変化です。お寺にクリスマスツリーが飾られてしまうくらいのびっくり感です。……というのは冗談としても、OSの選択肢が増えたことは、シェア拡大の後押しになることでしょう。
SQL ServerとOSの関係について考えてみましょう。一般的にコンピュータにはOSがあり、ソフトウェアからのリクエストに応じてリソースを割り振るようにしています。これが基本的な動きなのですが、こうした役割分担はソフトウェアにとっては性能を頭打ちにさせる要因となります。SQL Server 2017では、より効率的にリソースを使えることを目指しました。
このあたりの工夫について、最新データプラットフォームに関する記者向けの説明会で、日本マイクロソフトの岡本剛和氏が解説しました。
日本マイクロソフト クラウド&エンタープライズビジネス本部 データ&AIプラットフォーム マーケティング部 エグゼクティブプロダクトマネージャー、岡本剛和氏
SQL Server 7.0から2000までの間は、自分の中でスケジューラー(UMS:User Mode Scheduler)を持ち、効率的にCPUを使えるようにしていました。その後SQL Server 2005からは「SQL OS」に変わり、スレッドのスケジュールに加えてメモリなどのリソース管理を自分の中でするようになりました。SQL Serverは、SQL OSでOSの仕事(の一部)を内包しているようなものです。
こうしてSQL Serverは、内部でOS的な仕事を行い、OSと直接やりとりする部分をSQL OSというコンポーネントにまとめ、OSの手前に配置しています。この構成は、SQL ServerがLinuxに対応する際にも役立ちました。基本的にはSQL OSの部分だけLinux対応すればいいからです。SQL Server 2017では、SQL OSは「SQL Platform Abstract Layer(SQLPAL)」として、OSと直接やりとりする部分とそれ以外の部分に分割して効率良く動作するように進化しました。
SQL ServerのLinux版は会社の方針転換という点では大きな変化でしたが、技術的にはさほど大きな変化ではありません。変更点はこれまでのSQL OS部分のみで、それ以外の上位コンポーネントには影響を与えないからです。
SQL Server 2017では、他にも「Data Everywhere」という表現で、データをどこにでも置けること、AIへの対応を進めていることが特徴に挙げられます。昨今の必要性をよく見ていますね。
他のサーバ製品なら、WindowsとLinuxが選べるのは珍しくありません。しかし、Microsoft製品でOSにWindows以外も選べるようになったのは大きな変化です。お寺にクリスマスツリーが飾られてしまうくらいのびっくり感です。……というのは冗談としても、OSの選択肢が増えたことは、シェア拡大の後押しになることでしょう。
SQL ServerとOSの関係について考えてみましょう。一般的にコンピュータにはOSがあり、ソフトウェアからのリクエストに応じてリソースを割り振るようにしています。これが基本的な動きなのですが、こうした役割分担はソフトウェアにとっては性能を頭打ちにさせる要因となります。SQL Server 2017では、より効率的にリソースを使えることを目指しました。
このあたりの工夫について、最新データプラットフォームに関する記者向けの説明会で、日本マイクロソフトの岡本剛和氏が解説しました。
日本マイクロソフト クラウド&エンタープライズビジネス本部 データ&AIプラットフォーム マーケティング部 エグゼクティブプロダクトマネージャー、岡本剛和氏
SQL Server 7.0から2000までの間は、自分の中でスケジューラー(UMS:User Mode Scheduler)を持ち、効率的にCPUを使えるようにしていました。その後SQL Server 2005からは「SQL OS」に変わり、スレッドのスケジュールに加えてメモリなどのリソース管理を自分の中でするようになりました。SQL Serverは、SQL OSでOSの仕事(の一部)を内包しているようなものです。
こうしてSQL Serverは、内部でOS的な仕事を行い、OSと直接やりとりする部分をSQL OSというコンポーネントにまとめ、OSの手前に配置しています。この構成は、SQL ServerがLinuxに対応する際にも役立ちました。基本的にはSQL OSの部分だけLinux対応すればいいからです。SQL Server 2017では、SQL OSは「SQL Platform Abstract Layer(SQLPAL)」として、OSと直接やりとりする部分とそれ以外の部分に分割して効率良く動作するように進化しました。
SQL ServerのLinux版は会社の方針転換という点では大きな変化でしたが、技術的にはさほど大きな変化ではありません。変更点はこれまでのSQL OS部分のみで、それ以外の上位コンポーネントには影響を与えないからです。
SQL Server 2017では、他にも「Data Everywhere」という表現で、データをどこにでも置けること、AIへの対応を進めていることが特徴に挙げられます。昨今の必要性をよく見ていますね。
データのアップロードのみでカスタム機械学習モデルが自動的に構築される「Cloud AutoML」をGoogle Cloudが発表
Google Cloudは2018年1月17日、容易に短時間で、ユーザーがカスタム機械学習モデルを構築できるサービス、「Cloud AutoML」を発表した。第1弾として、画像認識を行う「Cloud AutoML Vision」のアルファ提供を開始した。アルファ提供とは限定ユーザーに対して先行的にサービスを提供する段階。申し込みは同社のWebページからできるようになっている。
Cloud AutoMLは、Google Cloudの既存機械学習サービスのいいところ取りをしたようなサービスだ。ユーザーは事実上、訓練用のデータをアップロードするだけで、自らのデータに基づく機械学習をGoogle Cloudに自動実行させ、結果をAPIとして活用できる。
これをあらためて説明すると、次のようになる。
Google Cloudでは現在、機械学習関連サービスで、「Cloud Machine Learning Engine(Cloud ML Engine)」と認識系を中心とした機械学習APIサービスを提供している。後者には、画像認識の「Cloud Vision API」、動画からメタデータを抽出する「Cloud Video Intelligence API」、音声テキスト変換の「Cloud Speech API」、自動翻訳の「Cloud Translation API」、テキストを分析する「Cloud Natural Language API」、求人サイトに機械学習を適用する「Cloud Jobs API」がある。
APIサービスは、文字通りAPIを呼び出すだけで使える。だが、Googleが自社で指定した認識・分類を実現するために自社で用意したデータを使って訓練したものであり、ユーザーが得られるのは汎用的な分類やメタデータにとどまる。
ユーザー/ユーザー組織が、自らのデータを用い、自らの目的のために機械学習を生かそうと思うと、現状ではTensorFlowなどの機械学習ライブラリを直接使うことになる。Google Cloud では、TensorFlowホスティングサービスとしてCloud ML Engineを提供している。Cloud ML Engineは、機械学習を実行しやすくするツールを備えているものの、「データの投入」「モデルの設計」「モデル(パラメーター)のチューニング」「評価」といった作業をユーザー自身が繰り返し実行する必要がある点は変わらない。
今回発表のCloud AutoMLは、こうした作業をほぼ全て「Google Cloudにお任せ」できるサービス。
第1弾のCloud AutoML Visionでは、ユーザーはグラフィカルインタフェースで、訓練データとして画像をアップロード(あるいはGoogle Cloud Storageにおける画像の場所を指定)し、ラベルを付けるだけでよい(一部のラベル付けは、Vision APIに任せることもできる)。あとの工程は、全てCloud AutoMLが実行する。ユーザーが提供した訓練データを使って、「最適な」モデル/パラメーターを見出し、APIとして提供する。
ユーザーはVision APIを使う場合と同様、後は学習結果をAPIとして適用しさえすればいいことになる。
なお、Cloud AutoML Visionでは、2種類の機能を提供するという。1つはシンプルな転移学習によって、「分単位で」パイロットとして使えるレベルのモデルを構築する機能。もう1つはLearning to learnと呼ばれる手法により、「1日以内」に「高精度の」モデルを構築できる機能だ。
Google CloudのAI/MLチーフサイエンティストであるフェイフェイ・リー(Fei-Fei Li)氏は、新サービスが、Google Cloudおよび同氏自身の目指してきた「AIの民主化」を大きく進展させるものだと話した。
「例えば医療診断では、一般的でない病気を的確に診断するニーズが高い」(リー氏)。Cloud AutoMLのようなサービスを使えば、ITの専門家でなくともデータさえあれば、機械学習を容易に活用し、現場で生かすことができるとする。
Cloud AutoMLでは、Google Cloudとしての「最適解」が提示される。基本的にはブラックボックスだ。モデルの精度については、Google Cloudを信じるしかない。Google Cloudは、「より少量のデータ」で「より高い精度」が実現できているとしているが、数値に基づく言及はない。
コストについても、現在のところは「Google Cloudを信じる」しかなさそうだ。課金は、利用したリソース量に基づくという。では、「最適な」モデルが自動的に構築される際に、どれくらいのリソースが使われるのか。これはやってみるまで分からない。同社は、アルファ段階であるため、料金体系については顧客と共に検討していくとも答えている。
今回提供開始したのは画像認識機能だが、今後他のサービスにつながっていくという。例えばVideo Intelligence APIに適用されれば、監視カメラ映像の分析や、映像コンテンツの(例えば番組に登場する人物の)タグ付けに、効果を発揮することが考えられる。
Cloud AutoMLは、Google Cloudの既存機械学習サービスのいいところ取りをしたようなサービスだ。ユーザーは事実上、訓練用のデータをアップロードするだけで、自らのデータに基づく機械学習をGoogle Cloudに自動実行させ、結果をAPIとして活用できる。
これをあらためて説明すると、次のようになる。
Google Cloudでは現在、機械学習関連サービスで、「Cloud Machine Learning Engine(Cloud ML Engine)」と認識系を中心とした機械学習APIサービスを提供している。後者には、画像認識の「Cloud Vision API」、動画からメタデータを抽出する「Cloud Video Intelligence API」、音声テキスト変換の「Cloud Speech API」、自動翻訳の「Cloud Translation API」、テキストを分析する「Cloud Natural Language API」、求人サイトに機械学習を適用する「Cloud Jobs API」がある。
APIサービスは、文字通りAPIを呼び出すだけで使える。だが、Googleが自社で指定した認識・分類を実現するために自社で用意したデータを使って訓練したものであり、ユーザーが得られるのは汎用的な分類やメタデータにとどまる。
ユーザー/ユーザー組織が、自らのデータを用い、自らの目的のために機械学習を生かそうと思うと、現状ではTensorFlowなどの機械学習ライブラリを直接使うことになる。Google Cloud では、TensorFlowホスティングサービスとしてCloud ML Engineを提供している。Cloud ML Engineは、機械学習を実行しやすくするツールを備えているものの、「データの投入」「モデルの設計」「モデル(パラメーター)のチューニング」「評価」といった作業をユーザー自身が繰り返し実行する必要がある点は変わらない。
今回発表のCloud AutoMLは、こうした作業をほぼ全て「Google Cloudにお任せ」できるサービス。
第1弾のCloud AutoML Visionでは、ユーザーはグラフィカルインタフェースで、訓練データとして画像をアップロード(あるいはGoogle Cloud Storageにおける画像の場所を指定)し、ラベルを付けるだけでよい(一部のラベル付けは、Vision APIに任せることもできる)。あとの工程は、全てCloud AutoMLが実行する。ユーザーが提供した訓練データを使って、「最適な」モデル/パラメーターを見出し、APIとして提供する。
ユーザーはVision APIを使う場合と同様、後は学習結果をAPIとして適用しさえすればいいことになる。
なお、Cloud AutoML Visionでは、2種類の機能を提供するという。1つはシンプルな転移学習によって、「分単位で」パイロットとして使えるレベルのモデルを構築する機能。もう1つはLearning to learnと呼ばれる手法により、「1日以内」に「高精度の」モデルを構築できる機能だ。
Google CloudのAI/MLチーフサイエンティストであるフェイフェイ・リー(Fei-Fei Li)氏は、新サービスが、Google Cloudおよび同氏自身の目指してきた「AIの民主化」を大きく進展させるものだと話した。
「例えば医療診断では、一般的でない病気を的確に診断するニーズが高い」(リー氏)。Cloud AutoMLのようなサービスを使えば、ITの専門家でなくともデータさえあれば、機械学習を容易に活用し、現場で生かすことができるとする。
Cloud AutoMLでは、Google Cloudとしての「最適解」が提示される。基本的にはブラックボックスだ。モデルの精度については、Google Cloudを信じるしかない。Google Cloudは、「より少量のデータ」で「より高い精度」が実現できているとしているが、数値に基づく言及はない。
コストについても、現在のところは「Google Cloudを信じる」しかなさそうだ。課金は、利用したリソース量に基づくという。では、「最適な」モデルが自動的に構築される際に、どれくらいのリソースが使われるのか。これはやってみるまで分からない。同社は、アルファ段階であるため、料金体系については顧客と共に検討していくとも答えている。
今回提供開始したのは画像認識機能だが、今後他のサービスにつながっていくという。例えばVideo Intelligence APIに適用されれば、監視カメラ映像の分析や、映像コンテンツの(例えば番組に登場する人物の)タグ付けに、効果を発揮することが考えられる。
2018年1月16日火曜日
NTTコム、TOEIC 900点台の高精度翻訳を実現する企業向けAI翻訳プラットフォーム 3月1日提供開始
NTTコミュニケーションズは1月15日、AI技術を活用した企業向け自動翻訳ソリューション「AI翻訳プラットフォームソリューション」を発表、3月1日に提供を開始する。提供価格は1IDあたり8000円から(最低ID数は10で、100ID以上の利用については別途見積もり)。
最新のニューラルマシントランスレーション技術を用いたAI翻訳プラットフォーム。翻訳作業の省力化を実現しており、Microsoft Office形式ファイルやPDF形式ファイルをそのままのレイアウトで翻訳して同形式のファイルで出力することが可能だ。
みらい翻訳と国立研究開発法人情報通信研究機構が共同開発した翻訳エンジンの「COTOHA Translator」による超高精度の翻訳を実現しているのも特徴で、事前に実施した精度評価実験では5段階評価で平均4.0を達成し、人間による翻訳との比較ではTOEIC 900点レベルの被験者と同等の平均点に達した。また訳出に必要な時間は、人間が平均7時間を要したところ、本エンジンでは約2分以内での高速翻訳を実現している。
社内用語や専門用語の登録も可能。辞書登録以外のチューニングとして、学習用データの文例から特有の用語や言い回しを事前に学習させることで顧客に応じた精度向上も行える。
対応言語は現時点では日英および英日に対応。今後、中国語など他言語のサポートも予定している。
最新のニューラルマシントランスレーション技術を用いたAI翻訳プラットフォーム。翻訳作業の省力化を実現しており、Microsoft Office形式ファイルやPDF形式ファイルをそのままのレイアウトで翻訳して同形式のファイルで出力することが可能だ。
みらい翻訳と国立研究開発法人情報通信研究機構が共同開発した翻訳エンジンの「COTOHA Translator」による超高精度の翻訳を実現しているのも特徴で、事前に実施した精度評価実験では5段階評価で平均4.0を達成し、人間による翻訳との比較ではTOEIC 900点レベルの被験者と同等の平均点に達した。また訳出に必要な時間は、人間が平均7時間を要したところ、本エンジンでは約2分以内での高速翻訳を実現している。
社内用語や専門用語の登録も可能。辞書登録以外のチューニングとして、学習用データの文例から特有の用語や言い回しを事前に学習させることで顧客に応じた精度向上も行える。
対応言語は現時点では日英および英日に対応。今後、中国語など他言語のサポートも予定している。