2017年12月20日水曜日
人工知能で不動産ビジネスを変える——楽天出身のベンチャー「ハウスマート」の挑戦
PC、腕時計、クルマ……いろいろな答えがあると思うが、「家」と答える人も多いはず。人生の多くを占めるほど長期のローンを組み、数千万ものお金を支払うケースが一般的だが、その買い物が"正しい"かどうかを知る方法は意外と少ない。
「モノを買うときに、口コミやWebでの情報を確かめてから買う人は多いと思います。しかし、家というのは、人生で最も高い買い物になるにもかかわらず、お客さまが情報を手に入れるのが、非常に難しい商品なのです」
こう話すのは、不動産ベンチャー「ハウスマート」の代表、針山昌幸さんだ。IT化が遅れている不動産業界に疑問を抱き、IT企業の楽天に転職。そして、そこで得た経験を基に会社を立ち上げた。
"ユーザー本位"になれない不動産業界のビジネス構造
針山さんが「家」に興味を持ったのは小学生のとき。当時、団地に住んでいた針山さんが、中古の一軒家に引っ越したのがきっかけだ。
「あの頃はすごく狭い家に住んでいたんですよ。家の中で飛び跳ねると、上の階からも下の階からも怒られるのがとても嫌で。そこから父親が奮起して、中古の家を買ったんですね。それがとてもうれしかったのを覚えてます。いくら家の中で跳ねても怒られない(笑)。家は単に人が住む場所であるだけではなく、人の幸せと直結しているんだと感じました」(針山さん)
その後、大学時代に不動産資格の宅建を取得した針山さんは、不動産企業に就職。仕事自体は楽しかったものの、次第に業界が抱える問題点や、非効率的な点に気付くようになった。
「他の業界がすごいスピードで進化している中で、不動産販売は、いまだに電話とFAXがコミュニケーションの中心だったり、周知の方法が広告しかなかったりと、ビジネスの手法が変わっていない部分が多いです。そのために利益率が低く、売り手と買い手が持つ情報も非対称。お客さまが欲しい物件を探すよりも、売却の依頼を受けた物件を"さばく"という性格が強い業界構造なのです」(針山さん)
例えば、この物件が5000万円だったとして、それが適正な価格なのか。過去にはどのような価格で売買されてきたのか。他の商品では簡単に手に入る情報も、不動産では調べても出てこないため、営業マンの言うことを信じるしかない。「もっと別の方法があるのではないか」——そう考えた針山さんは、楽天へと転職。そこで大きなカルチャーショックを受けたという。
楽天での経験を基に「ハウスマート」を起業
針山さんが楽天で行った仕事は、マーケティングリサーチやWebプロモーション、システム改善など多岐にわたる。楽天会員から得られる膨大なデータを、どう事業に生かすかを考え続けた。
「不動産業界はトップダウンの風潮が強かったのですが、楽天はエンジニアが多かったこともあって自由闊達な雰囲気でした。ボトムアップで課題を解決する姿勢がありますし、ユーザーに支持されることをサービスの原則としています。不動産もこういうスタンスで臨めたらいいと思いましたね」(針山さん)
こうして楽天で得た経験を基に、針山さんはハウスマートを起業。昨今、不動産売買で伸びている「中古マンション」に目を付け、マンション売買Webサービス「カウル」を2016年3月にリリースした。彼が目指すのは、不動産業が抱える課題をITの力で解決し、真にユーザー本位で売買を進められるようにすることだ。
「新築マンションの価格は上がる一方で、マンション売買の主戦場は中古に移りつつあります。昔建てられた物件なので立地が良かったり、価格がリーズナブルだったりと良い物件が多いのですが、一方で探すのは非常に難しい。新築と比べて、横並びでの比較が難しく、営業の工数も多いです。そのため、過去にどういう売買がなされてきたかといったデータが重要になるのです」(針山さん)
人工知能で業務を自動化、コストダウンをユーザーへ還元
カウルの特徴は、これまで人力でやってきた業務をデータ分析を背景に自動化し、コストダウンを図った点にある。まず、サービスに属性情報や希望の情報を登録すると、サービス側が自動で提案してくれる。中古マンションが過去どのような価格で売られてきたか、いくらで賃貸に出されてきたかといったデータを公開して、ユーザーが見られるようにし、人工知能(機械学習)を用いて適正価格を算出している。
「弊社では今、売買価格のデータを1000万件程度持っており、立地条件や部屋の広さ、周辺物件との比較といった要素から、機械学習で適正価格を出しています。業務を自動化することでコストや仲介手数料を下げるとともに、見学や対面でのヒアリングを通じて、お客さまにとって最良の物件を精査するという、コンサルティング業務に営業の力を集中できる。不動産の新たな業態を作り出せると考えています」(針山さん)
業態としてはあくまで不動産仲介なので、街の不動産屋と仕事は大きく変わらない。しかし、物件の提案に加えて内覧依頼、質問、購入申し込みまで、全てサービス上のメッセンジャーでやりとりできるため、Webサービスやアプリだけで完結する。
基本的に自社物件を持たず、アプリと自社メディアを中心に集客。物件見学の申し込みもサービスを通じてユーザー自身が行うなど、徹底したインバウンド戦略でコストを下げ、プラットフォーマーとしての立ち位置を狙うビジネス構造だ。売買金額が大きければ、仲介手数料も膨らむため、カウルを使うと百万円単位で購入費用が下がるケースも珍しくない。サービス開始から2年弱で、会員数は1万2000人を突破。順調にユーザー数を増やしているという。
「カウル」を支えるエンジニアとの出会い
針山さんが楽天で得たのは、ITの知見だけではない。カウルを支える重要なエンジニアとの出会いもあった。同社CPO(=Chief Product Officer)の高松智明さんだ。高松さんは新卒でエンジニアとして楽天に入社し、ハウスマートに転職した。データ取得や名寄せの自動化、顧客ニーズと物件のマッチングなど、機械学習を使った効率化のキーパーソンだ。
楽天では、広告系のプラットフォーム開発を行っていた高松さん。Eコマースのデータを見て分析し、それをマーケティングに応用する業務を行っており、機械学習もそのころから使っていたという。
「ユーザーの行動情報や購買情報を分析してレコメンド型の広告を作ったり、広告を出した際にどれくらいの割合で買うのかという予測を作ったりするのに、機械学習を使っていました。Webページに掲載するのには問題がある商品画像をはじくをフィルターをディープラーニングで作ったこともありました。デジタルマーケティングの分野は、アルゴリズムがお金につながりやすい分野だと思うんです。そこで機械学習やディープラーニングをビジネスに生かすノウハウを学びました」(高松さん)
高松さんは、マンションの適正相場の予測や名寄せに加えて、画像検知の機械学習も検討している。反応が悪いアイキャッチ(トイレや台所)を自動で省き、クリック率を見ながら最適な画像を表示させるという。2018年1月には、賃貸と購入の想定価格を比較できる機能「カウル鑑定」をリリース予定だ。
「扱うデータは異なるものの、データを集めて整理して分析する——という点は楽天時代と変わらない」と高松さんは話す。もともとアプリレイヤーのエンジニアだったが、ハウスマートに来てからはインフラも担当。最初は慣れなかったが、徐々に慣れてきて、今はAWSのメリットを感じているという。
「楽天時代は会社の規模が大きいこともあり、分業が進んでいたことから、足並みをそろえる必要があったのですが、今はAWSなのでサーバを作るのも柔軟ですし、タイムラグもほとんどありません。システムはほとんどDockerなどを使って組んでいます。やれる環境が整えば、すぐにビジネスに取り掛かれるスピード感がありますね」(高松さん)
高松さんと出会ったことで、針山さんの考えも大きく変わった。「エンジニアのメンバーと一緒に働けるのが、とてもぜいたくな経験だと思っている」と彼は話す。
「僕自身はずっと物を売る方の人間だったので、サービス開発にはほとんど関わってこなかったのですが、お客さまのニーズや市場の声を基に、エンジニアのメンバーと『ああでもない、こうでもない』と議論して、サービスを形作っていくのは本当に面白いと、この会社で初めて実感しました」(針山さん)
ITの真の威力と、エンジニアのスゴさに気が付いた
不動産企業、楽天と複数の企業を渡り歩いてきた針山さんだが、環境が移っていく中でITに対する見方も変わってきたと話す。
「今になって、ITがビジネスに与えるインパクトがこんなにも大きいものなのだと感じています。楽天にいたころは、既存事業の規模が大きかったため、例えばコンバージョンが1%上がったといっても、あまり実感できない部分がありました。
それが今だと、物件の提案のアルゴリズムが改善されるだけで、内覧の申し込みがバンバン来るようになる。自分たちが考えたアイデアが、ITを使うことでお客さまに提供する価値としてダイレクトに響く。レバレッジが効くという点で技術のすさまじさを感じています」(針山さん)
IT活用の形が変わったのとともに、チームワークの形も変わった。楽天時代は部署で"縦割り"になる傾向が強かったが、今ではビジネスの知見を持った人と、エンジニアリングの知見を持った人、そしてデザインの知見を持った人が、膝を突き合わせて考えるチーム作りを進めている。
「ビジネスとテクノロジーとデザインをきっちり融合させていく。そのために一番大事なのは、エンジニアへのリスペクトだと思っています。日本の会社って、成功体験を蓄積して、そのベストプラクティスを学んだ人間がたくさんいる組織が強い、と考える風潮があると思っているのですが、技術革新のペースが上がっている今、昨日までの成功を捨て去って、新しい方法を考えることがどのビジネスでも重要なのですが、それを体現しているのがエンジニアだと思っています。
新しい技術を勉強したり、会社を超えて知識をシェアしたり、一番良い方法を突き詰めたり……これからの時代には必須の考え方だと思います。それを踏まえて、ビジネスサイドの人間もエンジニアも一緒になっていいものを作る意識が重要でしょう。だから非エンジニアであっても、最低限の技術の知識は必要だと考えています」(針山さん)
針山さん自身も技術を学び直し、今では非エンジニアの経営陣を全員プログラミングスクールに通わせているというから驚きだ。考え方を共有しやすくなるという効果は上がっており、今後は全社にこの取り組みを広げることを検討している。簡単なアプリを作れるレベルを目指させるそうだ。
「ユーザーを喜ばせることには全職種で意識をそろえられているので、無用な衝突が起きにくいですね。顧客満足とマネタイズのポイントがずれると、どっちを優先するかという議論も起こりがちですが、サービスの質を高めることが、顧客のニーズに合致して、収益にもつながる——ビジネスとしてこの3つが一直線に並んでいるため、お互いが協力し合えるのだと思いますね」(高松さん)
ビジネスとテクノロジーを融合させ、純粋に顧客のニーズだけに向き合えるサービスを作り上げていく。さまざまな企業を経て、ITの真の威力とエンジニアと協力する必要性に気付いた針山さん。急成長を続けるハウスマートの裏側には、デジタルビジネスで成功するためのヒントが詰まっている。
IBM、汎用量子コンピューティングシステムをクラウドで共有する「IBM Q Network」を発表
IBMは既に、実働する量子コンピューティングプロセッサとしては初となる50量子ビットのプロトタイププロセッサを構築。アクセス権をメンバーに提供する予定だ。次世代のIBM Qシステムにも、同プロトタイププロセッサを活用する。
IBM Q Networkのメンバーは、IBMの技術者と連携し、特定の業界向けに量子コンピューティングの活用分野を開拓する。例えば、JSRは、量子コンピューティングを生かしたエレクトロニクス、環境、エネルギーの新素材開発の可能性を探索する。IBMは、コンサルタントや技術者、業界の専門家集団による「IBM Qコンサルティング」を提供し、顧客の量子コンピューティング技術の活用をサポートするという。
IBM ResearchでAIおよびIBM Q担当バイスプレジデントを務めるDario Gil氏は、「IBMは、今後数年間を『商用量子コンピューティング時代の幕開け』と考えている。顧客と緊密に連携し、量子コンピューティングが、あらゆる規模の金融サービス、自動車、化学などの業界に適用可能になり、これまで解決できなかった問題に対処できるよう、協力して探求を始めた。量子コンピューティングのメリットを生かせる分野を発見し、商業的、学術的、社会的に将来の利益につながる道筋を得られるだろう」と述べている。
IBMは、量子コンピューティングシステムを容易に利用できるようにする取り組み「IBM Q Network ハブ」も開設する。IBM Q Network ハブは、IBM Qシステムをオンラインで使用可能にし、量子コンピューティングの学習やスキル開発、実装を促進する。米国のIBM Research、慶應義塾大学、米国のオークリッジ国立研究所、英国のオックスフォード大学、オーストラリアのメルボルン大学に設置されるという。
2017年12月19日火曜日
ExcelにPythonの搭載検討、Microsoftがアンケート実施中
2015年11月に提案された「Excelで、スクリプティングやフィールド関数にPythonが使えるようにならないだろうか」という要望には、17年12月18日現在、約4000票が集まっている。デスクトップアプリケーションの要望の中では最も多くのユーザーが支持している。
これを受け、Excelチームは15日に「このトピックについての継続的な熱情に感謝します」として、ExcelがPythonを搭載したら何に使うか、どんな影響があるかなどを問うアンケートを設置した。
Pythonは、機械学習やデータ分析の分野で主に使われるプログラミング言語。ExcelにPythonが搭載されれば、Excelでより高度なデータ分析やビジュアル化が可能になるという見方もある。
2017年12月15日金曜日
A Cryptocurrency Without a Blockchain Has Been Built To Outperform Bitcoin
An anonymous reader quotes a report from MIT Technology Review:Bitcoin isn't the only cryptocurrency on a hot streak -- plenty of alternative currencies have enjoyed rallies alongside the Epic Bitcoin Bull Run of 2017. One of the most intriguing examples is also among the most obscure in the cryptocurrency world. Called IOTA, it has jumped in total value from just over $4 billion to more than $10 billion in a little over two weeks. But that isn't what makes it interesting. What makes it interesting is that it isn't based on a blockchain at all; it's something else entirely. The rally began in late November, after the IOTA Foundation, the German nonprofit behind the novel cryptocurrency, announced that it was teaming up with several major technology firms to develop a "decentralized data marketplace."
Though IOTA tokens can be used like any other cryptocurrency, the protocol was designed specifically for use on connected devices, says cofounder David Sonstebo. Organizations collect huge amounts of data from these gadgets, from weather tracking systems to sensors that monitor the performance of industrial machinery (a.k.a. the Internet of things). But nearly all of that information is wasted, sitting in siloed databases and not making money for its owners, says Sonstebo. IOTA's system can address this in two ways, he says. First, it can assure the integrity of this data by securing it in a tamper-proof decentralized ledger. Second, it enables fee-less transactions between the owners of the data and anyone who wants to buy it -- and there are plenty of companies that want to get their hands on data.The report goes on to note that instead of using a blockchain, "IOTA uses a 'tangle,' which is based on a mathematical concept called a directed acyclic graph." The team decided to research this new alternative after deciding that blockchains are too costly. "Part of Sonstebo's issue with Bitcoin and other blockchain systems is that they rely on a distributed network of 'miners' to verify transactions," reports MIT Technology Review. "When a user issues a transaction [with IOTA], that individual also validates two randomly selected previous transactions, each of which refer to two other previous transactions, and so on. As new transactions mount, a 'tangled web of confirmation' grows, says Sonstebo."
米司法省、IoTマルウェア「Mirai」に関与の3人を訴追
発表によると、訴追されたのは米ニュージャージー州在住のパラス・ジャー被告(21)など、米国に住む20〜21歳の3人。2016年夏から秋にかけて、Miraiに感染させたIoT機器でボットネットを形成し、持ち主に無断で制御した罪を認めているという。
Miraiはワイヤレスカメラやルータ、デジタルビデオレコーダーなどのIoT機器を狙うマルウェア。被告はそうした機器の未知および既知の脆弱性を突いて、ボットネットに加担させる目的で被害者のデバイスをひそかに制御した。
このボットネットを利用して、大規模な分散型サービス妨害攻撃(DDoS)攻撃を何度も繰り返したとされる。
ジャー被告は2016年秋、Miraiのソースコードを犯罪フォーラムに投稿。以後、他の人物や集団がMiraiの亜種を使って新たな攻撃を展開している。
ジャー被告ら2人はさらに、2016年12月から2017年2月にかけて、主に米国にあるホームルーターなど10万台あまりのデバイスをマルウェアに感染させ、クリック数を水増しして広告料をだまし取る「クリック詐欺」に利用した。
ジャー被告はほかにも、2014年9月から2016年9月にかけて米ラトガーズ大学のネットワークを攻撃した罪も認めているという。
Miraiの事件では2016年9月、米セキュリティ情報サイトの「Krebs on Security」などを狙って過去最大級の攻撃が仕掛けられた。その後、Miraiのソースコードが公開されると同様の攻撃が相次ぎ、IoT機器のセキュリティが手薄な実態も浮き彫りになった。
2017年12月14日木曜日
8カ月で20万DL、満足度90% 無料送金アプリ「Kyash」好調の要因
忘年会のシーズン。飲み代を割り勘する際に、友人や同僚と金銭のやりとりをすることが増えるが、両替が必要だったり、うっかり手持ちがなかったり、何かと面倒なことが多い。そんな"現金のストレス"を軽減してくれるアプリが「Kyash」だ。
Kyashでは、スマートフォン上で作成したクレジットカード(Visaブランドのバーチャルカード)を使って個人間送金ができる。手持ちのクレジットカードを登録すれば、Kyashの残高が足りない状態で送金しようとしても、不足分が自動で充当される。最初は残高0円なので、その状態で送金するには手持ちのクレジットカードを登録する必要がある。
同じKyashアプリを使っている人同士はもちろん、LINEやFacebook Messenger経由でも送金できるので、Kyashを使っていない人にも送れる。送金されてたまったお金は、Visaのクレジットカードとして使用でき、オンライン決済やモバイルSuicaへのチャージができる。
そんなKyashの利用動向と今後の展開を、Kyashの鷹取真一社長が12月13日に説明した。なお、この説明会では実店舗での支払いを可能にするサービスとの連携が発表される予定だったが、「急きょ(サービス提供元の)本国からストップがかかった」(鷹取氏)ため、この場での発表は見送りになった。
Kyashアプリは20万ダウンロードを突破
Kyashは2017年4月にiOS、7月にAndroid向けアプリをリリース。ユーザーは右肩上がりで伸びており、12月時点で累計ユーザー数は20万を超えている。鷹取氏によると、OS別の比率ではiOSが約7割、Androidが約3割とのこと。
11月にユーザーアンケートを取ったところ、Kyashを知ったきっかけは「友達に勧められて」の24.9%が最多で、口コミで広がっている様子が見て取れる。ユーザー層は20〜30代(58.3%)が最多で、男女比は男性と女性で7:3だった。鷹取氏は「10代の利用意向も高い」と話し、若年層ほど抵抗感なく使いこなしているようだ。「若年層はあまりお金を持っていないので、ATMで手数料を支払うのがもったいないと思う人が多い。2000円貸して、といったやりとりも、Kyashなら簡単にできる」(同氏)
送金や請求した額で最も多かったのが、1001円〜5000円の48.8%で、平均は2000〜3000円ほど。主な用途は飲み会やランチでの割り勘、友達や同僚との貸し借り、おつかい、旅行費用の立て替え。変わったところでは、金額を決めずに参加費を支払うケースや、仕送りやご祝儀などに使われることもあるそうだ。
Kyashを使ったことで、「(飲み代などの)集金漏れが減った」「小銭を使う機会が減った」「ATMの手数料がいらなくなった」などのメリットを感じる人が増えているという。こうした「お金に関するストレスが減った」ことが、大きな成果となっている。
個人間送金やオンライン、店舗での決済ができるサービスは「LINE Pay」も同様だが、前払式支払手段を用いるKyashは、利用にあたって本人確認が不要なので、手軽に使える。「1分で登録完了」という説明は大げさではなく、ユーザー満足度90%という高い数字もうなずける。
コンビニや銀行口座からのチャージにも対応
個人間送金をする際、ユーザーに手数料は一切かからない。ではKyashはどのように収益を得ているのかというと、オンライン決済が発生すると店舗から決済手数料が支払われ、これが収益となる。つまりKyashがもうかるには、ユーザーにどんどんオンラインで買い物をしてもらう必要があるが、その原資となるお金をためるには、ユーザーからの送金が必要。個人間送金を増やすことは、Kyashが成長するための重要なミッションといえる。
さらに、コンビニエンスストアと銀行からのチャージにも近日中に対応する。コンビニはローソン、ファミリーマート、ミニストップなど国内約3万5000店、銀行はメガバンクを中心に国内1180の金融機関が対応する。チャージは、Kyashアプリで「リクエスト」を作成し、その後コンビニなら専用端末で申込書を作成してレジで支払い、銀行ならATM端末などから納付すれば可能。
現在は、登録したクレジットカードから不足分が自動チャージされる状態だが、手動でのチャージが可能になることで、より無理なく安心して使えそうだ。
実店舗決済の発表も間もなく?
冒頭でも触れた通り、Kyashにたまったお金を使う場所として、今後はオンラインだけでなくオフライン(実店舗)での支払いにも対応させる。日本では既にさまざまな決済サービスが提供されているため「ゼロから開拓するのではなく、既存のインフラを活用する」(鷹取氏)形になる。クレジットカードとひも付いた実店舗でのモバイル決済サービスといえば、使っている方ならいくつか想像がつくと思う。正式発表を待ちたい。
LINE Payのように物理的なカードを発行することについては「発行はできるが、スマホで決済を完結させたい」(鷹取氏)とのことで、あくまでスマホをハブにしたサービスにこだわる。
コンビニと銀行でのチャージと、実店舗決済が、今後の新たな取り組みとなる
最近耳にする機会が増えた「キャッシュレス」という言葉は、主に店頭での支払いを指すものだが、「人と人とのお金のやりとりもキャッシュレス化していきたい」と鷹取氏。「友達から受け取るお金が電子的(キャッシュレス)なら、お店への支払いも電子的になる」と同氏は考え、Kyashを通じてキャッシュレス化を推進していく構えだ。
2017年12月13日水曜日
富士通、コミュニケーションロボ販売開始 AI使い人の顔や感情認識
このサービス基盤は「ロボットAIプラットフォーム」で、AIを駆使して対話などの言語処理に加え、人の感情や顔の認識などの機能を搭載。ロボット「unibo(ユニボ)」(高さ32センチ、重量2.5キロ)がインターネット経由で接続し、さまざまなサービスを提供する。
例えば病院の個室に置かれたユニボは顔認識機能により患者の顔を見分けて簡単な対話をしながら、電子カルテのデータを基にその人の検査スケジュールや服薬の時間を知らせたりする。また、患者の表情を読み取り患者の体調把握に務める。
ユニボはベンチャー「ユニロボット」(東京)が開発した。これまでの実証実験では、金融機関の店舗窓口で金融商品の紹介など接客サービスにも取り組んできたという。ロボット以外にスマホなどの機器もサービス基盤への接続が可能で、今後サービスの拡充が見込まれる。富士通グローバルビジネス戦略本部の谷村勝博本部長は「今後サービスロボットの市場拡大が予想される」と述べた。
クラウドとロボットを1年間利用できる実証パックの税別価格は64万8000円。利用期間終了後もロボットは手元に残る。
「ゆうパック」ロボットが宅配 日本郵便、ローソンなど実証実験
ZMPが開発する宅配ロボット「CarriRo Delivery」(キャリロデリバリー)を使う。搭載するレーザーセンサーとカメラで周囲を360度認識しながら最大時速6キロで自走し、荷物を運ぶ。人間による遠隔監視や遠隔操作も可能。
実証実験は、南相馬スポーツセンター内トリムコースで行う。結果を踏まえ「配送ロボットを活用し、ユーザーが注文したローソン商品と郵便物を一緒に配送する仕組みの構築を検討する」(ローソン)。実証実験の取りまとめは、東北日立が担当する。
2017年12月8日金曜日
AWS、Facebook、Microsoftの3社、AIモデルのオープンフォーマット「ONNX」を正式リリース
Amazon Web Services(AWS)、Facebook、Microsoftの3社は2017年12月6日(米国時間)、「Open Neural Network Exchange(ONNX)」がバージョン1.0となり、本番環境で利用できるようになったと発表した。
ONNX(Open Neural Network Exchange)のWebサイト
ONNXは、「Apache MXNet」「Caffe2」「Microsoft Cognitive Toolkit」「PyTorch」といったディープラーニングフレームワーク間の相互運用性を実現するディープラーニングモデルのオープン標準フォーマット。ONNX 1.0は、異なるフレームワーク間でのディープラーニングモデルの移行を可能にすることで、これらのモデルを本番環境で利用しやすくする。例えば、開発者はPyTorchを使ってコンピュータビジョンモデルを作成し、Microsoft Cognitive ToolkitやApache MXNetを使って「推論」を実行できる。
AWSは公式ブログで、「ONNXが2017年9月に発表されて以来、このプロジェクトへのコミュニティーのサポートや参加が拡大し、活発化している」と述べている。さらに、QualcommやHuawei、Intelなど多くのハードウェアパートナーが、自社のハードウェアプラットフォームでのONNXフォーマットのサポートを発表しているという。
AWS、Facebook、Microsoftは、コミュニティーへの感謝を表明するとともに、今後もパートナーやコミュニティーと協力してONNXを進化させ、開発者が最新の研究成果を利用して、最先端のディープラーニングモデルを本番アプリケーションに統合できるようにすると述べている。
人工知能ワークロード向けプロセッサを搭載——IBM、次世代Power Systemsサーバを発表
IBMは2017年12月5日、次世代のPower Systemsサーバ「Power System AC922」を発表した。人工知能(AI)ワークロード向けに設計されたプロセッサ「POWER9」を採用した。16コアまたは20コアのPOWER9プロセッサを2基備え、主記憶容量は、最大1TB。GPUは、最大で4個のNVIDIA Tesla V100を内蔵する。
Power System AC922は、NVIDIAのGPU「NVIDIA Tesla V100」を備えており、オープンソースソフトウェア(OSS)ライブラリ「Chainer」「TensorFlow」「Caffe」といったAI向けのフレームワークと、「Kinetica」などのデータベース管理システムの処理性能向上に向けて設計されている。ディープラーニングによる機械学習は、IBMがベンチマークテストを実施した結果、x86サーバ(Xeon E5-2640 v4)と比べて約4倍高速化できたという。
IBM Power System AC922のイメージ図(出典:IBM)
また、Power Systemsとして初めて、CPUとGPUを接続する「NVIDIA NVLink 2.0」やサーバ向けインターコネクト技術「OpenCAPI(Open Coherent Accelerator Processor Interface)」、I/Oシリアルインタフェース「PCI Express 4.0」といったI/O(入出力)技術を採用した。PCI Express 3.0を採用したx86サーバと比べて9.5倍、データ転送を高速化できるとしている。
Power System AC922では、アプリケーションがCPUの主記憶領域をGPUメモリとして利用できるため、GPUのメモリ不足を解消する。また、GPUでのデータ処理の際、CPUの主記憶領域からGPUメモリに処理対象データを転送する必要もなくなることから、プログラミングを簡素化できる。NVLinkでCPUとGPUを直結させるため、メモリ共有がボトルネックになることもないという。
AIは、自社のビジネスを左右する重要業務にこそ適用すべきだ
AIを最大限に活用するには、優先度の高い重要なビジネス課題に適用すべきだ
ある大学の幹部は、入学者を5%増やそうと考え、人工知能(AI)を利用した。AIは入学者数に大きく貢献する可能性があったからだ。
また、ある大手通信会社が世界的な合併を行ったとき、IT部門はAIを駆使して、新会社におけるスキル、言語、文化のギャップを埋め、それまでのライバルを友人に変えた。
さらに、欧州のあるトラック運送会社は、ドライバーとリフトオペレーターの異言語間コミュニケーションを支援するため、AIベースの翻訳インタフェースを導入し、輸送効率を高めて貨物の取扱量を増やした。
これらの企業や組織は業種も地域も異なるが、いずれもAIの活用により、優先度の高い重要なビジネス課題に取り組んだ。「AIは、あなたとビジネスにとって最も重要なことに適用すべきだ」。Gartnerのバイスプレジデント兼最上級アナリストのホイット・アンドリューズ氏は、2017年10月に米国オーランドで開催されたGartner Symposium/ITxpo 2017で、こうアドバイスした。
「AIを社内でどのように活用すべきか考えているなら、自社にとって不可欠な部分への活用を追求しなければならない」(アンドリューズ氏)
AIのメリットは自動化だけではない
AIの一般的な定義では自動化に力点が置かれており、その結果として、ITリーダーやビジネスリーダーにとっての活用機会は見過ごされていることが多い。AIは、主に学習によって人間の能力をエミュレートする技術であり、「人間だけで行うよりも迅速かつ大量に分類や予測を行えるもの」と表現するのが最も適切だ。
企業は自社にとって不可欠な部分で成果を得るために、スピードや効率の向上、データ処理や分析の高度化、顧客体験の充実にAIを活用している。導入が始まって間もない現段階では、まずこれらのカテゴリーにAIの活用機会を求め、以下のように、優先度の高い重要なビジネス領域に役立つユースケースに重点的に取り組んでいる。
販売とマーケティング:販売プロセスをカスタマイズする、見込み客や顧客とのコミュニケーションをパーソナライズする、顧客に適した販売スタッフをマッチングする、パーソナライズされた価格を提案する。
サービス:顧客へのアシスタンスや問題への一次対応を仮想的に提供する、メンテナンスや近い将来の修理のニーズを予測する、サービススタッフと顧客の取り次ぎを行う、顧客対応プロセスにおけるギャップを見つける。
サプライチェーン:データエラーを発見して修正する、サプライチェーンにおけるリスクを発見する、現場のIoTデバイスから洞察を引き出す、物流を計画する。
オフィス:特定のノウハウを持つ人材を見つけて連絡する、コンプライアンス違反を発見し是正する、行動項目の提示を通じて会議ややりとりをサポートする、デジタル技術への習熟を支援する。
ビジネスの成長はCEOの中心的な優先課題であり、顧客体験は成長の促進に重要な役割を果たす。このことからすると、現在、多くの企業がAIを利用して、まず顧客関連の取り組みを進めているのは当然だ。さまざまな業種での例を以下に示す。
銀行および金融サービス:チャットbotが顧客の口座利用の手助けをする。
ヘルスケア:仮想看護アシスタントが退院後の患者をフォローする。
小売り:機械学習と自然言語処理が顧客データから学習し、顧客行動に関する洞察を生み出す。
教育:AIによる「教師ロボット(チューターbot)」がパーソナライズされた学習を支援する。
AIは、企業/消費者間(B2C)モデルでのみ利用されているわけではない。例えば、物流センターを運営している、あるB2B企業は、操業音をチェックして効率上の問題を未然に防止するシステムを倉庫に導入する計画を進めている。
重要業務のAI化における留意点
優先度の高い重要なビジネス課題にAIを適用するために、以下の点に留意する。
- 過去に人員を十分に確保できなかったために諦めた領域で、AIを活用するアイデアや可能性を探る
- 自社に固有の課題や領域にAIを適用することを考える。これらの課題や領域は、一般性が低いほど望ましい
- 従業員に対する調査やヒアリングにより、業務の中でAIにより対応できる側面を洗い出し、取り組みを検討する
「ボーナスアップやビジネス価値の拡大に向けて、これまで技術を使って何を行ってきたかを考えてみるとよい。そこにAIを適用するのが正解だ」(アンドリューズ氏)
働き方改革ICT市場、2017〜2021年は年間平均成長率7.9%——IDC予測
IDC Japanは2017年12月7日、2016年の国内における働き方改革関連のICT市場についての調査結果を発表した。
IDCでは、「ハードウェア」「ソフトウェア」「ITサービス/ビジネスサービス」「通信サービス」の4分野に分類されるICTの市場規模を予測。これらの中から、働き方改革の主目的である「長時間労働の短縮」「労働生産性の向上」「柔軟な働き方」といった取り組みをサポートするICT市場の規模を積み上げ、「働き方改革ICT市場」として算出した。
その結果、2016年の市場規模(支出額ベース)は、1兆8210億円に達したことが分かった。この市場の5割弱を占めていたのは、働き方改革に不可欠なモビリティインフラストラクチャであるノートブックPC、タブレット、スマートフォンといったハードウェアだった。
官民を挙げた働き方改革の大きなきっかけとなった長時間労働の削減に関する取り組みは、2016〜2017年に積極的に実施されたものの、多くはICTが関わらないもので、「上長が部下の残業を細かくチェックして安易に残業をさせない」「夜の一定時間になるとオフィスを消灯する」「ノー残業デーを徹底する」といった取り組みだったという。
一方、ICTを活用して生産性を向上させる取り組みとしては、稟議(りんぎ)や休暇、残業の申請承認システム、経費精算システム、Web会議、ファイルやデータのシェアリングなど、単体のアプリケーションの導入にとどまることが多い。結果として、市場規模は相対的に小さなものとなったとIDCでは見ている。
「国内働き方改革ICT市場予測、2016年〜2021年」(IDC Japan、2017年12月)
2018年以降の市場予測としては、労働生産性の向上や柔軟な働き方を実現する取り組みが洗練され、テレワークの環境整備に向けた業務ツールのクラウド化や、モバイル機器利用の拡張に伴うセキュリティ対策の強化、モビリティ機器管理ツールの導入などが進むと予測している。
また生産性の向上を本格的に追求する企業は、業務の棚卸しに基づいた業務効率化ツールの導入といった取り組みをさらに進め、既存システムとのインテグレーション需要も拡大すると予測。そういったツールの中にはAIを搭載したものも既に出現しており、業務効率化への需要を一層刺激すると考えられるという。
このような状況を踏まえ、働き方改革におけるソフトウェア市場とITサービス/ビジネスサービス市場は、働き方改革に限定しない全体市場の成長速度に比べてはるかに高い成長を見せ、働き方改革ICT市場全体では、2016〜2021年の年間平均成長率(CAGR:Compound Annual Growth Rate)は7.9%、2021年の市場規模は2兆6622億円に達すると予測している。
IDCでは、2021年に向けて、労働生産性の向上と柔軟な働き方の実現を目的としてソフトウェア導入やシステムインテグレーションに対する需要が拡大し、それが今後の働き方改革ICT市場の成長をリードするとみている。
Webサイト分析の人工知能「AIアナリスト」がセッションをまたぐページ貢献度分析機能を追加
AIアナリストは、「Google アナリティクス」のアクセス解析データと連携し、人工知能がWebサイトの課題を発見し、改善提案まで自動で行うツール。これまでは1度の訪問ごと(セッション単位)に分析していたが、購入などのコンバージョン(CV)に複数回の訪問を必要とする高額商材などにおいては、CV時の最終セッションだけを見ていては正しい効果が測定できないという課題があった。
今回の新機能追加で、CVに寄与するページを、セッションをまたいで分析することができるようになったことで、セッションとユーザー、両方でのしっかりとした裏付けのある分析と、 CVに貢献するページの発見漏れ防止という2つの価値を提供できるという。
本機能で伸びしろがある可能性が高いとされるのは、以下のようなサイトだ。
*家や車など高額商品の売買に関するサイト
*求人のエントリーをCVにしている求人サイト
*B2B向けのサイト
*子供向けの教育商材や結婚式場予約など、1人での意思決定が難しいサービスのサイト
2017年12月7日木曜日
AI時代に生き残る企業がきっと備える“4つの習慣”
人工知能(AI)は新たな電気のようなものだ——。深層学習(ディープラーニング)の第一人者であるアンドリュー・ウン氏はそう指摘する。今から1世紀ほど前に電気があらゆる主要産業に変革をもたらしたのと同様に、AIは世界を大きく揺るがすテクノロジーとなるだろう。ただしそれはまだ先の話だ。
ウン氏によれば、今のところAIが創出する経済価値の99%は「教師あり学習」によるものだという。教師あり学習のアルゴリズムは人間を教師とし、膨大な量のデータを学習しなければならない。骨は折れるが、高い成果を挙げることが実証された方法だ。
例えばAIアルゴリズムは今では、猫の画像を猫と判断できる。だが、そのためには「猫」とラベル付けされた何千枚もの画像を見せ、「猫とはどのようなものか」を学習させる必要があった。人の発言内容を理解できるAIアルゴリズムについても同様だ。主要な音声認識システムはいずれも完成までに5万時間分もの音声データとその書き起こしデータの学習を必要とした。
ウン氏は、現状のAIにとって競争上の差別化要因となり得るのはアルゴリズムではなくデータだと考える。トレーニングを受ければ、アルゴリズムは模倣することができるからだ。
ウン氏は最近『MIT Technology Review』が開催したカンファレンス「EmTech」で次のように語った。「オープンソースのアルゴリズムが大量に存在し、情報はすぐに広まる。大半の企業にとって、他社がどのようなアルゴリズムを使っているかを知るのはそれほど難しいことではない」。AI業界の権威として知られるウン氏は現在、スタンフォード大学のコンピュータサイエンス学部で非常勤教授を務めている。
ウン氏はプレゼンテーションにおいてAI時代の現状について説明した後、今後AIを活用する企業が共通して備えることになるであろう4つの特徴を紹介した。職務内容の変化はそのうちの1つだ。
併せて読みたいお薦め記事
人工知能が切り開く未来
- 『MIT Technology Review』選出の次世代イノベーター2人が語るAIとARの未来
- 「拡張知能」と「人工知能」 2つのAIはどこが違うのか
- 人工知能(AI)はどのような技術で構成されているのか?
真の知能への道筋
正のフィードバックループ
今のAI時代において、データは極めて重大だ。ただし企業はGoogleやFacebookのようにならなくてもAIのメリットを享受できる。必要なのは、ひとまずプロジェクトを立ち上げるのに必要なデータを確保することだけだ。そうした始動用データを用いていったん顧客を獲得すれば、次は顧客がその製品向けのデータを生み出すという好循環が生まれる。
「こうして正のフィードバックループが形成される。しばらくすれば、事業継続に必要十分な量のデータをおのずと確保できるようになるはずだ」とウン氏は語る。
ウン氏のスタンフォード大学の教え子たちはまさにこの手法を用いて、テクノロジーで農業を変革するAgTech分野のスタートアップ企業Blue River Technologyを立ち上げた。Blue River Technologyはコンピュータビジョンとロボット工学と機会学習を組み合わせて農場管理に役立てることを目指している。共同創業者たちはまずレタス事業から着手すべく、レタスの画像を大量に撮影して十分なデータ量を確保し、レタス生産者の支持を取り付けることに成功した。「恐らく現在、彼ら以外にこれほど多くのレタス画像を保有している企業は、世界中のどこにもいないだろう」とウン氏は語る。
実際こうした大量のデータが彼らのビジネスを極めて有望なものにしている。「私の知る限り、世界的な大手IT企業でもこれほど大量には特定分野のデータを保有していない。たとえ大手IT企業であっても、Blue River Technologyの事業分野に参入するのは結構な挑戦となるだろう」とウン氏は語る。
2017年9月には農業機械メーカーのJohn Deereが同社を3億ドルで買収し、こうしたデータ資産には数億ドルの価値があることが実際に証明された。
「データ集積は、AIと深層学習の時代にあって、企業戦略が今後どのような方向に変化していくかを示す一例といえる」とウン氏は語る。
AI企業に共通する4つの習慣
この先どのようなAI企業が成功するかを予想するのは時期尚早だ。ウン氏は、これまでに企業のビジネスの在り方を大きく変えた要因の1つとしてインターネットを引き合いに出し、説明を続ける。
ウン氏がインターネット時代の到来から学んだ教訓の1つに、「企業はWebサイトを持つだけでインターネット企業になれるわけではない」というものがあるという。同氏によれば、同じことがAI企業にも当てはまる。
「深層学習や機械学習やニューラルネットワークを追加しただけで、従来のテクノロジー企業がAI企業になれるわけではない」とウン氏は語る。
インターネット企業と呼べるのは、A/Bテストや短いサイクルでの商品開発、エンジニアやプロダクトマネジャーなど現場レベルでの意思決定など、インターネットならではの特徴を生かしている企業だけだ。
AI企業にも同じことがいえる。AIを活用してこそ、AI企業だ。ただしAI企業にとって何がA/Bテストに匹敵するものとなるのかは、まだ定かではない。ウン氏はそう指摘した上で、今後AI企業が備えるであろう習慣として以下の4つを挙げた。
1. 戦略的なデータ収集
企業は収益化につながる重要なデータ源泉をどこかで確保しなければならない。これは企業にとって複数年にわたりチェスをプレーするような戦略的で複雑な作業だ、とウン氏は語る。ウン氏が新製品の開発を決断するときは、「持続可能なビジネスの構築につながるデータを収集するめどが立つかどうか」が判断基準の1つになるという。
2. 統合データウェアハウス
企業の最高情報責任者(CIO)にとって、これは驚くに当たらないことだろう。CIOは長らく、集中管理型データウェアハウスの重要性を認識している。ただし複数のソースからデータを組み合わせて活用する必要があるAI企業にとって、データサイロとその背後にある官僚主義はAIプロジェクトの命取りになりかねない。企業はデータウェアハウスの統合に今すぐ取り組むべきだ。「多くの場合、企業はこの取り組みに複数年を要する」とウン氏は語る。
3. 職務内容の変化
チャットbotのようなAI製品の概要を説明するのと、アプリケーションの概要を説明するのとでは、勝手が違う。そのためプロダクトマネジャーはこれまでとは異なる方法でエンジニアとコミュニケーションを図る必要がある。実際、ウン氏は現在、プロダクトマネジャーに対し、エンジニアに明確な製品仕様を伝えるための訓練を施しているという。
4. 組織横断型のAIチーム
AIのスキルを持つ人材はまだ少ない。そのため企業はまず社内の全事業部門を支援するAIチームを結成するといい。「モバイル技術が台頭した際も同じ状況だった。2011年ごろはまだどの企業もモバイルエンジニアを十分に確保することができずにいた」とウン氏は語る。スキルを持つ人材の数が需要に追い付いた後、企業は個々の事業部門にモバイル担当者を配置するようになった。「AI分野でも恐らく同じような展開になるだろう」とウン氏は語る。
AWSの機械学習/ディープラーニングサービス、新たな展開とは
AWSのディープラーニング/AI担当ゼネラルマネージャーであるマット・ウッド氏は、AWS re:Invent 2017の全体セッション全てに登場し、機械学習関連の新たな発表について説明した。これだけでもAWSの機械学習/AIへの力の入れ方がうかがい知れる。では、AWSはどんな機械学習/AI関連サービスを、どのような人のために提供しているのか。ウッド氏との個別インタビューの内容と合わせてお届けする。
今回のre:Inventにおける主要な発表は、機械学習プロセスを自動化・効率化する「Amazon SageMaker」、カメラを備えたボックスでAWSのコグニティブAPIを即座に試せる「AWS DeepLens」、エッジコンピューティングにおいて機械学習モデルを適用する「AWS Greengrass Machine Learning (ML) Inference」、コグニティブ系APIサービスの拡充、だ。
「差別化につながらない作業から、機械学習に関わる人たちを解放する」
ウッド氏は筆者とのインタビューで、「機械学習に関わる人たちを、差別化につながらない作業から解放する」ことが、現時点で最も重要だと話した。「ビジネスユーザーが使えるような抽象化された機械学習インタフェースを提供するつもりはないのか」と聞いてみたが、「汎用的で使いものになるローコードツールは成立しにくいため、現在のところ(AWSのサービスとしては)考えていない」という。
「機械学習に関わる人たちを、差別化につながらない作業から解放する」ためのツールの1つとして、AWSがre:Invent 2017で一般提供開始を発表したのが「Amazon SageMaker」。機械学習モデルの構築、学習、適用の環境という一連の流れをサービスとして提供するもので、機械学習のプロセス全体にまたがる環境構築、およびトレーニングにおけるチューニングの自動化を通じ、ユーザーの時間と労力を節約しようとしている。
Amazon SageMakerで、「ディープラーニングにまつわる面倒なこと」を一掃
SageMakerでは、機械学習に取り組むデータサイエンティストの多くがIDE的に使っているツールであるJupyter Notebookの環境が、ワンクリックで自動的に用意される。データサイエンティストは今までのやり方を変える必要なく、オーサリングができる。AWSでは「多様なユースケースに対応する多数のノートブックを用意した」(AWSのアンディ・ジャシーCEO)。これをテンプレートとして使い、オーサリングにかかる時間を節約することも可能。
機械学習アルゴリズムについては、「最も人気の高い10のアルゴリズムをあらかじめ組み込んでおり、これらのいずれかを使うなら、ドライバーのインストール、フレームワークの構成などが済んだ状態で提供できる」(ジャシー氏)という。また、これらのアルゴリズムは、他の環境を使った場合に比べ高速に動作するという。ユーザーが自らアルゴリズムを書くこともできる。機械学習フレームワークとしてはTensorFlowとMXNetが、構成済みとなっている。他のフレームワークを使うこともできる。
SageMakerでは、デフォルトで10のアルゴリズムを提供する
トレーニングは、訓練データがあるS3バケットを指定し、インスタンスタイプを選択しさえすれば、ワンクリックで開始できる。訓練データは、Amazon S3に保存したものを使う。AWS Glueを使い、Amazon RDS、Amazon DynamoDB、Amazon RedshiftからS3にデータを複製することもできる。トレーニングが終われば、SageMakerのクラスタは自動的に停止する。こうして構築されたモデルは、ワンクリックでデプロイできる。
機械学習モデルの構築では、パラメーターチューニングに多くの時間が費やされる。SageMakerは、同社が「Hyperparameter Optimization」と呼ぶ、チューニングの自動実行機能を備える(この機能については「リミテッドプレビュー」段階)。「機械学習モデルを構築する人々は、もうパラメーターチューニングに悩むことがない。投入するデータの量や種類を変える必要があるかどうかだけを考えればいい」(ジャシー氏)。
SageMakerは料金体系として、インスタンスについては秒単位の課金、ストレージについてはGB単位の課金、データ転送についてはサービスからの出入りについて、GB単位の課金で構成される。
ウッド氏はSageMakerについて、「データサイエンティストは余計なことを考える必要がなくなり、やるべきことに集中できる」と話す。また、「機械学習に親しみたいプログラマーにとっても、Jupyter Notebookのテンプレートを活用することで、取り組みやすくなる」としている。ウッド氏はさらに、同時発表の「DeepLensを併用することで、ますます多くのソフトウェア開発者が、機械学習に取り組めるようになる」とも語っている。DeepLensについては後述する。
MXNetと他の機械学習フレームワークとの関係
AWSは2016年のre:Inventで、MXNetに投資する一方、主要な機械学習フレームワーク全てについて、使いやすい環境を提供していくと発表していた。この姿勢は2017年も変わらないのか。ウッド氏は、全く変化はないという。
「幅広い選択肢を提供できること自体が、価値につながる」(ウッド氏)
では、「MXNetへの貢献を通じて、このオープンソースプロジェクトをコントロールしたいという意図はないのか」と聞いてみたところ、「活動として支配的なレベルではなく、少数派にとどまっているという点から、そうした意図がないことは示せる」と答えた。
ただし、結果的に、MXNetプロジェクトへある程度の影響を与える存在になりつつあることは事実のようだ。AWSは2017年12月4日(米国時間)、MXNet 1.0のリリースに伴い、構築したモデルをアプリケーションに組み込みやすくするAPIエンドポイント作成支援機能などで、同プロジェクトに貢献したことを明らかにしている。
また、AWSの機械学習系サービスでは、必ずしも全てのフレームワークを平等に扱っているわけではない。
AWSがre:Invent 2017で発表した前述のSageMakerは、前述の通りTensorFlowとMXNetについては事前に統合・構成済みであり、この2つを平等に扱っている。だが、Microsoftと協力して開始した、機械学習インタフェースのオープンソースプロジェクトであるGluonでは、現時点でMXNetに対応。次にMicrosoft Cognitive Toolkitへ対応する一方、他のフレームワークに組み込みやすくすると発表している。
後述のDeepLensではMXNetを搭載するが、他のフレームワークも使えるとしている。また、後述のGreenglass ML Inferenceでは、MXNetをハードウェアに最適化した形で提供するとし、他のフレームワークについての言及はない。
AWS DeepLensで、ディープラーニングを開発者に親しみやすく
DeepLensは、Intel AtomにHDカメラ、マイクを搭載したボックス。re:Invent 2017のワークショップ参加者には無料で配布した。米国での販売開始を2018年4月に予定しており、Amazon.comでは事前予約ができるようになっている。価格は249ドル。
ソフトウェアとしては、AWSがエッジコンピューティング用のソフトウェアとして推進している「AWS Greengrass」を搭載。すなわち「AWS Lambda」のサーバレスコンピューティング機能を動かせる。
DeepLensはまた、MXNetの推論エンジンを搭載。SageMakerなどを使ってAWSで構築したモデルを、同デバイスに適用して実行できる。AWSではこのデバイスに最適化したMXNetを搭載しているが、他のフレームワークを使うこともできるとしている。
「コンピュータービジョンは単純に言って楽しい」。機械学習に親しむプログラマーを増やすために、カメラ搭載ボックスを提供する理由について、ウッド氏はこう話した。
DeepLensでは、必ずしも最初から、SageMakerを使ったディープラーニングに直接取り組む必要はない。各種のプロジェクトテンプレートが用意されていて、訓練済みのモデルを適用することもできるという。DeepLensの紹介ページには、「猫・犬の検知」「物体認識」「顔認識」「ホットドッグ検知」などが、こうしたテンプレートとして紹介されている。
DeepLensは上記の通り、機械学習を楽しく学んでもらうことを主な目的としている。だが、当然ながら画像を対象とした機械学習を活用するサービスで、即座に開発を始め、PoC(Proof of Concept)を行うためにも使える。
AWS Greengrass ML Inferenceでエッジコンピューティングに対応
IoTを機械学習と組み合わせるケースが増えている。特に日本では、不良検査や故障予測、監視の自動化などに生かす例がよく聞かれるようになってきた。
今回のre:Inventでは、こうしたユースケースへの迅速な対応を支援する目的で、Greengrass ML Inferenceがプレビュー版として発表された。Greengrassにローカルでの推論エンジン実行機能を付加したもので、前述のDeepLensも、「Greengrass ML Inferenceを搭載している」と表現できる。
Greengrassは、幅広いエッジコンピューティングデバイスにインストールできるソフトウェアで、デバイス上でLambda関数を動かし、AWSのサービスとつなげて利用できる。IoTで、ローカルな処理が必要なケースに適している。
今回発表のGreengrass ML Inferenceは、これにMXNetのエンジンを付加するもの。NVIDIA Jetson、Intel Apollo Lake、Raspberry Piのそれぞれに最適化されたMXNetパッケージを、デバイスにダウンロードしで動かせるという。
Greengrass ML Inferenceでは、Greengrassコンソールで、SageMakerによって構築・訓練されたモデルを直接ダウンロードして適用できる。
コグニティブ系APIでは、Alexaとも連動して世界を広げつつある
AWSは2016年のre:Inventで、画像解析の「Amazon Rekognition」、テキストを音声に変換する「Amazon Polly」、そしてPollyを活用した自動音声認識/自然言語認識アプリケーションオーサリング環境の「Amazon Lex」を発表した。
Re:Invent 2017では、ビデオ解析の「Amazon Rekognition Video」、音声をテキスト化する「Amazon Transcribe」、テキスト翻訳の「Amazon Translate」、文章から特徴を抽出する「Amazon Comprehend」を発表した。
Rekognition Videoでは、ビデオ中の物体や人物を検知・分類したり、シーンの不適切度を示したりできる。「不適切度が80%以上のシーンは削除する」などと決めて、ビデオの不適切コンテンツに関する編集作業を自動化するのに使える。人物の追跡も可能で、撮影済みの動画に加え、ライブビデオ(ストリーミングビデオ)に対応しているため、監視カメラによる不正の追跡にも使える。なお、Amazon Rekognitionもre:Inventの約1週間前、2017年11月下旬に機能強化された。イメージ内のテキストの検出と認識、数千万の顔からのリアルタイム顔認識、密集写真からの最大100個の顔検出ができるようになった。
Transcribeは、段落分けを自動で行うという。一般的な音声に加え、電話音声に対応するため、Amazon Connectの録音機能と組み合わせ、コールセンターで使うこともできそうだ。
Comprehendは、テキストデータからキーフレーズを抽出したり、トピック分析、エンティティ分析、センチメント分析(感情分析)を行ったりできる。SNSのポストにも対応する。キーフレーズの例として、AWSでは「warm」「sunny」「beautiful」などを挙げている。
Comprehendは、文章から特徴的な言葉を抜き出し、分類して示せる
音声認識APIおよび音声合成APIの基となっているのは、Alexa搭載デバイス向けのサービス。関連してAWSは今回、職場でのAlexa活用を促進するため、Alexa for Businessを発表した。
Alexa for Businessでは、各ユーザーの個人用アカウントと職場用アカウントを、分離しながら連動できる。そして職場用アカウントは、企業が管理できる。その上で各ユーザーは、音声による命令で、ビデオ会議を開始したり、会議室を予約したり、Alexaデバイスをスピーカーフォンとして使って、電話をしたりできる。受付で来訪者に対応するロボットの開発も、適用例の1つとして挙げている。
Alexaを搭載しAmazon Echoには、スピーカー/マイクだけでなく、カメラを搭載した製品出てきている。今後、Amazonは画像系のAPIも活用するSkillの開発を促す活動を進める可能性がある。
こうしてAWSは、Alexaを通じてAmazonが構築したエコシステムを、さらに幅広いディープラーニングソリューションの構築・提供につなげようとしている。