Google、I/Oカンファレンスで機械学習の力を見せつける

img_0485

今年のI/Oのキーノート講演がGoogle史上最も派手だったと言う人はいないだろう。もしあなたが、飛行船から新型のGoogle Glassを持った人々が飛び出してくることを期待していたなら、間違いなく失望していただろう。代わりにGoogleは、比較的控え目なキーノートの中で、Androidをモノのインターネットに対応させる段階的なモバイルOSの改善や、デベロッパーの収益化、広告、アプリの分析などをやりやすくするための新しいツールの数々を発表した。

しかし、私を引きつけた3つの消費者向けGoogle新製品は、Google PhotosAndroid MNow On Tap、そして ― キーノート講演にはなかったが ― Inbox for Gmailの最新アップデートだった。いずれも、自然言語、高度な機械学習、およびこの数年Googleが注力してきた知識グラフデータベースを一定レベルで活用している。

例えばGoogle Photosは、現時点で最高の写真検索エンジンと呼べるものを塔載している。単に “trees”、”flowers”、”mountains” 等を検索すれば、自分の写真集の中からそれを見つけてくる。Photosは、Google+の写真機能を独立させたスタンドアロン版で、大部分の機能を既に実現していたが、今回Googleは検索機能を改善した。

Google “Now on Tap” は、アプリの中で起きていることを理解して追加のコンテキスト情報を提供し、それに関するユーザーの質問に答える。Googleのデモは大きな賞賛を浴びた。実演者がSpotifyで(なぜかGoogle Musicではなく)スクリレックスの楽曲を流し、Now on Tapを立ち上げて「彼の本名は?」と尋ねる。Googleがこれに答えるためには、アプリで何が演奏されているかを理解し、「彼」が誰を指しているかを理解した上で知識ベースを深く堀り下げなければならない。

tomorrowland-final

Inboxは、なぜかキーノートでは触れられなかったが、今やこの知識と自然言語を理解することによって、誰かがあなたに何かをして欲しいことに気付くと、自動的にリマインダーを生成する。さらに、今後の旅行に関する複数のメールを認識して、一つのグループにまとめることもできる。

Microsoftは、Cortanaでこの一部をやり始めており、Appleも似たようなツールを考えているに違いないが、Google製品が他を一歩リードしていると感じた。つまるところ、10億以上の項目に関するデータの知識グラフを利用できる会社は他にいない。そして良くも悪くも、Google以上にあなたやあなたのオンライン習慣(おそらくオフラインも)を知り、そのすべての情報にコンテキストを与えられる人はいない。

Google I/Oのキーノートは、いわゆるサプライズには欠けていたが(ただし翌日のATAPキーノートは補って余りあった)、上記3つの機能だけでも、ことユーザーを理解することに関してGoogleがライバルを大きく引き離していることを示している。

[原文へ]

(翻訳:Nob Takahashi / facebook

投稿者:

TechCrunch Japan

TechCrunchは2005年にシリコンバレーでスタートし、スタートアップ企業の紹介やインターネットの新しいプロダクトのレビュー、そして業界の重要なニュースを扱うテクノロジーメディアとして成長してきました。現在、米国を始め、欧州、アジア地域のテクノロジー業界の話題をカバーしています。そして、米国では2010年9月に世界的なオンラインメディア企業のAOLの傘下となりその運営が続けられています。 日本では2006年6月から翻訳版となるTechCrunch Japanが産声を上げてスタートしています。その後、日本でのオリジナル記事の投稿やイベントなどを開催しています。なお、TechCrunch Japanも2011年4月1日より米国と同様に米AOLの日本法人AOLオンライン・ジャパンにより運営されています。