Google、ビデオ中の対象を認識する機械学習API公開―Cloud Next 2017

SAPとの提携に引き続きGoogle Cloud Nextからのニュースだ。今日(米国時間3/8)、サンフランシスコでスタートしたカンファレンスでGoogleは新しい機械学習APIを発表した。このAPIはビデオ中の対象を自動的に認識し、検索可能にする。

新しいVideo Intelligence APIを利用するとデベロッパーは ビデオから対象物を自動的に抽出する能力を備えたアプリを開発できる。これまで画像認識APIはクラウド・サービスでのみ利用でき、しかも多くは静止画だけを対象にしていた。しかしGoogleのAPIを使えばデベロッパーはユーザーがビデオを検索して情報を引き出すようなアプリを開発できる。つまりflowerやdogなどのキーワードでビデオを検索できるようになる。

ビデオ中のエンティティの抽出に加えて、このAPIはシーンの転換を認識し自動的なタグづけを可能にする。

ただしビデオそのものはGoogleクラウドに保管されている必要がある。こちらでデモを見ることができる。

Google CloudのAIおよび機械学習担当チーフ・サイエンティストのFei-Fei Liのキーノート講演によれば、画像処理は静止画の先へ進みつつあるという。ビデオは機械学習の開発者にとって長らく困難なターゲットだった。新しいAPIは静止画の画像認識同様んび簡単にビデオから情報を引き出すことを可能にする。

さらにGoogleのクラウド機械学習エンジンはTensorFlowフレームワークを用いてデベロッパーが独自のカスタム機械学習モデルを構築できるようにする。Gogleによればこのエンジンは今日、一般に公開された。

キーノートでLiは、Googleは「社内で開発した機械学習テクノロジーの一般への普及を図っている。 今回もVision APIの公開もその例だ」と述べた。

〔日本版〕Googleが用意した説明ページのデモでは動物園、Google本社の自転車などを撮影したサンプルビデオにAPIを適用して処理した結果を見ることができる。APIの利用例のサンプルコードも掲載されている。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

投稿者:

TechCrunch Japan

TechCrunchは2005年にシリコンバレーでスタートし、スタートアップ企業の紹介やインターネットの新しいプロダクトのレビュー、そして業界の重要なニュースを扱うテクノロジーメディアとして成長してきました。現在、米国を始め、欧州、アジア地域のテクノロジー業界の話題をカバーしています。そして、米国では2010年9月に世界的なオンラインメディア企業のAOLの傘下となりその運営が続けられています。 日本では2006年6月から翻訳版となるTechCrunch Japanが産声を上げてスタートしています。その後、日本でのオリジナル記事の投稿やイベントなどを開催しています。なお、TechCrunch Japanも2011年4月1日より米国と同様に米AOLの日本法人AOLオンライン・ジャパンにより運営されています。