GoogleからVR用レンダリングツール、Seurat――モバイルでローグワンの世界に

マウンテンビューのショアサイドアンフィシアター野外劇場で開催されたGoogle I/Oデベロッパー・カンファレンスの2日目はVR/ARテクノロジーの紹介が中心となった。Googleはモバイルデバイスのような非力なマシンでも極めて高精細度な描画による没入的VRを可能にする新しいレンダリング・ツール、Seurat〔スーラ〕を発表した。GoogleはSeuratの能力を実証するため、ILMxLABの協力を得てスターウォーズの世界を対話的モバイルVR環境でデモした。このレンダリングは劇場映画の画質で参加者を驚かせた。

上にエンベッドしたのはキーノート中で上映されたILMxLAB(Industrial Light And Magic Experience Lab )制作のビデオで、『ローグ・ワン/スター・ウォーズ・ストーリー』をベースにした場面が含まれている。質感、照明、アニメーションなどすべてのディテールが信じがたいほどリアルに描写されている。ビデオ中で説明されているとおり、Googleのツールを利用することにより、ILMは劇場版映画の画質でモバイルVRをレンダリングすることが可能なったという。

デベロッパーはSeuratを用いてターゲットとなるシーンを特定の視点に制限し、極めて高い比率で圧縮することができる。ユーザーが動き回れる範囲は制限されるが、その内部では非常にリアルなレンダリングが行われる。開発の過程で、バーチャルオブジェクトはまず制限された視点からの何枚かの3Dスナップショットとして高精細度でレンダリングされる。このスナップショットから軽量版VRが再コンパイルされる仕組みだ。しかしヘッドセットを通してユーザーが体験する際にはオリジナルと変わらない精細度に感じられる。VRのレンダリングではモバイルデバイスの能力が大きなネックとなってたが、Seuratはこのハードルを大幅に低くするはずだ。

GoogleはキーノートではSeuratの詳細には踏み込まなかったが、今年中にさらに詳しい情報を公開し、デベロッパーが利用できるようにすることを約束した。GoogleのVRシステム、Daydreamはスマートフォンやスタンドアローン・ヘッドセットなどパソコン接続版に比べて能力が低いモバイルVRハードウェア市場で大きな存在になるだろう。ローパワーのデバイスでハイパワーのレンダリングができることはこの市場における優位性を確保するためのカギになることは間違いない。

〔日本版〕Seuratはフランスの新印象派の画家で点描手法で有名なジョルジュ・スーラから命名された。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

一歳を迎えたGoogleのTPUチップがアップグレード、機械学習/ディープラーニングのすそ野をさらに広げる

Googleが今日(米国時間5/17)のGoogle I/Oカンファレンスで、同社特製の機械学習チップTensor Processing Unit(TPU)の次世代バージョンを発表した。この、機械学習のタスクを高速化する専用チップは、従来のCPUやGPUよりも速いとされているが、昨年の同カンファレンスで発表されて以来、今回が初めてのアップグレードになる。

まず、スピードのアップだ。Googleによると、第二世代のTPUは1基が180TFLOPSの性能を有する。まだベンチマークは見ていないが、スピード以外でも進歩している。第一世代のTPUは既存のモデルを使って推論するだけだが、第二世代はモデルの訓練もできる。モデルの訓練は機械学習のワークフローの中でもとくに重要だが、その全過程をこの強力なチップがやってしまうのだ。

機械学習のモデルとは、たとえば写真に写っているものが木か車か猫かを正しく同定する能力のことだ。機械学習の推論とは、モデルを使って行う確率つきのオブジェクト同定処理だ。たとえば、“この写真に写っているのは85%の確率で木であってブロッコリの茎ではない”、などと推論する。

Googleの今日の声明文によると、同社の大規模な翻訳用のモデルを訓練するのに、市販の最良のGPU 32基を使用してまる一日、その1/8の台数の“TPUポッド”〔64TPUs, 11.5PFLOPS〕では午後の数時間で完了した、という。

GoogleのTenso Flowチップセット。写真提供: Google

このような比較はいつも、よく調べないと正しい意味が分からないが、とにかくGoogleは、GPUより速いと言っている。今日の機械学習の演算では多くの場合、もっとも強力なチップとしてGPUが使われているのだ。

さらにGoogleは、このチップの能力を同社のクラウドプラットホームからSaaSのサービスとして提供している。誰もが気軽に、この世界に入れるように。また、IntelのSkylakeとかNvidiaのVoltaなど、ほかのチップで作ったモデルを、TPUのクラウドへ移植して使うこともできる。

またコストをあまりかけられない試行や研究用には、無料のクラウドサービスTensorFlow Research Cloudがある。そこでは、研究者たちが、クラウド上の1000 TPUのクラスターを利用できる。



[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのInstant Appsを全ての開発者が利用可能になった

GoogleのInstant Appsは、ネイティブアプリのロード時間を(たとえ携帯電話にインストールされていなくても)ウェブページ並の速度にしようとしている。そうすることでウェブの世界とネイティブアプリの世界の間に橋渡しをしようとしているのだ。同社はこのプロジェクトを、まず昨年のGoogle I/Oカンファレンスで発表し、その後今年になってからもイベントで紹介していたものの、これまでは限られた開発者たちだけが利用可能なものにしていた。

本日(米国時間5月17日)同社は、Instant Appsが一般公開され、全ての開発者が利用できるようになったことを発表した。ユーザーはこうしたInstant AppsにGoogle検索の結果画面からアクセスすることも可能になる。

全ての開発者たちは、Googoleが新しく公開するAndroid Studio 3.0を用いることで、アプリケーションのモジュール化を行いやすくなる。

Googleによれば、既存のアプリを新しい技術に対応させるには通常4、5週間かかるということだ。

[ 原文へ ]
(翻訳:Sako)

Google、KotlinをAndroidアプリ開発言語に選定―I/O会場から大喝采

今日(米国時間5/17)のGoogle I/OでKotlinがサポートされることが明らかになった。Kotlinは静的型付けされたプログラミング言語でJava仮想マシンで作動する。GoogleはAndroidアプリ開発にあたってKotlinを第一級言語の一つに選定した。

Kotlinの主要スポンサーはIntelliJなどのツールで知られるJetBrainsだ。KotlinはJavaと100%互換で、すでにGoogle自身のAndroidアプリ開発の主要言語となっている(もちろんC++も利用されている)。

Googleによれば、今後(JetBrainsと協力して)Kotlinの開発環境を提供していくという。JetBrainsは2012年にKotlinをオープンソース化していたが、1.0がローンチされたのは1年前だった。Google自身のAndroid StudioがJetBrainのIntelliJ Java IDEをベースにしているのは重要な点だ。次世代Android Studio (3.0)はデフォールトでKotlinをサポートすることになる。

KotlinはJava互換なので、 これまでもAndroidアプリを書くことができたが、今後GoogleはKotlinをプログラミング言語として全面的にプッシュするようだ。Kotlinには現在Javaでサポートsれていない機能が多数含まれている

GoogleはキーノートでKotlinのサポートは「追加であり、既存のJavaや C++のサポートを置き換えるものではない」と念を押している。

今日のGoogle I/OのキーノートでKotlinのサポートの発表は聴衆から最大の喝采を受けたことは注目すべきだろう。


[原文へ]

(翻訳:滑川海彦@Facebook Google+

Google I/O: Lensは「たこ焼き」の看板をリアルタイム翻訳―スマートフォンのカメラが賢くなる

今日(米国時間5/17)、Google本社に隣接するショアラインアンフィシアター野外劇場で開幕した Google I/Oデベロッパー・カンファレンスのキーノートで、CEOのスンダー・ピチャイはGoogle Lensという新しいテクノロジーを発表した。

これはGoogleのコンピューター・ビジョンと人工知能を統合し、スマートフォンのカメラからダイレクトに有益な情報を得ることができるシステムだ。Googleの説明によれば、スマートフォンのカメラは単に目に見える情報を撮影するだけでなく、写された対象を理解してユーザーが適切な行動を取るために役立つ情報を提供する。

Googleはユーザーが花を撮影しようとしてカメラを向けるとLensが即座に花の種類を教えてくれるところなどをデモした。

ピチャイはLensは日常のタスクでも役立つ例も挙げた。たとえばスマートフォンでルーターのラベルを撮影するだけで簡単にWiFiに接続できる。 Google LensはルーターのIDとパスワードを読み取り、タップするだけで自動的にそのWiFiに接続するアイコンを表示してくれる。

その次の例では 通りがかりの店舗を撮影すると、Google Lensが店名を読み取り、ウェブを検索して各種のビジネス情報をカード形式で表示する。

このテクノロジーはスマートフォンのカメラを撮影だけでなくモニタに写った対象に関する情報を得ることができるツールに変える。

Pichaiの説明の後、 Scott HuffmanはGoogle Homeのデモ中でGoogle Assistantに組み込まれたLensの能力を示した。Assistantアプリに追加された新しいボタンをタップするとLensを起動し、Assistantを通じてLensと会話し、写真の内容を尋ねることができる。

Scott HuffmanがカメラをStone Foxesのコンサートのポスターに向けるとGoogle Assistantはチケット・セールスを含めてコンサートに関する情報を表示した。Huffmanがオンラインでチケットを購入し「これをカレンダーに追加」と命じるとその通りにスケジュールが設定された。

LensとAssistantの統合は翻訳にも威力

Huffmanがカメラを〔「たこ焼き 6個 130円」という〕日本語の看板に向けて「これは何?」と尋ねるとGoogle Assistantは即座に正しく英語に翻訳した。

 

ピチャイはまたGoogleのアルゴリズムが写真の質を改善することができることも示した。たとえば金網越しに子供の野球試合のシーンを撮影したような場合だ。Googleの人工知能は目障りな金網を自動的に取り除いてくれる。また暗い場所で撮影した場合、Googleはピクセルノイズやブレを補正し、写真を見やすくしてくれる。

GoogleはI/OカンファレンスではLensがいつ一般公開されるか日時は明らかにしなかった。しかし「すぐに」手に入るようになるという。


[原文へ]

(翻訳:滑川海彦@Facebook Google+