Googleがカメラ46台を使って実現する「ライトフィールドビデオ」は物の裏側も見られる

Googleが、ふつうの写真やビデオをもっと没入的にしてしまう、とても感動的な方法を披露している。それは、見る人が遠近や視野角を変えられ、フレームの中の物の回りをぐるりと見ることもできる。ただし、46台のカメラを同期させて動かす技術と環境のない人は、この「ライトフィールドビデオ」今すぐ作ることはできない。

SIGGRAPHで発表される予定のこの新しいテクニックは、数十台のカメラが同時に撮った映像を利用して、巨大な複眼のようなものを作る。その多くの視野角や奥行き感を一つの映像にまとめると、見る人が視点を移動するとリアルタイムで情景も変わる。

研究論文に載ってるこの画像はカメラによる視界の捉え方と分割の仕方を示している。

HD以上の高精細度と移動の自由があれば、このライトフィールドビデオは本物のような現実感を見る人に与える。これまでのVR化ビデオは、以前からよくある立体眼鏡のような3Dを使うから、視点の変化に追随しない。写真の中の奥行きを理解して遠近感を加えるFacebookの方法は巧妙だが、制限がありすぎて、遠近感のほんのわずかな変化しか作り出せない。

Googleのビデオでは、見る人が頭を1フィート横へ動かすと角(かど)をぐるりと回ったり、物の向こう側を見れたりする。その像は本物そっくりに精細で動きもなめらかだが、3Dの映像なのでほんのちょっと視点を変えただけでも、それが正確に反映される。

画像クレジット: Google

そして相当巨大な装備を使うので、ひとつのシーンの、ひとつの視野角から隠れている部分も、別の視野角から見られる。見る人が右端から左端へ動いてズームインすると、まったく別の光景が見える。映画「ブレードランナー」の、あの悪名高い「拡張シーン」を思い出して、ちょっと気味が悪い。

これの最高の体験が得られるのはVRだと思うが、プロジェクトのWebサイトにはこのシステムのスチルバージョンがある。そしてChromeブラウザーを持ってる人なら、このブラウザーの実験的機能をインストラクションを読んで有効にすると、ライトフィールドビデオのデモをいろいろ見られる。

この実験は、昨年の終わりごろに見た、人間の動作を3D的に捉えるLEDの卵に似ている。明らかにGoogleのAI部門はメディアをよりリッチにすることに関心があるようだけど、車のように大きなカメラをたくさん並べて実現する技術を、Pixelスマートフォンでどうやって再現するか、それはまだ、誰にもわからない。

関連記事: Google AIのチームが開発した卵型LEDルームが人間の3Dモデルを見事に捉える

画像クレジット: Google

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

投稿者:

TechCrunch Japan

TechCrunchは2005年にシリコンバレーでスタートし、スタートアップ企業の紹介やインターネットの新しいプロダクトのレビュー、そして業界の重要なニュースを扱うテクノロジーメディアとして成長してきました。現在、米国を始め、欧州、アジア地域のテクノロジー業界の話題をカバーしています。そして、米国では2010年9月に世界的なオンラインメディア企業のAOLの傘下となりその運営が続けられています。 日本では2006年6月から翻訳版となるTechCrunch Japanが産声を上げてスタートしています。その後、日本でのオリジナル記事の投稿やイベントなどを開催しています。なお、TechCrunch Japanも2011年4月1日より米国と同様に米AOLの日本法人AOLオンライン・ジャパンにより運営されています。