Googleが、ふつうの写真やビデオをもっと没入的にしてしまう、とても感動的な方法を披露している。それは、見る人が遠近や視野角を変えられ、フレームの中の物の回りをぐるりと見ることもできる。ただし、46台のカメラを同期させて動かす技術と環境のない人は、この「ライトフィールドビデオ」今すぐ作ることはできない。
SIGGRAPHで発表される予定のこの新しいテクニックは、数十台のカメラが同時に撮った映像を利用して、巨大な複眼のようなものを作る。その多くの視野角や奥行き感を一つの映像にまとめると、見る人が視点を移動するとリアルタイムで情景も変わる。
HD以上の高精細度と移動の自由があれば、このライトフィールドビデオは本物のような現実感を見る人に与える。これまでのVR化ビデオは、以前からよくある立体眼鏡のような3Dを使うから、視点の変化に追随しない。写真の中の奥行きを理解して遠近感を加えるFacebookの方法は巧妙だが、制限がありすぎて、遠近感のほんのわずかな変化しか作り出せない。
Googleのビデオでは、見る人が頭を1フィート横へ動かすと角(かど)をぐるりと回ったり、物の向こう側を見れたりする。その像は本物そっくりに精細で動きもなめらかだが、3Dの映像なのでほんのちょっと視点を変えただけでも、それが正確に反映される。
そして相当巨大な装備を使うので、ひとつのシーンの、ひとつの視野角から隠れている部分も、別の視野角から見られる。見る人が右端から左端へ動いてズームインすると、まったく別の光景が見える。映画「ブレードランナー」の、あの悪名高い「拡張シーン」を思い出して、ちょっと気味が悪い。
これの最高の体験が得られるのはVRだと思うが、プロジェクトのWebサイトにはこのシステムのスチルバージョンがある。そしてChromeブラウザーを持ってる人なら、このブラウザーの実験的機能をインストラクションを読んで有効にすると、ライトフィールドビデオのデモをいろいろ見られる。
この実験は、昨年の終わりごろに見た、人間の動作を3D的に捉えるLEDの卵に似ている。明らかにGoogleのAI部門はメディアをよりリッチにすることに関心があるようだけど、車のように大きなカメラをたくさん並べて実現する技術を、Pixelスマートフォンでどうやって再現するか、それはまだ、誰にもわからない。
関連記事: Google AIのチームが開発した卵型LEDルームが人間の3Dモデルを見事に捉える
画像クレジット: Google