混成現実のビデオをもっと自然で親しみやすく見せるGoogleの工夫…ユーザーの顔を画面中に捕捉

image01

一般消費者向けのVRは1年近く前から出回っているが、その回りには山のように大量の疑問があり、業界の最優秀な人たちですら、ためらいを見せている。しかし、それらの疑問の中である程度答が得られたのは、消費者がVRを実際に体験しなくても、VRとはどういうものかを、知る方法だ。

研究者がそのために手早く作り上げたのが、混成現実(mixed reality, MR)という構成だ。背景にグリーンのスクリーンを張り、いろんな技術的工夫を凝らして、ヘッドセットを装着したVRユーザーを仮想環境の中に‘住まわせる’。

YouTubeにはVRのための混成現実スタジオというものがあり、本誌のこの記事中のビデオでは、著名なテレビ司会者Conan O’BrienがVRをプレイしている。それを見ると、混成現実というものが、お分かりいただけるだろう。

ゲームを作っているOwlchemy LabsRadial Gamesなどは混成現実にもっと深入りしてて、その経験から見つけたことをゲームデベロッパーのコミュニティで共有している。デジタルの世界の中で生きた人間のアバターを見分けることにはいろいろな問題があり、彼らはそのための努力の数々を紹介しているが、しかし今日Googleが発表したブログ記事には、そんなMRビデオをもっとリアルにするための工夫が載っている。それは、ユーザーの実際の顔をビデオの中に入れてしまう、という、ちょっと奇妙なやり方なのだ。

image02

GoogleのMachine Perception(機械知覚)のチームは、フェイシャルキャプチャ(facial capture, 顔だけを捉える)のプログラムと視線追跡とコンピュータービジョンのちょっとしたトリックを使って、改良型のVRのヘッドセットから顔が“透(す)けて見える”ようにし(右図下)、そして目の動きが参加者のアクションに従うようにした。

もちろんこの“ヘッドセットをなくしてしまう”ソリューションは、VRコンテンツの作者や共有者にとって大事件ではないけど、多くの消費者が問題とは思わなかったような問題の解決に、Googleが時間をかけて取り組んだことはクールだ。VRがユーザーの目を取り戻しただけでも、VR特有のよそよそしさがかなり減って、消費者にとって親しめるものになった、と言えるのではないだろうか。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

投稿者:

TechCrunch Japan

TechCrunchは2005年にシリコンバレーでスタートし、スタートアップ企業の紹介やインターネットの新しいプロダクトのレビュー、そして業界の重要なニュースを扱うテクノロジーメディアとして成長してきました。現在、米国を始め、欧州、アジア地域のテクノロジー業界の話題をカバーしています。そして、米国では2010年9月に世界的なオンラインメディア企業のAOLの傘下となりその運営が続けられています。 日本では2006年6月から翻訳版となるTechCrunch Japanが産声を上げてスタートしています。その後、日本でのオリジナル記事の投稿やイベントなどを開催しています。なお、TechCrunch Japanも2011年4月1日より米国と同様に米AOLの日本法人AOLオンライン・ジャパンにより運営されています。