今日(米国時間2/20)、Googleのスカンクワークスこと先進テクノロジー・プロジェクト(Advanced Technology and Projects)グループはプロジェクト・タンゴ(Project Tango)と名付けられた画期的3Dセンサーを装備したAndroidベースのスマートフォンのプロトタイプとデベロッパー・キットを発表した。
この3Dセンサーとカメラを組み合わせたシステムはモーショントラッキングと同時に周囲をスキャンして3Dマップをリアルタイムで生成することができる。Googleはこの新センサー、カメラ、高度なコンピュータ・ビジョン・ソフトウェアの組み合わせによって屋内のナビゲーションやVRゲームなど数々のまったく新しい応用への道が開かれると信じている。デベロッパーは今日からGoogleに対し、プロトタイプ・スマートフォンとデベロッパー・キットの入手を申し込むことができる。
ただし、初回はGoogleが審査して特に許可する200チームに限られるという。 申し込みをするデベロッパーはこのデバイスでどのようなプロダクトを開発する計画なのか明確な案を提出しなければならない。200チームの選定は2014年3月14日までに完了する。Googleが想定する分野は屋内ナビゲーション/マッピング、物理的な空間内でプレイする単独/複数プレイヤーのゲーム、センサーからの3Dデータの新しい処理アルゴリズムなどだ。
デベロッパーはアプリをJava、C/C++で開発するものとする。またUnity Game Engineを利用することができる。このスマートフォンに対するAPIは現在開発中だという。
「“プロジェクト・タンゴの最大のインパクトは、スマートフォンが人間の視覚のような動作と空間の認識能力を持つようになることだ」とプロジェクト・タンゴのチームリーダー、Johnny Leeは言う。
Googleはこの3Dセンサー機能を利用して、デベロッパーが3Dビジョンに基づいたまったく新しいジャンルのスマートフォン・アプリケーションを多数開発するようになることを期待している。
このスマートフォンには他のスマートフォン同様、コンパスとジャイロが搭載されているが、Googleが開発した新センサーシステムは周囲をスキャンしてKinectのように動作やジェスチャーを認識し、また周囲をスキャンして3D空間マップを生成する。
ただしプロジェクト・タンゴのシステムはLeap Motionのようなジェスチャー・ベースのUIを開発することを念頭に置いたものではない。逆にスマートフォンが周囲の3D空間を認識し、自分の位置が分かるようになった場合、デベロッパーがどんなアプリを作り出せるのかが興味の焦点だ。
たとえば新しい家具を買おうとするときスマートフォンを構えて家の中を一回りするだけで正確な寸法の測定ができたら便利だろう。 複雑な構造のビルの中でのナビゲーションにも応用できるかもしれない。ショッピング・モールや地下街で迷子にならずにすむだろう。
タンゴのセンサー
Googleはプロジェクト・タンゴにMovidius’ Myriad 1ビジョン・プロセッサー・プラットフォームを利用している。これまでこうした機能をスマートフォンに組み込むのは、非常に高価になってしまうだけでなく、膨大なデータ処理の負荷によってバッテリーがすぐにゼロになってしまうために困難だった。しかし最新のビジョン・プロセッサーは省電力化が大きく進んだ。これがおそらくGoogleがプロジェクトをスタートさせた大きな理由だろう。プロジェクト・タンゴのセンサーに関してはわれわれのこちらのの記事を参照。
プロジェクト・タンゴの技術面のリーダーであるLeeは、2011年の初めにGooogleに加わる前はMicrosoftでKinectの開発に携わっていた。今日の発表はGoogleの謎めいたATAPグループとして最初のハードウェア・プロダクトのリリースだ。この組織はもともとMotorolaの研究部門で、GoogleがMotorolaを売却した際に手元に残した数少ない部門の一つだ。
タンゴ・プロジェクト以外にもATAPは途上国市場向けの低価格のスマートフォンを開発するプロジェクトAraも担当している。 GoogleはATAPをGoogle[x] と並ぶ同社のムーンショット〔アポロ計画のような大胆な先進プロジェクト〕を担うグループと位置づけている。現在ATAPは元DARPA局長で2012.年にGoogleに加わったRegina Duganが責任者を務めている。
[原文へ]
(翻訳:滑川海彦 Facebook Google+)