Googleの先進的ARプラットホームTangoが閉鎖、汎用のARCoreを主力に

Googleが今日(米国時間12/15)、ハイエンドなスマートフォンの拡張現実(augmented reality, AR)プラットホームTangoを閉鎖して、マスマーケット指向のARCoreに集中する、と発表した。そのことは、8月にARCoreが発表されたときすでに確認されていたが、今回はTangoの終結の公的日程が決まった。

Tangoのサポートは、2018年3月1日で終わる。

Googleはこんなツイートを: “これまでの3年間、Tangoの大きな進歩に貢献された、デベロッパーのみなさまの素晴らしいコミュニティに、感謝申し上げたい。みなさまとの旅路を、ARCoreで続けたいと願っている”。

2014年に導入された“Project Tango”は、それ自身が先駆者であり、AppleのARKitなどよりもずっと早くから、スマートフォンとタブレットというモバイルの世界にARのソリューションを持ち込み、深度(奥行き)専用カメラなど複数台の高度なカメラハードウェアを使って、今のMicrosoftのHololensにも似たやり方で3D空間のメッシュを作った。しかしスマートフォンのメーカーの実際の製品に、このかなり高価な機能性を実装させることは、Googleにとって見果てぬ夢に終わり、Tangoは3年間でごく一部の新奇なデバイスに載っただけだった。

今年のGoogleは、iOS 11におけるApple ARKitの成功に背中を押された形だ。GoogleはAndroid上のARにコストの高い入り口があるという状態を廃し、8月にARCoreを導入した。しかしTangoとARCoreの両者には多くのクロスオーバーがあるから、Tangoは単純に無に帰したわけではない。ARCoreはTangoを単純化して、3D空間(奥行きのある空間)のメッシュを作るよりも、プレーン(面)の検出にフォーカスしている。そのためARCoreは、Galaxy S8やPixelのような人気のスマートフォンでも動き、TangoのようにマルチカメラやIR(赤外線)といったクレージーなセットアップは要らない。

8月の時点でGoogleのAR/VRのボスClay Bavorはこう語った: “Tangoの目標はわれわれのコア技術を証明して、それが可能であることを世間に示すことだった。もちろんスマートフォンのARは他社もやっているが、Tangoの目標はあくまでも、その能力を(いずれは)できるだけ多くのデバイスで実現することだった”。

というわけなので、今回の閉鎖はきわめて論理的だ。ARのプラットホームを単一化することがすでに困難になっていたAndroidのようなプラットホームのために、Tangoのような要素がばらばらに多様化している開発プロセスを維持しても意味がない。まともなユースケースも確立していない現状では、商機もかなり乏しい。だから、先へ先へと進みすぎた技術を、もっと扱いやすいレベルに戻すことが妥当だ。しかしもちろん、Tango実装機を買ったユーザーはがっかりするだろう。たとえば数か月前に出たばかりのAsus ZenFone ARは、その最大のセールスポイントとして、Tangoを実装している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

MotorolaがMoto ZのTangoモジュールを出すかもしれない…むしろモジュールが合ってる技術か

OLYMPUS DIGITAL CAMERA

歩みは遅いけどしかし確実に、Moto Zはエコシステムができつつある。その将来性のありそうなハンドセットはしっかりとしたスペックを持ち、アドオンも多く、これまでのモジュール化ハンドセットとしてはいちばん完成度が高かった。でも、もちろん、それだけでは足りない。

Motorolaは足りないものを補うべく、デベロッパーに開放して改造を自由にし、このハンドセットの機能を充実多様化するために、ハッカソンまで開催した。

今週シカゴで行われたイベントで同社の社長Aymar de Lencquesaingは、報道陣を前に、同社のZハンドセットに近くTangoモジュールが提供されるかもしれない、と述べた。はっきりしない言葉だし、完全な発表ではないが、パートナーシップとしてはありえる話だ。

phab2

そもそも、Motorolaの親会社Lenovoは、このGoogleの拡張現実カメラ技術の、初めての実装製品を作って発売した企業だ(上図、Phab 2 Pro)。Tangoの現状は、一般消費者の購入動機になりうるほど完成度の高いものではないが、しかしそれでも、Moto Zのような多機能型スマートフォンのアドオンとしては十分だろう。

特別なハードウェア、それに新たにカメラや電池も必要とする技術だから、モジュールにするのがむしろふさわしいし、その方がインドアの3Dマッピングソフトウェアも本領を発揮しやすい。またそれによってMoto Zの、ハードウェア実験のためのプラットホームという位置づけもより確定し、今一般的な2年というスマートフォンのアップグレードサイクルとは無縁な位置を維持し続けられる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

[ビデオ]LenovoがGoogleのTangoを実装したスマートフォンを、実際に操作してみた

今朝(米国時間6/9)Lenovoが、Googleの新しいコンピューターヴィジョンの取り組みであるProject Tango(今では”Tango”のみ)を実装した世界初のスマートフォンを披露した。

どこが新しいのか? なにしろ、すごーい拡張現実(Augmented Reality, AR) の能力を持ち、しかもそれをすべて、電話機本体の、自分の回りを認識する能力だけで実現している。ビデオゲームがあなたのリビングルームで(ARの)生き物になり、家具にぶつかってはねたり、ソファーの後ろに隠れたりする。

このデバイスの上でデモをいくつか見た。どれも十分にクールだ。でもTangoはまだ始まったばかり。不具合があり、Lenovoのキーノートの間(かん)にも、デモは何度かクラッシュした。しかしTangoは、少なくともその複雑な、ハードウェア駆動の拡張現実というコンセプトは、今後も長寿だろうと思われる。

phab2

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Lenovo、最初のProject Tangoスマホを発表、9月から500ドルで販売

lenovo_phab2pro_1

今われわれはサンスランシスコのLenovo Tech Worldイベント会場にいる。つい先ほどLenovoは — 何ヵ月ものティーザーの後 — Googleの野心的コンピュータビジョンシステム、Project Tango(単にTangoという名前になった)塔載のスマートフォンを披露した。

その名は、PHAB2 Pro ― あまり耳に残りそうではない名前だ。しかし、問題は中身だろう。

これが中身だ:

  • Android Marshmallow
  • 巨大な6.4インチディスプレー、解像度は2560×1440
  • 内蔵ストレージ、64 GB
  • RAM 4 GB
  • 16メガピクセルのリアカメラ
  • 8メガピクセルのフロントカメラ
  • 4050mAh バッテリー(2.4倍高速充電が可能)
  • 本体背面に指紋センサー内蔵

しかし、最も注目すべきは、背面にずらりと並べられたセンサーによって、”Tango” 対応になっていることだ ― これを称することができる初めての端末だ。

Tangoって何?という人のために。

まず、約2年前に発表されたProject Tangoは、本格的コンピュータビジョン機能をスマートフォンやタブレットに載せようという、Googleの取り組みだ。端末は部屋に中のどこにいるのか、周りに何があるのかを感知することができる。例えば、スマホをかざすだけで、部屋の正確な3Dモデルが作られ、そこに正しくスケールされた家具の画像を置くところを想像してほしい。あるいは、テーブル上でAR(拡張現実)ゲームをプレイし、キャラクターがテーブルの端から落ちたり、昇ってきたりするところを。まだ初期段階だが、このビデオを見れば何が起きようとしているのか理解できるだろう。

PHAB 2 Proは9月に全世界で発売予定で、価格は契約なしで500ドル。

phab2b

[原文へ]

(翻訳:Nob Takahashi / facebook

「塊魂」の高橋慶太氏が、拡張現実ゲーム「Woorld」をProject Tango用に作っている

woorld

奇想天外なボール転がしゲーム、Katamari Damacy[塊魂]の作者、高橋慶太氏が新しいタイトルを作った。ただし、ゲームはPS4用でもXbox One用でもない ― プレイするにはProject Tango互換のデバイスが必要だ。

発表があったのは、高橋氏が仕事をしている小さなデベロッパー、Funomenaのブログだ。ゲームの名前は Woorldで、「デジタルと現実のプレイをミックスする」拡張現実の世界だ。

Project Tangoデバイスは、非常に精密な位置の追跡が可能で、リアル世界にデジタルオブジェクトを配置して操作することができる。複数のデバイスが協調して、同じデジタル世界を共有することもできる。

woorld gif

ただし、大陸を巻き上げたり、巨大化した体で太陽系を渡り歩くようなあり得ないゴールは期待しないこと(それをやるならnoby noby boy[のびのびBOY]だが6年はかかる)。むしろこれは、どんな年齢でも遊べる、拡張現実の可能性を示す楽しいお砂場だ。

もちろん、Project Tangoスマホが必要で、まだ数が多いとは言えない。しかし、近々増えることは期待できる。Googleは、消費者バージョンのセンサー満載端末を明日のI/Oで発表するという噂だ。

もうすぐ詳細がわかる。明日10 AM(日本時間5/19木 2 AM)からの本誌ライブ記事を注目されたい。

[原文へ]

(翻訳:Nob Takahashi / facebook

Googleの3D空間技術Project Tangoのデベロッパキットを試してみた

昨日(米国時間1/7)はLenovoとGoogleが共同で、前者が初めての、Project Tangoを実装したスマートフォンを作る、と発表した。しかし、今年の夏発売で500ドル以下、ということ以外の、具体的な情報はあまりなかった。

でもProject Tangoのデベロッパキットはすでにリリースされていて、誰もがトライできる。それには、Project Tangoが動くために必要な複数のカメラと大量のセンサを搭載したタブレットが含まれる。

その上でいくつかの消費者向けアプリを試してみた。ARものさしとか、3Dのルーム・スキャナ、ARシューティングゲームなど。

Project Tangoが実際に消費者の手に渡るのは、早くても半年後だが、プロジェクトの進捗が順調なのはめでたい。そのうち、ARや3D技術を手がけているデベロッパのための多様な機能も提供されるだろう。

[原文へ]。
(翻訳:iwatani(a.k.a. hiwa)。

GoogleのProject Tangoを実装した初めてのスマートフォンがLenovoから出る

img_2612

LenovoがCESで、GoogleのProject Tangoを実装したスマートフォンを作る、と発表した。このたいへん意欲的なプロジェクトは、デバイスのカメラにたくさんのセンサをくっつけて、奥行き(z軸方向)まで感知する。

あまり詳しい説明は、なかった。情報は、Lenovoが500ドル以下のスマートフォンを出す、ということだけだ。予定では今年の夏だが、まだデザインは完成していない。上の図に見るデザインは、今進めている5つのデザインのうちの一つだ。

今日はGoogleが、デベロッパをやる気にさせるためのアプリインキュベータ事業を発表した。何の関係があるのか、というと、それのベストアプリがLenovoのスマートフォンにプレロードされるのだ。

唯一の残る疑問は、Lenovoが唯一のパートナーなのか、それとも今後ほかのOEMからもTango実装機が出るのか、という点だ。Project Tangoはまだ生まれて間もないプロジェクトだから、いきなり何百万ものTango機が出回る、ということにはならないだろう。

Tangoなんてもう忘れたよ、という人は、昨年リリースされた開発キットを本誌で試してみたので、そのビデオを明日ご覧いただこう。

CES 2016

[原文へ]。
(翻訳:iwatani(a.k.a. hiwa)。

GoogleのProject Tangoを支えるMovidiusのビジョンプロセッサ、バージョンアップしてSDKを提供

Movidiusは、まだ見慣れない名前だと思うが、今年の初めにGoogleがProject Tangoのスマートフォンとタブレットを発表したときに同社の名前がちらっと登場している。このプロジェクトは、モバイルデバイスが高度な3Dの知覚を持つと何ができるかを探求するためのGoogleのテストベッドで、Movidiusはそのための特殊なビジョンプロセッサを提供している。

Movidiusが一般にデビューしたのはProject Tangoからだが、しかしそのときすでに同社は、そのチップの次のバージョンに取り組んでいた。そのMyriad 2と呼ばれるチップは、1に比べてエネルギー効率が良くなり、より強力になっている。

MovidiusのCEO Remi El-Ouazzaneによると、新バージョンはアーキテクチャが“ラジカルに改良され”、とくにメモリの新しいアーキテクチャにより、消費電力1ワットあたりの処理能力がMyriad 1の20倍に向上した。その計算能力は約3テラフロップで、消費電力は0.5ワットだ。この28ナノメートルチップには12基のプログラマブルなベクタプロセッサが載り、フルHDの入力を最大で毎秒60フレーム処理できる。

El-Ouazzaneによると、これだけの性能は、Project Tangoから学んだことの効果が大きい。あのプロジェクトの顧客たちは、複数のソースからのデータを同時に処理できることを求めていた。

しかしEl-Ouazzaneも言うように、このチップの真のすばらしさは、それが長期的に提供するユーザ体験にある。Project Tangoの場合は、3Dのセンシングが主な目的だったが、El-Ouazaaneがとくに強調したいのは、スマートフォン上の複数のカメラからの入力を処理してDSLR以上の体験と画質を作り出す、計算機支援による写真技術(computational photography)だ。“これによってついに、モバイルデバイスで完全にプロ級の写真を撮れるようになる”、と彼は言っている。

デバイスがMovidusのプロセッサを搭載すると、たとえばオートフォーカスがはやくなる。また、赤外線センサを搭載して、ひとつのシーンからより多くの情報を取り出し、それらの情報を組み合わせた写真を作ることもできる。今のスマートフォンでそれをやろうとすると計算力が追いつかないと思われるが、Movidiusのチップなら十分にそれが可能だ。

このビデオは、Project Tangoのパートナーの仲間であるMantis Visionがトライした3D技術の一端だ。

しかしMovidusのチップが提供するユースケースは、もっともっと多様だ。El-Ouazzaneの想定によると、今後の1年ぐらいは、モバイルデバイスと、3Dセンシングを使ったゲーム、屋内ナビゲーションなどが、主な応用系になるだろう、と。

スマートフォンのOEMたちも、ここらあたりを考えているものと思われる。AmazonのFire Phoneは市場にそれほどの衝撃をもたらさなかったけど、El-Ouazzaneはちゃんと見ていた。スマートフォンの新製品の発表会でメーカーのCEOがコンピュータビジョンについてこれだけ長時間を費やした例は、過去になかった、と。

Movidiusが長期的に期待しているのは、そのセンサチップが人間の社会的な役を代行するロボットや、自律飛行するドローンなど、あらゆるものに使われていくことだ。

しかし高度な3Dセンシングの多様な応用系の広がりは、OEMだけでなく一般的にいろんな方面のデベロッパが参加するエコシステムが支える。デベロッパコミュニティの重要性を早くから認識している同社は今日(米国時間7/30)、MyriadチップのSDK、Myriad Development Kit(MDK)と、アプリケーション開発のためのツールやフレームワークをリリースした。このキットに含まれているリファレンスボードには、複数のカメラとセンサがあらかじめ載っている。ただし今のところMDKは、NDA契約を伴う特定のデベロッパにだけ提供されるので、コミュニティの賑やかな盛り上がりはまだ先の話のようだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Googleの環境感知プロジェクトTangoのプロトタイプデバイスを分解してみた

GoogleのProject Tango用スマートフォンのプロトタイプは、カメラを4つ搭載して自分のまわりの環境をぐるっと眺め、そして3Dの奥行き感知情報を記録し利用する。要するにそれは大量のカメラとセンサを、クァドコアのプロセッサと2GBのRAMを載せたかなりハイエンドなAndroidスマートフォンに詰め込んで、大量の環境データをパクつく、というしろものだ。iFixitが例によってこれを分解し、中身を見せてくれたが、この市販品ではないハードウェアには、たしかにおもしろい臓器がいくつかあるようだ。

USBポートは一つではなく三つある。mini USBとmicroUSBとUSB 3.0だ。そしてこのデブのおちびさんには3000mAhのバッテリーと5インチのディスプレイがある。しかし、いちばんの見ものはカメラだ。フロントカメラは視野角120度で、人間の目に近い。そして4メガピクセルのメインカメラには、3D奥行き感知用の赤外線センサがある。

魚眼レンズカメラは180度の視界を撮り、B&Wカメラは動きを追う。iFixitはこのデバイスの赤外線プロジェクターも動かしてみたが、自分のまわりの奥行きマップを構築する能力は、Kinectに似ている。

iFixitによると、これは消費者製品ではないにもかかわらず、消費者のための修理サービスがとてもしやすい構造になっている。同社がつけた修理適正の評価は9点から10点で、スマートフォンとしては最高の部類だ。結局それは、デベロッパやハードウェアマニアなどがいじりやすい設計にしている、ということだ。Araが実際に製品化されるまで一般消費者は、完全に閉じたシステムを一方的にあてがわれるしかないのだが。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Project Tangoの詳細スペックが公開, 一台のスマホがカメラを4基使う

GoogleのProject Tangoスマートフォンは、3D環境を感知するハードウェアの実験的な実装で、本当は今日あたりデベロッパの手に渡るはずだった。しかし実際には今日(米国時間3/14)、Chromeのイシュートラッカーでそのスペックの一部が公開
され、それをいち早くMyceが見つけて報じた。これらのスペックを見ると、Googleが実際にどうやて3Dのコンテキスト感知というマジックをやっているのか、が分かる。

その仕事をする主役は、通常の4mpのカラーカメラにプラスして搭載されている3台のカメラだ。一台は前方120度の広角で視界を撮り、別の一台は後方を180度の視野角で撮る。そしてあとひとつ、320×180という低解像度のカメラが奥行き(depth)を感知する。カメラだらけのデバイスだが、しかしデモを見たかぎりでは、画面5インチのふつうのスマートフォンのサイズに、すべてが無理なく収まっているようだ。

Tangoを生み出したGoogleのAdvanced Technology And Projects(ATAP)グループは、元々はGoogleが買収したMotorola Mobilityにあったもので、MMをLenovoに売ったときも、Googleはこのグループを手元に残した。この特殊な研究開発部門はDARPA出身者などから成る高度な技術者集団で、モジュール構造のスマートフォンProject Ara(関連記事(1)(2))もここのプロジェクトだ。そのほか、刺青を利用する認証システムや、薬剤投与方法なんかも研究している。

スマートフォンを利用する有視界ロボットは、一般的に、まだまだこれからの研究開発課題だが、Tangoはそれを大きく前進させる力の一つになるだろう。すごいことのできるモバイル製品がやがて登場する、という予感を与えてくれるね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Googleのプロジェクト・タンゴでモバイル・デバイスは新しい競争の時代へ―カギはコンテキスト認識

スマートフォンのあの薄い筐体には数々のセンサーが内蔵されている。しかし先週、GoogleのAdvanced Technology And Projects (ATAP)グループが発表したタンゴ・プロジェクトのおかげで、次世代のスマートフォンは新たなパワーを獲得することになるだろう。つまりビジュアルな空間認識能力だ。スマートフォンは単にカメラで画像を記録するだけでなく、周囲を3D空間として理解することができるようになる。

これがSF的に聞こえるのも当然だ。たとえば映画her/世界でひとつの彼女に登場するAIアシスタントがおそろしく人間的なのは、それがユーザーの置かれている空間を正しいコンテキストで認識できる能力のせいだ。Googleの新しいプロトタイプ・ハードウェア・デベロッパー・キットではMyriad 1 Movidius Vision Processorプラットフォームが利用されており、チームの技術責任者のJohnny Leeによれば、まさに<em>her</em>のような空間理解能力をモバイルデバイスに与えることが目的だという。

しかし単なる新しいカメラではない

プロジェクト・タンゴのカメラとセンサーは単なる新しいハードウェアでない。それはいわば人間の大脳皮質の視覚野に相当する。 またカメラによる認識は次世代スマートフォンでもっとも激しい競争が起きている分野でもある。たとえばAppleにはM7モーション・プロセッサーがある。また撮影後に焦点を変化させることができるカメラも開発されている。

しかし今回Googleが発表したタンゴの影響範囲はこれらとは比較にならないくらい広い。コンピュータ・ビジョンはこれまで学術的にも産業的にも広く研究されてきた。しかしGoogleがパートナーと共に開発したシステムは必要なときにいちいち起動されるのではなく、低消費電力によって常時作動させること可能にしている点が画期的だ。

ユーザーの命令をコンテキストで理解する

では、タンゴはユーザー体験という面では何をもたらすのだろうか? もちろんあらゆる面で非常に大きな変化が予想されるが、現在はまずデベロッパーにこのテクノロジーの利用のアイディアをできるだけたくさん出してもらうという点にGooogleは力を入れている。したがって具体的な応用例を挙げるには早過ぎるわけだが、一つだけ確実なことがある。コンテキストがカギになるという点だ。

Google Nowはモバイル・デバイスがユーザーの置かれたコンテキストを十分に理解できるようになった場合に何ができるかを知るヒントになる。時刻、場所、メール、カレンダー、その他の情報を総合すると、ユーザーが今必要としている情報が何であるかをかなりの精度で推測できるする。われわれの言うコンテキストとはそれぞれのユーザーの所与の環境に関する情報を総合した知識だ。しかし前述のように、現在のモバイル・デバイスの環境認識の能力には大きな制約がある。いわば密室の壁に開けられた小さな穴を通して断続的に映るぼんやりした像を眺めているようなものだ。

バーチャル・パーソナルアシスタントが有効に機能するためにはユーザーの置かれたコンテキストについてのもっと明確な理解が必要だ。たとえばユーザーがバス停の前のカフェで仕事の相手と握手し、カバンを床に置いてコーヒーを注文したとしよう。このコンテキストではバスの到着時間よりも、この時刻に予定されているミーティングに関するメールその他の資料を用意する方が適切だ。

しかしバーチャル・アシスタントというのは視覚的理解が必要な数多くの分野の分かりやすい一例にすぎない。スマートフォンが自らの位置を知り、近傍に何があり、どんな動作が行われているかを理解する能力を備えれば、驚くべき応用が広がる。バーチャル世界と現実世界のハイブリッド型のゲーム、付近いいるユーザーの位置、動作、性別などを理解してマルチメディア広告を表示するディスプレイ、コンテキスト情報に応じて刻々と設定を変化させるモバイルデバイスなどが実現するだろう。

最後の例に関してはFirefoxやGoogleがすでにコンテキスト・ランチャーという形でメインストリームへの導入を図っていることを私は指摘している。ただし、現在は、スマートフォンのコンテキスト認識能力が低すぎることがハードルとなっている。デバイスが外界を正しく認識できるようになれば、劇場や公共交通機関の中では自動的にマナーモードになり、ユーザーがその時点でもっとも必要としそうなアプリを選んで常に待機させるようなことができるだろう。

しかしなんらかの意味でデータの蓄積と組織化が関連してくるのでなければGoogleがわざわざこういうことを始めるわけがない。ユーザーがどこへでも持ち歩くデバイスから刻々とアップロードされてくるコンテキスト・データはデバイスと同時に、Google自身の世界を認識する能力も圧倒的に強化するものとなる。

Googleの全ビジネスはユーザーに関する知識をベースとしている。ユーザーが知りたがっている情報を提供することでGoogleのビジネスは成り立っている。検索エンジンに特定のフレーズを入力することは、つまりユーザーがそのフレーズに関連する事項に興味を抱いている確実なサインだということを発見したことが検索連動広告を生んだ。後知恵で見れば当たり前に思えるが、当時はこの発見がまさに雷電のように全検索業界を震撼させ、Googleの巨大化への道を開いたのだった。

Googleがムーンショット(月ロケット)と称する野心的なプロジェクトも、実はすべて最終的には一般ユーザーを対象とする巨大ビジネスへの成長の可能性が考慮されている。プロジェクト・タンゴも例外ではない。一般ユーザーまったく気付かない段階で新たなテクノロジーがどのような需要とビジネスを生むかを大胆に予測しているわけだ。コンテキストを認識するスマートフォンもその一例であり、ビジネスの観点からいえば、消費者が持ち歩くスマートフォンの1台ずつに熟練したマーケティング・コンサルタントを忍び込まされるようなものといえるだろう。

最近のテクノロジーの発達に共通することだが、タンゴもユーザーの個人情報をより詳しく収集する見返りにより便利なサービスを提供するという仕組みだ。ひとたびその利便性が明らかになれば、多くの消費者はプライバシー上の譲歩を喜んで受け入れるだろうというのが私の予測だ。

Googleだけではない

モバイル・デバイスのコンテキスト認識能力の向上に取り組んでいるにはGoogleだけでない。昨年、AppleがPrimeSenseを買収したのも、動作の認識など3Dマッピンの能力を強化するためだったし、 Qualcomも同様の理由でGestureTekを2011年に買収している。

位置情報ベースのサービスも当初はSF的と思われたが、今では当たり前になっている。コンテキスト認識も明日のスマートフォンではないのが不思議になるだろう。空間的コンテキスト認識能力を応用した新たなソフトウェアの可能性を探るためににデベロッパーに現実の開発環境を提供し始めたのはたしかにGoogleが最初だが、他のプレイヤーも続々と後に続くだろう。その競争はすぐに始まり、また激烈なものになるだろう。

画像 Bryce Durbin

[原文へ]

(翻訳:滑川海彦 Facebook Google+


ビデオ: GoogleのProject Tangoで室内を3D撮影するとこうなる

昨日はGoogleの3D感知型スマートフォンProject Tangoについてお伝えし、そこに使われている視像プロセッサや、それが携帯電話の未来にもたらす意味について論じた。

そして今回お見せするのは、実際にTangoのプロトタイプデバイスを使ってMatterportが作った3Dの室内マップだ。Matterportはこれまでにもコンピュータビジョンや知覚コンピューティングの技術を駆使して、室内など3D空間の捕捉や再現を行うソフトウェアを作ってきたので、Tangoのプロトタイプ機をGoogleからもらえる数少ない企業の一つに選ばれたのだ。

MatterportのCEO Bill Brownに、Project Tangoの3Dシーンを再現する能力について聞いてみた。Brownによると、このプロジェクトによってモバイルの3D化が急速に進むだろう、という。3Dの捕捉とマッピングをモバイルデバイスほど迅速簡便に、そして気軽にできるデバイスは、同分野の既存の製品や技術の中にはない。だからモバイルデバイスは事実上、3D技術を今後一般化大衆化していくための唯一の乗り物になる。

Matterportは同社の一連のソフトウェアによって3Dデータを、カラーカメラデータと完全なメッシュデータの両方で一度に捉える。そしてそれらを、正確なモデルへと再構成する。Matterportはそのためのカメラを、価格など一般市販を意識しながら独自に作ってきたが、Brownによると、Tangoデバイスの能力は現状ですでに立派なものだそうだ。

“まだプロトタイプだからメッシュのクォリティは、うちのカメラほど良くないけどね”、とBrownは言う。

このプロトタイプTangoデバイスは、カメラの解像度も低いから画像が粗い。でもカメラの解像度を上げるぐらいのことは簡単にできる、とBrownは言う。

このビデオでもお分かりのように、Tangoの能力は現状でもすでに十分に感銘を与える。やがて、われわれが日常的に持ち歩く携帯が、このように自分の身の回りの環境を感知したり解釈したりできるようになるのだ。

Matterportはバルセロナで行われるMobile World ConferenceでQualcommのキーノートを担当する。その機会に同社は、同社の3D捕捉再現ソフトウェアをモバイルデバイスに載せてデモし、このような3D技術の大衆的普及がもたらすメリットについても語るだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Googleが野心的AIプロジェクト、タンゴを発表―3Dカメラとセンサーでスマートフォンが空間を認識する

今日(米国時間2/20)、Googleのスカンクワークスこと先進テクノロジー・プロジェクト(Advanced Technology and Projects)グループはプロジェクト・タンゴ(Project Tango)と名付けられた画期的3Dセンサーを装備したAndroidベースのスマートフォンのプロトタイプとデベロッパー・キットを発表した。

この3Dセンサーとカメラを組み合わせたシステムはモーショントラッキングと同時に周囲をスキャンして3Dマップをリアルタイムで生成することができる。Googleはこの新センサー、カメラ、高度なコンピュータ・ビジョン・ソフトウェアの組み合わせによって屋内のナビゲーションやVRゲームなど数々のまったく新しい応用への道が開かれると信じている。デベロッパーは今日からGoogleに対し、プロトタイプ・スマートフォンとデベロッパー・キットの入手を申し込むことができる。

ただし、初回はGoogleが審査して特に許可する200チームに限られるという。 申し込みをするデベロッパーはこのデバイスでどのようなプロダクトを開発する計画なのか明確な案を提出しなければならない。200チームの選定は2014年3月14日までに完了する。Googleが想定する分野は屋内ナビゲーション/マッピング、物理的な空間内でプレイする単独/複数プレイヤーのゲーム、センサーからの3Dデータの新しい処理アルゴリズムなどだ。

デベロッパーはアプリをJava、C/C++で開発するものとする。またUnity Game Engineを利用することができる。このスマートフォンに対するAPIは現在開発中だという。

「“プロジェクト・タンゴの最大のインパクトは、スマートフォンが人間の視覚のような動作と空間の認識能力を持つようになることだ」とプロジェクト・タンゴのチームリーダー、Johnny Leeは言う。

Googleはこの3Dセンサー機能を利用して、デベロッパーが3Dビジョンに基づいたまったく新しいジャンルのスマートフォン・アプリケーションを多数開発するようになることを期待している。

このスマートフォンには他のスマートフォン同様、コンパスとジャイロが搭載されているが、Googleが開発した新センサーシステムは周囲をスキャンしてKinectのように動作やジェスチャーを認識し、また周囲をスキャンして3D空間マップを生成する。

ただしプロジェクト・タンゴのシステムはLeap Motionのようなジェスチャー・ベースのUIを開発することを念頭に置いたものではない。逆にスマートフォンが周囲の3D空間を認識し、自分の位置が分かるようになった場合、デベロッパーがどんなアプリを作り出せるのかが興味の焦点だ。

たとえば新しい家具を買おうとするときスマートフォンを構えて家の中を一回りするだけで正確な寸法の測定ができたら便利だろう。 複雑な構造のビルの中でのナビゲーションにも応用できるかもしれない。ショッピング・モールや地下街で迷子にならずにすむだろう。

タンゴのセンサー

Googleはプロジェクト・タンゴにMovidius’ Myriad 1ビジョン・プロセッサー・プラットフォームを利用している。これまでこうした機能をスマートフォンに組み込むのは、非常に高価になってしまうだけでなく、膨大なデータ処理の負荷によってバッテリーがすぐにゼロになってしまうために困難だった。しかし最新のビジョン・プロセッサーは省電力化が大きく進んだ。これがおそらくGoogleがプロジェクトをスタートさせた大きな理由だろう。プロジェクト・タンゴのセンサーに関してはわれわれのこちらのの記事を参照。

プロジェクト・タンゴの技術面のリーダーであるLeeは、2011年の初めにGooogleに加わる前はMicrosoftでKinectの開発に携わっていた。今日の発表はGoogleの謎めいたATAPグループとして最初のハードウェア・プロダクトのリリースだ。この組織はもともとMotorolaの研究部門で、GoogleがMotorolaを売却した際に手元に残した数少ない部門の一つだ。

タンゴ・プロジェクト以外にもATAPは途上国市場向けの低価格のスマートフォンを開発するプロジェクトAraも担当している。 GoogleはATAPをGoogle[x] と並ぶ同社のムーンショット〔アポロ計画のような大胆な先進プロジェクト〕を担うグループと位置づけている。現在ATAPは元DARPA局長で2012.年にGoogleに加わったRegina Duganが責任者を務めている。

[原文へ]

(翻訳:滑川海彦 Facebook Google+