Google I/Oで行方不明者になったATAPチーム、ハードウェアチームにマージされていた

これまでの数年間、GoogleのメインのデベロッパーカンファレンスであるGoogle I/Oでは必ず、同社の‘秘密の’研究開発部門ATAPが、単独でキーノートを行った。そしてそれは、Googleがそのもっとも実験的でおもしろいプロジェクトを紹介する機会になることが多かった。しかもATAPのキーノートは、そのほかの大型で派手なI/Oのキーノートよりおもしろいときもあった。でも今年は、I/Oのスケジュールのどこを見ても、ATAPの文字はない。

今週初めに出たBusiness Insider誌によると、ATAPチームのミッションは、前のトップRegina DuganがFacebookに寝返って以来変わった。たしかに数週間前彼女は、FacebookのF8カンファレンスに姿を見せていた。そしてやはり、I/Oにその姿はなかった。

途方もない夢のプロジェクトを追うGoogleのX部門と違ってATAPは、I/Oの機会に必ず、その最新のプロトタイプを紹介した。ジェスチャー検出のための超小型レーダー用センサーや、今ではLevi’s(リーバイス)の製品になっているセンサー内蔵ジャケット、モジュール化スマートフォンProject Ara(これは廃案になった)、パスワード不要の認証システム、などがその主なものだ。中にはけたたましく失敗したプロジェクトもあったが、自分たちのことを非正規特殊部隊と認識している彼らにとっては、失敗も成果のひとつだった。また、いずれも短期的なプロジェクトなので、失敗も最初から織り込み済みだった。

しかし、新しいリーダーRick Osterlohが率いる今のATAPは、前ほど自由気ままではないようだ。秘密性が前よりも増し、実験的というより、早期の収益化を目指したプロダクトに注力している。

今のGoogleでは、そうなるのも当然だ。Googleは全体的にも、前より真面目に収益化に取り組むようになっている。でもATAPのキーノートがI/Oで見られないようになると、その新しいバージョンがFacebookのF8に出てくる可能性もある。そうなるとそれは、Googleにとって喪失だ。

この記事を見たGoogleは、こう言ってきた: “ATAPの業務は通常通り行われております。約1年前に、彼らはRick Osterlohが率いるハードウェアチームの傘下に入り、Googleのハードウェア製品のための製品開発と技術開発に取り組んでいます。それらの製品や技術は、市場に出たり、弊社のポートフォリオに組み入れられたり、あるいはGoogleのほかの部門で利用されたりするでしょう”



[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Googleとリーバイスが「つながった」ジャケットを共同開発。電話の応答、マップの利用などが可能に

jacquard-1

今日(米国時間5/20)のI/Oカンファレンスで、Googleの先進技術・プロジェクト(ATAP)研究部門が、昨年発表したインタラクティブ布地プロジェクト、Project Jacquardの最新情報を発表した。ATAPのIvan Poupyrevは、同社が人気衣類メーカーのLevi’sと組んで、「つながった」スマートジャケットを開発中であることを明らかにした。これは、都会のサイクリストたちが、音楽を制御や電話の応答、ナビなどを、ジャケットの袖をタップしたりスワイプしたりすることで利用できるようにするものだ。

GoogleとLevi’sの提携は昨年発表されたが、服飾メーカーがどうやってProject Jacquardの技術を実装するかについて、両社は何も語っていなかった。

ご存じない方のために言うと、このプロジェクトでは布地にマルチタッチセンサーを織り込み、身に着けるウェアを…新たな「ウェアラブル」デバイスにする。

jacquard sensor

新しいLevi’sのコミューター(通勤)ジャケットは、ファッショナブルであると共に、この技術の実用的利用方法を示すものだと同社は言っている。

今日、サイクリストたちは混み合った道路でスマホを気にしなけばならないことが多く、危険を招いている。

Levi’sのコミューター・ジャケットを着れば、ジャケットの袖口に触れるだけで、ジェスチャーを使って様々な機能を操作することが可能になり、いちいち電話を取り出す必要がなくなる。

このジャケットは、Levi’sが市内を自転車で走る都会の住人向けに展開している、コミューター・コレクションの一部でもある。

Screen Shot 2016-05-20 at 1.13.22 PM

ジャケットの袖にはJacquardタグが埋め込まれていてこの機能を可能にしている。タグは取り外してUSB経由で充電することができ、LED、バッテリー、および衣服に織り込まれたセンサー等と接続されている。接続部分はジャケットのボタン穴に合わせることで、目立たなくしている。

プラットフォームには、このスマート衣類をクラウドとつなぐためのモバイルアプリもある。消費者はこのアプリを使って、つながった衣服を操作する。

さらに同社が強調しているように、ジャケットは他のLevi’s製品と同じように扱える ― 丸めたり、洗濯機に放り込む、等々。

「スマート衣類プラットフォームの開発には独特の課題がある ― ファッションとテクノロジーが一つになって仕事をする必要があるが、そこでは必然的に綱引きが起きる」とPoupyrevは言った。「テクノロジーは脆く、衣類は…そうではない」。

通話やGoogleマップ、Google Play Music等の組み込み機能を操作するだけでなく、ジャケットはサードパーティーのサービスとも相互利用が可能だとGoogleは言う。これは、タッチでSpotifyの音楽や、Strava等のつながったフィットネスアプリを制御できることを意味している。

Screen Shot 2016-05-20 at 1.18.36 PM

イベントのステージで両社は、ジャケットを使う様子をデモした。

例えば、袖口で指を上下に滑らせることによって音楽の音量を調節していた。「コンパス」機能は、スワイプで起動できる。すると音声アシスタントがユーザー(Levi’sのイノベーション担当VP、Paul Dillinger)に、次の会議の時刻と、到着までにかかる時間を教えてくれた。

Screen Shot 2016-05-20 at 1.48.19 PM

デモはうまくいっていたが、センサーが織り込まれた袖口は少々こわばっているように感じられ、少し膨んで見えた。着心地がどうなのか、魅力的なのかどうかはわからない。

Googleは、将来他のアパレルメーカーとも組んで、Jacquardの利用を促進する計画だと話した。スポーツウェア会社や、ビジネスウェアをデザインする会社等だ。(明確に言及はされなかったが、パートナーについて説明するプレゼンの中で、Cintaのロゴが一瞬スライドに表れた)。

おそらく最も関心を引いたのは、このジャケットがはるか先の夢物語ではないことだ ― この秋にはベータテストを開始し、2017年春には一般向けに販売されるとGoogleは言っている。

価格は明らかにされていない。

[原文へ]

(翻訳:Nob Takahashi / facebook

極小画面のデバイスでも人間の手の自由な動きで細かく制御できる新しいインタフェイス技術、Google ATAPのSoliプロジェクト

google-io-2015-atap0025

GoogleのATAPが今日のI/Oカンファレンスで発表したSoliプロジェクトは、今日(こんにち)ますます小型化していくデバイスや画面を、手や指でもっと容易に操作するための仕組みだ。そのために何かのツールを使うのではなく、“手の動きで表現されるボキャブラリ”を使ってデバイスをコントロールする。目の前にそのデバイスが、なくてもよい。

ユーザは自分の手をごく自然に動かすだけだが、システムは動きの微妙な違いを精密に検出する。センサと手のあいだに物が介在していてもよい(たとえばデスクの下面にセンサがあるなど)。その秘密はレーダーを使うからで、画面の大小に関わらず正確な操作ができる。物理的肉体的にタッチするときに生ずる‘点のサイズ’という問題がないからだ。

人間の手から自然に生ずる触覚的なフィードバックも利用される。たとえば、指と指が触れ合うときの皮膚の摩擦だ。つまりSoliは、ユーザの手そのものを自分のユーザインタフェイスとして参照する。そのためにはもちろんセンサが必要だが、ハードウェアに関してそれ以外の要件はない。

  1. google-io-2015-atap0037.jpg

  2. google-io-2015-atap0036.jpg

  3. google-io-2015-atap0038.jpg

  4. google-io-2015-atap0039.jpg

  5. google-io-2015-atap0020.jpg

  6. google-io-2015-atap0022.jpg

  7. google-io-2015-atap0021.jpg

  8. google-io-2015-atap0024.jpg

  9. google-io-2015-atap0023.jpg

  10. google-io-2015-atap0025.jpg

  11. google-io-2015-atap0026.jpg

  12. google-io-2015-atap0027.jpg

  13. google-io-2015-atap0028.jpg

  14. google-io-2015-atap0029.jpg

  15. google-io-2015-atap0030.jpg

  16. google-io-2015-atap0031.jpg

  17. google-io-2015-atap0033.jpg

  18. google-io-2015-atap0032.jpg

  19. google-io-2015-atap0035.jpg

  20. google-io-2015-atap0034.jpg

  21. google-io-2015-atap0017.jpg

Soliはスマートウォッチのような小さなデバイスや、何かの‘面’の上、あるいは、デバイス本体と隔てられている‘距離’がある環境で使われることを想定している。そういう環境にはセンサとしてレーダーがベストだが、問題はそのサイズだ。そこでATAPはレーダーの小型化に努力した。何度も試作を重ねて、今では家庭用ゲーム機の1/4よりも小さくなっている。

ATAPは、大量生産も実現した。開発に要した時間は10か月だ。検出の精度は、個々の指の位置まで分かる。そこで、アプリケーション側では、わずかな動きにも反応できるから、高精細な3D画像のドローイングなども可能だ。

デベロッパは、その信号をAPIから受け取り、どんな用途にも利用可能だ。

Soliは、今年の終わりごろ、それに対応する実用製品、たとえばスマートウォッチなどを出す予定だ。Android Wearのハードウェアは、相当能力アップすると思われるから、クリスマス商戦に間に合うといいね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleのVaultプロジェクトは一枚のmicroSDカードに収めたセキュリティ万全のコンピュータ…企業利用を念頭

google-io-2015-atap0076

Project VaultはmicroSDカード大のデバイスにセキュアなコンピュータを収容した製品だ。GoogleのATAPによると、microSDの形を選んだのは、すでに携帯電話上に、高度なセキュリティ機能があるからだ。携帯のSIMカードは、キャリアにとって重要な情報を確実に保護しなければならない。Vaultもそれを志向しているが、守るのはユーザの重要なコンテンツだ。

またmicroSD形式なら、ビデオの再生などにも適した高いデータスループットが得られる。容量が大きいので同一カード上にストレージを併設でき(Vaultは本体上に4GBのストレージがある)、またモジュール性が良いので可搬性にも富む。

Vaultの上ではARMのプロセッサがリアルタイムオペレーティングシステムRTXを動かしている。このOSは、プライバシーとデータのセキュリティがとくに強化されている。NFCチップとアンテナもあるので、ユーザの本人認証も確実だ。また、ハッシュ、署名、バッチによる暗号化(not個別処理)、ハードウェアによる乱数生成など、一連の暗号化サービスを内包している。

  1. google-io-2015-atap0072.jpg

  2. google-io-2015-atap0073.jpg

  3. google-io-2015-atap0075.jpg

  4. google-io-2015-atap0076.jpg

  5. google-io-2015-atap0077.jpg

  6. google-io-2015-atap0078.jpg

  7. google-io-2015-atap0079.jpg

Vaultは、二要素認証を誰もが使いやすい形で提供し、デベロッパはそれを利用するために特別な作業を必要としない。システムはそれを、標準的なファイルシステムが載っているジェネリックなストレージと見なす。

そのファイルシステムには、ファイルが二つだけあり、それぞれ、リード用とライト用だ。どのアプリケーションも、Vaultとコミュニケーションするためには、これらを利用しなければならない。また、ホストのコンピュータや電話機から見るとジェネリックなストレージにすぎないから、AndroidやWindows、OS X、Linuxなど、そのほかのオペレーティングシステムでも使える。

ATAPは今日(米国時間5/29)のGoogle I/OでオープンソースのSDKをリリースしたから、誰もが正規の立ち上げの前にVaultを理解し試用ができる。企業が利用するための正規の製品もすでにあり、それは今Googleの内部で使われている。また将来的には、消費者向けの製品も出す予定だ。

ATAPがI/Oで行ったデモでは、Vaultを使ってチャットの会話のセキュリティを確保する例が示された。Vaultの載ったmicroSDがインストールされると、チャットアプリケーションがファイルが二つだけのファイルシステムへと仮想化されたストレージを開き、リード/ライトを行う。メッセージはVaultがすべて暗号化し、暗号化されたテキストが送信される。受信側の携帯はその会話を解読するが、どちらの側も、ユーザレベルにはキーやアルゴリズムは何もない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

ジーンズのLevi’sがGoogleの‘インターネット接続織物’Jacquardプロジェクトの初のパートナーに

google-io-2015-atap0064

GoogleがI/O 2015で披露したProject Jacquardは、インターネットに接続された織物で、衣類の表面からデバイスに接続してそれらを動かせるだけでなく、従来どおりにファッションの素材にもなる。すでにLevi’sが最初のパートナーになっているところから見ても、かなり将来性のある技術のようだ。

サンフランシスコに本社のあるLevi’sはジーンズのメーカーとして有名だが、今では総合衣料メーカーと言ってよい。今日(米国時間5/29)のI/Oで、ATAPのプレゼンテーションに登場したLevi’sの代表は、この新しい技術に飛びついた理由を説明した。そのキモは、デバイスと人間の日常生活とを、もっとしっくり馴染んだものにすること。いちいち気にせずにデバイスを利用できることだ。

アプリは同社独自で作るつもりのようだが、デベロッパコミュニティからの協力も求めている。この新たな技術を前提とすると、同社によれば、デベロッパも“ファッションデザイナー”だそうだ。

このパートナーシップはまだきわめて初期段階のようで、プロダクトの発表もない。でもここでおもしろいのは、技術開発がもはやGoogle自身の研究部門に閉じ込められないことだ。世界的に著名な老舗ファッションブランドとの協働により、Jacquardという一見突飛な技術から、人間の日常に定着する何かが生まれるかも、と期待される。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleの先進研究チーム、ATAPがパスワードを永久に追放する認証手法を開発か

2015-05-30-googleatap

今日(米国時間5/29)、Googleの先進技術研究ユニット、ATAP(Advanced Technology and Projects=元Motorolaの研究部門)は、現在サンフランシスコで開催中のI/Oデベロッパー・カンファレンスで、モバイル・デバイスにおいてユーザーのタイプ入力のパターンその他の情報から正しいユーザーであることを認証する技術を開発sしていると発表した。これが実用化されればパスワードは不要になるという。

このプロジェクトはユーザーがPIN番号やパスワードをいちいち入力する煩わしさを省くことが目的だ。新しい認証システムは一日中連続的にユーザーの行動をモニタし、さまざまな情報を総合して真正なユーザーであることを確認し続けるという。

google-io-2015-atap0068

ATAPの開発チームの責任者、Regina Duganの今日の説明によれば、 この課題の解決に向けて調査を始めたとき、既存の学術研究では4桁のPIN番号入力のレベルに達する代替策さえみつからなかったという。

そこでGoogleは多数の大学に協力を求め、16の大学から25人の専門家を集めて90日の短期集中研究を実施した。チームは1500人のボランティアから日々のデバイス操作データの提供を受けた。その結果、新システムは指紋認証の10倍の精度でユーザー認証を行えるようになったという。

これが事実なら、モバイルセキュリティーにおける一大進歩だ。現在の各種のセキュリティー・メカニズムを一挙に置き換える可能性がある(もちろんモバイル・バンキングなどの場合、多くのユーザーは依然として2段階認証が必要だと考えるだろうが)。新しい認証システムはハードウェアを必要とせず、すべてソフトウェアだけで実行可能であるので、ATAPでは近い将来、何千万ものAndroidデバイスに導入されることを期待している。

google-io-2015-atap0066

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Project Tangoの第二の開発機はTegra K1タブレット、1024ドルでふつうの人も買える

 
 

Googleの3D奥行き感知型モバイルプロジェクトProject Tangoに、新たな開発用ハードウェアが加わった。その今日(米国時間6/5)デビューしたタブレットの開発キットは、NVIDIA Tegra K1プロセッサと4GBのRAM、128GBのストレージ、1080pのディスプレイ、定番のAndroid 4.4、WiFi、Bluetooth LE、4G LTE、そして二つのカメラと、奥行き感知というマジックを演ずるための背面奥行きセンサを搭載する。

このタブレットはこれまで噂にすぎなかったが、今度は6月下旬に1024ドルで発売される。デベロッパが登録しておくと、リリース直後に通知をくれる。Googleは“限られた量しか”作らないと言っているから、一般消費者向けの発売ではない。しかし登録するときに自分がデベロッパか否かをチェックボックスで指定するだけなので、誰でも買えるのだろうが、申し込みがその“一定量”を超えそうなときはデベロッパを優先するのかもしれない。

EngadgetがこのProject Tangoタブレットの詳細を報じており、初期的なソフトウェア体験にも一部触れている。3月に出たProject Tango開発機、スマートフォンキットは、わずか200台がデベロッパの手に渡っただけだ。しかし今度のタブレットは、もっと多くの人にテストしてもらうのが目的だろう。とくにゲームまわりがおもしろいと思うのだが、Engadgetはゲーム業界の大手UnityやEpicの名を挙げて、彼らはすでにTangoの仕事を始めている、と言っている。

Tangoをまだよく知らない読者は、この、GoogleのAdvanced Technology and Research部門による野心的なプロジェクトに関する、一連の本誌記事をお読みいただきたい。視界処理用のチップはMovidiusというスタートアップの特殊なチップを使用、これまでのモバイルになかった全く新しいユーザ体験の扉を開くものだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Project Tangoの詳細スペックが公開, 一台のスマホがカメラを4基使う

GoogleのProject Tangoスマートフォンは、3D環境を感知するハードウェアの実験的な実装で、本当は今日あたりデベロッパの手に渡るはずだった。しかし実際には今日(米国時間3/14)、Chromeのイシュートラッカーでそのスペックの一部が公開
され、それをいち早くMyceが見つけて報じた。これらのスペックを見ると、Googleが実際にどうやて3Dのコンテキスト感知というマジックをやっているのか、が分かる。

その仕事をする主役は、通常の4mpのカラーカメラにプラスして搭載されている3台のカメラだ。一台は前方120度の広角で視界を撮り、別の一台は後方を180度の視野角で撮る。そしてあとひとつ、320×180という低解像度のカメラが奥行き(depth)を感知する。カメラだらけのデバイスだが、しかしデモを見たかぎりでは、画面5インチのふつうのスマートフォンのサイズに、すべてが無理なく収まっているようだ。

Tangoを生み出したGoogleのAdvanced Technology And Projects(ATAP)グループは、元々はGoogleが買収したMotorola Mobilityにあったもので、MMをLenovoに売ったときも、Googleはこのグループを手元に残した。この特殊な研究開発部門はDARPA出身者などから成る高度な技術者集団で、モジュール構造のスマートフォンProject Ara(関連記事(1)(2))もここのプロジェクトだ。そのほか、刺青を利用する認証システムや、薬剤投与方法なんかも研究している。

スマートフォンを利用する有視界ロボットは、一般的に、まだまだこれからの研究開発課題だが、Tangoはそれを大きく前進させる力の一つになるだろう。すごいことのできるモバイル製品がやがて登場する、という予感を与えてくれるね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Google、モジュール入れ替え型スマートフォンの実現を目指すProject Araディベロッパー・カンファレンスを開催

Googleは、Motorolaによって展開されていたスマートフォンデザインの実験的プロジェクトを捨ててしまったわけではなかったようだ。Motorolaからの研究成果をATAP(Advanced Technology and Projects)にてProject Araにて進化・熟成させてきていた様子。ATAPはつい先日、3Dセンサーを活用するシステムであるTangoをリリースしたばかりだ。そのATAPが、今度はProject Ara関連のディベロッパー・カンファレンスを4月15日および16日に開催する旨のアナウンスを行った。開催場所はマウンテンビューのComputer History Museumだ。

ちなみにAraはモジュール組み込み型のスマートフォンで、自分で搭載パーツを入れ替えることで別種のセンサーや、性能の良いカメラを搭載したり、あるいはより大容量のバッテリーを利用するようにしたりといったことができるようにするものだ。Play Storeでアプリケーションを購入するような感覚で、新たなモジュールを入手して搭載モジュールと入れ替えて、より自分のニーズにあったスマートフォンに作り変えていくことができる。そうした仕組みを取り入れることで、わずかの期間のうちに、一部の機能アップデートが必要だからと新しいスマートフォンに買い直すといったことは必要無くなり、新しい機能をもったパーツ部分のみをアップデートしていくことが可能になるわけだ。

Googleによれば、年内に何度かAraディベロッパー・カンファレンスを開催していく予定だとのこと。今回は、4月にウェブ上でも公開する予定となっているAra Module Developers’ Kit(MDK)の紹介を主目的とするものだとのことだ。誰でも無料で使うことのできるプラットフォームであり、これを使って「なんでも必要なモジュール」を使うことができるようになる。カンファレンスはオンラインでも開催されるが、現地参加者も募集中だ。参加費用は100ドル(学生は25ドル)で、食事および現地でのセッション参加費用が含まれている。申し込み時に記す動機(application)にて出席の可否が決まるようだ。積極的に、熱意ある申込書を書く必要がありそうだ。

Araは、ひとつのデバイス上でモジュールをいろいろと入れ替えることで、すべてのニーズにこたえられるようにしたいとするものだ。あまりに壮大過ぎる目標だとも思えるが、ATAPとしては、あらゆるリスクを考慮しても利用者のニーズに答えていきたいということなのだそうだ。「壮大過ぎる」と言われるのは、むしろ「望むところ」であるのかもしれない。

原文へ

(翻訳:Maeda, H


Googleが野心的AIプロジェクト、タンゴを発表―3Dカメラとセンサーでスマートフォンが空間を認識する

今日(米国時間2/20)、Googleのスカンクワークスこと先進テクノロジー・プロジェクト(Advanced Technology and Projects)グループはプロジェクト・タンゴ(Project Tango)と名付けられた画期的3Dセンサーを装備したAndroidベースのスマートフォンのプロトタイプとデベロッパー・キットを発表した。

この3Dセンサーとカメラを組み合わせたシステムはモーショントラッキングと同時に周囲をスキャンして3Dマップをリアルタイムで生成することができる。Googleはこの新センサー、カメラ、高度なコンピュータ・ビジョン・ソフトウェアの組み合わせによって屋内のナビゲーションやVRゲームなど数々のまったく新しい応用への道が開かれると信じている。デベロッパーは今日からGoogleに対し、プロトタイプ・スマートフォンとデベロッパー・キットの入手を申し込むことができる。

ただし、初回はGoogleが審査して特に許可する200チームに限られるという。 申し込みをするデベロッパーはこのデバイスでどのようなプロダクトを開発する計画なのか明確な案を提出しなければならない。200チームの選定は2014年3月14日までに完了する。Googleが想定する分野は屋内ナビゲーション/マッピング、物理的な空間内でプレイする単独/複数プレイヤーのゲーム、センサーからの3Dデータの新しい処理アルゴリズムなどだ。

デベロッパーはアプリをJava、C/C++で開発するものとする。またUnity Game Engineを利用することができる。このスマートフォンに対するAPIは現在開発中だという。

「“プロジェクト・タンゴの最大のインパクトは、スマートフォンが人間の視覚のような動作と空間の認識能力を持つようになることだ」とプロジェクト・タンゴのチームリーダー、Johnny Leeは言う。

Googleはこの3Dセンサー機能を利用して、デベロッパーが3Dビジョンに基づいたまったく新しいジャンルのスマートフォン・アプリケーションを多数開発するようになることを期待している。

このスマートフォンには他のスマートフォン同様、コンパスとジャイロが搭載されているが、Googleが開発した新センサーシステムは周囲をスキャンしてKinectのように動作やジェスチャーを認識し、また周囲をスキャンして3D空間マップを生成する。

ただしプロジェクト・タンゴのシステムはLeap Motionのようなジェスチャー・ベースのUIを開発することを念頭に置いたものではない。逆にスマートフォンが周囲の3D空間を認識し、自分の位置が分かるようになった場合、デベロッパーがどんなアプリを作り出せるのかが興味の焦点だ。

たとえば新しい家具を買おうとするときスマートフォンを構えて家の中を一回りするだけで正確な寸法の測定ができたら便利だろう。 複雑な構造のビルの中でのナビゲーションにも応用できるかもしれない。ショッピング・モールや地下街で迷子にならずにすむだろう。

タンゴのセンサー

Googleはプロジェクト・タンゴにMovidius’ Myriad 1ビジョン・プロセッサー・プラットフォームを利用している。これまでこうした機能をスマートフォンに組み込むのは、非常に高価になってしまうだけでなく、膨大なデータ処理の負荷によってバッテリーがすぐにゼロになってしまうために困難だった。しかし最新のビジョン・プロセッサーは省電力化が大きく進んだ。これがおそらくGoogleがプロジェクトをスタートさせた大きな理由だろう。プロジェクト・タンゴのセンサーに関してはわれわれのこちらのの記事を参照。

プロジェクト・タンゴの技術面のリーダーであるLeeは、2011年の初めにGooogleに加わる前はMicrosoftでKinectの開発に携わっていた。今日の発表はGoogleの謎めいたATAPグループとして最初のハードウェア・プロダクトのリリースだ。この組織はもともとMotorolaの研究部門で、GoogleがMotorolaを売却した際に手元に残した数少ない部門の一つだ。

タンゴ・プロジェクト以外にもATAPは途上国市場向けの低価格のスマートフォンを開発するプロジェクトAraも担当している。 GoogleはATAPをGoogle[x] と並ぶ同社のムーンショット〔アポロ計画のような大胆な先進プロジェクト〕を担うグループと位置づけている。現在ATAPは元DARPA局長で2012.年にGoogleに加わったRegina Duganが責任者を務めている。

[原文へ]

(翻訳:滑川海彦 Facebook Google+