Google、Projcet Soliのレーダーセンサーをスマートウォッチとスピーカーに塔載

soli-style

毎年I/Oカンファレンスでは、GoogleのATAP、即ち同社の少しおかしなアイデアを製品化する部門が、独自の短いキーノート講演を披露する。今年もいくつかのプロジェクトの最新情報を報告した。その一つであるProject Soliは、非常に小さなレーダーセンサーを作り、手の動きをデジタル信号に変えて、ウェアラブルに新しいユーザーインターフェースをもたらそうとするものだ。

昨年のI/Oデモ以来、チームはこのプロジェクトをデベロッパーの手に渡すことに集中してきた。昨年最初のデベロッパーキットを約60社に配布した。センサーを使ってみたデベロッパーの反応に勇気づけられているとチームは話した。既に物体認識ツール、楽器等が作られている。

ただし、初期のキットは限定された環境でのみ使用できる。必要な電力が大きすぎるため、センサーは小さくても、動作にはフルパワーのデスクトップまたはノートPCが必要だ。

soli interact

もちろんこれでは実用にならないので、チームはこれをスマートウォッチで動かすことに挑戦している。そのために、チップにInfineoinを使い消費電力を22分の1に減らした ― 1.2 Wから0.054 Wへ。大きさも3分の1になった。

レーダーは一般に大量のCPUパワーを必要とするが、この新バージョンは256倍効率が高く、それでも毎秒1万8000フレームで動作する。

こうした努力を経て、チームはSoliをスマートウォッチに組み込むことに成功した(「そして時も知らせる!」)

soli

これは、触れることなくウォッチを操作できることを意味している ― 基本的なジェスチャーを使って操作できる。デモでは、ATAPチームが手をウォッチに近づけたり離したりするだけで、驚くほど正確にメッセージをスクロールさせて見せた。バーチャル・ダイヤルジェスチャーで、文字盤を操作することもできる ― アナログ時計を使うのと同じように。

ATAPチームによると、これを使うと画面に表示できる情報が増えるという。なぜなら、指が文字盤を隠すことがないからだ。

しかし、Soliはスマートウォッチだけに作られたのではない、とチームは指摘する。HarmanのJBLブランドと協同で、Soliレーダー内蔵スピーカーのプロトタイプを作っている。センサーは最大15メートルまで検知できるので、スピーカーから離れていても操作が可能だ。

soli watch

デベロッパーコミュニティーををさらに拡大すべく、ATAPは新しいベータ品質のキットを来年提供する予定だ。

残念ながら、最初のProject Soli製品が登場する時期はわかっていない。しかし、ATAPはLevi’sと協同でProject Jacquardのスマート布地を市場に出そうとしており、Soliでも同じことをする可能性は高い。

soli betakit

[原文へ]

(翻訳:Nob Takahashi / facebook

モジュール構造で多様な機能に変身するスマートフォンProject Ara、Googl I/Oの歓声の中でデベロッパーエディションをデモ

ara_proto

Project Araについて多くを知ってからかなりの時間が経つが、でもGoogleはこの、Motorola起源の、モジュール構造のスマートフォンを、I/Oから外す気はなかった。

Projects SoliJacquardの最新アップデートを紹介したあと同社は、Araフォーンの実働デベロッパーエディションの感動的な姿を、熱心なGoogleファンたちに披露した。彼らは同機のプラグアンドプレイ機能を見て、興奮の声をあげていた。そのデバイスは機能的にはベーシックなスマートフォンだが、モジュールのための“汎用的”スロットが6つあり、すべてのモジュールをサポートできる。

ara_glucometer

Googleの技術部門のトップRafa Camargoは、カメラモジュールをプラグインして、ただちにオーディエンスの写真を撮った。“ステップワン、モジュールをプラグインする”、とCamargoは声を張り上げた。“ステップツー、それを使う”。モジュールをイジェクトするためには、“okay Google, eject the camera”(よーしGoogle、カメラを外せ)などと声をだせばよい。そのときは、このデモで最大の拍手喝采が起こった。

スピーカーやカメラなどベーシックなモジュールでスタートしたこのプロジェクトだが、今後はSamsung, Sony Pictures Home Entertainment, Panasonic, Toshiba, Harman, E Inkなどのパートナーと共謀して、変わったモジュールが次々と出てくるらしい。たとえば第二ディスプレイ、など。Camagoは曰く、“ただのスマートフォンじゃないよ。完全にモジュール的なコンピューティングプラットホームなんだ”。

  1. ara_dev_logo.jpg

  2. ara_consumer.jpg

  3. ara_slots.jpg

  4. ara_parts.jpg

Araのデベロッパーバージョンは今年後半に出る。そこには、フォーンのほかに、“いくつかのモジュール”がある。そしてついに来年は、このモジュール的ハンドセットの消費者バージョンが出るらしい。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

3分で分かるGoogle I/O:AndroidのVR標準対応、インストール不要の「Instant Apps」など

Googleは米国時間5月18日10時(日本時間19日午前2時)から3日間にかけて開発者向けカンファレンス「Google I/O」を開催している。カンファレンスでは、AndroidのVR標準対応やインストール不要の「Instant Apps」、ビデオ通話アプリ「Duo」など、さまざまなが発表されている。ここでは発表された内容について、翻訳記事をまとめたかたちでご紹介する。これを読めば、カンファレンスの概要を理解することができるだろう。

screen-shot-2016-05-18-at-1-44-20-pm

VR筐体「Cardboard」の対応アプリDL数は5000万件に

今回のカンファレンスのキーワードの1つは間違いなく「VR」だ。段ボールを組み立て、Android端末を挿入して利用する安価なVR向けヘッドセット「Google Cardboard」、これに対応するアプリのGoogle Play上でのダウンロードが、5000万件を超えたという。1月時点で2500万件、約4カ月で2倍に増加しているという計算だ。

Google Cardboard、アプリのダウンロード数が5000万を突破

2016-05-19-android-n

次世代AndroidにもVRは標準装備

キーノートでは、次世代Android OSの「Android N」のプレビュー版が発表された。製品版は2016年夏の後半にもリリースされる予定だという。マルチウィンドウをサポートするほか、アップデートプロセスも一新する。また、VRアプリが優先的にCPU、GPUにアクセスでき、画面表示のレイテンシーを最小限にとどめる「VRモード」を標準搭載するという

Android Nの新プレビュー版はベータ版品質―アップデートはバックグラウンド、VRモードを標準搭載

このAndroid Nだが、正式名称はユーザーから募集する予定だ。

Android Nの名前はGoogleが決めずにネット上の一般公募になった 

VRモードの詳細な説明はこちらを参照して欲しい。

Android N、レイテンシーを20ミリ秒に抑えたVRモード搭載

ciwi0xdw0aatl0n

今秋には独自のVRヘッドセットも発売

VRの話を続けよう。Android NのVRモードとともに発表されたのが新しいVRヘッドセットのイメージだ。最初のモデルは今秋にもリリースされる予定で、シンプルなコントローラーも付属する。

GoogleのDaydream VRヘッドセットの参考デザインが発表、ハードウェアの発売は秋から

Park and Pay - Device with Meter

アプリとウェブのギャップを埋める「Instant Apps」

もちろん発表されたのはVRだけではない。Android向けに発表された「Instant Apps」は、アプリをダウンロードしてインストールし起動するのではなく、小さな実行可能ファイルに分割することで、ウェブ上でURLをタップしてすぐに実行できる、ウェブとネイティブアプリのギャップを埋める存在になるようだ。

Google I/O: AndroidのInstant Appsはアプリとウェブページとのギャップを埋める新アプローチ

チャットやビデオ通話アプリもリリース

Googleではすでにメッセージングサービスの「Googleハングアウト」を提供しているが、今回のカンファレンスでは新たにAIとの対話を想定したテキストチャットアプリの「Allo」、Facebook競合とも言える1対1のビデオ通話アプリ「Duo」といったコミュニケーションアプリもリリースしている。

チャットにも音声にも対応、Googleがバーチャルアシスタントを発表

Google、新しいHDビデオ通話アプリ「Duo」を発表。AppleのFaceTimeに対抗

その他、今回のカンファレンスに関する記事は以下の通り。

Googleは機械学習アルゴリズム専用の高速チップを内製、なんと、8ビット機だ 

Google、大幅に高速化したAndroid Studioをリリース 

GoogleはNで始まる言葉をネットで募集…でもそれは最悪の企画だ 

UI刷新、キーボード搭載、スタンドアローンアプリなどAndroid Wearが大幅アップデート 

Google、Firebaseをモバイル開発者に向けた統一プラットフォームに進化させる 

第一回Google Play賞、最優秀アプリはHouzzへ、計10種のカテゴリーで優勝作品が受賞 

YouTubeがDaydreamプラットホーム用の専用VRアプリYouTube VRを披露、Cardboardコンテンツは過去のものに

Google、Awareness APIをリリース―Androidアプリがユーザー環境に反応するようになる 

Google、Firebaseをモバイル開発者に向けた統一プラットフォームに進化させる

o92a6390

Googleがモバイルアプリ開発に利用できる大量のクラウドサービスを提供する。これまでにもGoogleは、2014年に買収したFirebaseによってモバイルアプリ開発専用のプラットフォームとSDKを提供している。しかし今回、Firebaseに数々の新機能が追加され、Googleがもつ他のクラウド・ツールに統合される事によって同サービスが大幅に拡張されることが明らかになった。

本日開催のGoogle I/Oで発表された新しいFirebaseでは、既存のサービスを活用することによって機能の拡張を実現する。これまでのFirebaseは、今は亡きFacebookのParseにどこか似ているものだった。そのどちらも、データベース・サービスやユーザー認証機能、ホスティング・ツールを持つからだ。今回発表された新しいバージョンは、Googleにすでに存在するGoogle Cloud Messagingなどの開発ツールと、Firebaseがもつ新旧のサービスを組み合わせたものなのだ。

o92a6392

Googleは今回のアップデートによって、Firebaseを47万人の開発者たちを抱える統合されたアプリケーション・プラットフォームへと進化させる(Firebaseの買収時は11万人だった)。

今後のFirebaseは、高度に統合された分析サービス機能をもつことになる。Google Analyticsの開発チームによって構築された分析サービスがその例だ。アプリに数行のコードを追加するだけでサービスを実装することができ、ユーザーの基本的な情報をアプリからFirebaseに直接取り込むことが可能になる。それだけではなく、Google Analyticsと同様にアプリ内のパーツと数々のイベントを紐づけることもできる。これにより、ボタンが押された回数や購買行動などを把握することが可能だ。

さらに、Firebaseはこのデータを利用してユーザーのセグメント情報を構築し、ユーザーの行動をより詳細に分析したり、広告キャンペーンの効果を測定したりすることを可能にする。

pasted-image-0-3

今回開発チームがFirebaseに導入した2つの新機能では、このセグメント情報が重要な役割を持つ。その1つは、リモートでアプリ内のコンフィギュレーションが変更できる機能だ。これを利用することによってA/Bテストを実施することができるだけでなく、ゲーム内の特定のプレイヤーに制限時間を多く与えたり、アプリ内の購入履歴によって異なるCTA(特定のボタンを表示するなどの行動喚起)を与えることができる。

セグメント情報が活躍するもう1つの機能は、Firebaseの新しい通知機能だ。Firebase Cloud Messagingへの改名が発表されたGoogle Cloud Messagingがこの機能のベースとなっている(この改名は、GoogleにおけるFirebaseブランドの重要度を示すもう1つのサインだ)。GoogleはすべてのFirebaseユーザーに対し、iOS、Android、Webに対応した通知機能を無料かつ無制限で提供する。

o92a6408

セグメント情報と通知機能を組み合わせることで、アメリカやカナダのユーザーには英語の通知を送る一方で、その他の国のユーザーには翻訳された通知を送ることなどが可能になる。

さらにGoogleは、今回のアップデートよりFirebaseとCloud Test Labを統合することを発表した。Cloud Test Labとは実際のハードウェア上でアプリの動作テストを実施することができるツールであり、今後Firebase Test Labと改名される。新しいFirebaseでは、開発コンソールから直接このサービスにアクセスすることが可能だ。

Firebaseの新機能にはこの他にも、クラッシュ情報のレポート(このレポートは新しい分析サービスとも統合されており、クラッシュがユーザーに与えた影響を観察することができる)や、ダイナミック・ディープリンクをアプリ内に作成する機能などが含まれる。ダイナミックなリンクとは、ルールを設定して、ユーザーを誘導する場所を指定できるというものだ。例えば、ユーザーがすでにAndroidアプリをダウンロードしていれば、そのリンクはアプリを起動させる。一方で、ユーザーがまだアプリをダウンロードしていなければ、彼らをPlay Storeに誘導することが可能だ。

同じく新しいサービスであるFirebase Invitesでは、アプリのユーザーはFirebase App Indexing(これまでのGoogle App Indexing)と呼ばれる参照コードをシェアすることにより、アプリのコンテンツをGoogle Searchに組み込むことができたり、GoogleのAdWordsやAdMobの広告プラットフォームと統合させたりすることができる。

また、Googleは今回のアップデートよりFirebaseの新しい料金プランを導入する。ある程度のリミットまでは無料でサービスを提供するのと同時に、予測可能なコストを求めるアーリーステージのスタートアップには固定料金プランを、より大規模なアプリのためには、使った分だけ支払い料金プランをそれぞれ導入する。

Firebaseのチームが私に話してくれたところによれば、現在GoogleはFirebaseを公式推奨のモバイル開発プラットフォームとして位置づけているという。

かつて、Facebookはモバイル開発のためのクラウド・ベースのバックエンドをParseによって提供するという、Firebaseと同じような野望を持っていた。しかし結局、今年の初めにParseのサービス停止が発表されることとなった。Firebaseによれば、Googleはクラウド・プラットフォームにユーザーを呼び込むための手段としてFirebaseを位置づけており、FirebaseユーザーがParseのような結末を恐れる必要はないと主張する。結局のところ、FirebaseはGoogleがもつ多種多様のサービスを結びつける役割を持っている。それにはGoogleの広告ビジネスや、BigQueryなども含まれる(今後は同サービスを利用した生データの分析が可能になった)。Facebookのプラットフォームには、Parseと自然に抱き合わせることが可能なサービスが存在しなかったのだ。

[原文]

(翻訳: 木村 拓哉 /Website /Twitter /Facebook

やっぱりGoogleはDaydream対応VRヘッドセットを作っている

ciwi0xdw0aatl0n

Googleは、実物のVRハードウェアをステージで披露することなく、殆どの時間をこの秋Android Nに塔載するプラットフォーム、Daydreamの詳細説明に費して、噂に後押しされた大きな期待を打ち砕いた。

同社は今日(米国時間5/19)、I/OのVRセションの終りに、彼らが物理的ヘッドセットを、前日公開したレファレンスデザインに基づいて実際に開発中であることを、そっと発表した。

「最初のDaydream対応ヘッドセットとコントローラーは、レファレンスデザインに基づいてこの秋に発売される」とGoogle VR VPのClay BavorがI/Oの壇上で語った。「ちなみにこれは、パートナーがレファレンスデザインから作るというだけではなく、Googleも、コントローラーとヘッドセットを開発、提供するという意味だ」。

多くの人々が、昨日の基調講演でGoogleがスタンドアロン・ヘッドセットを披露することを期待していた。それはドタン場で中止になったのかもしれないか、DaydreamおよびAndroid Nとの統合の状況から見て、GoogleがそのVR地盤を、少なくとも当面、モバイルVRに求めていることは間違いない。

これまでに様々なデモやビデオで見てきた、コントローラーの仕様や物理的形状を踏まえると、驚くべきことは特にない。むしろ、もしヘッドヘットのデザインが、これまでに同社が見せたスケッチイメージと大きく異なるようなら驚きだ。

[原文へ]

(翻訳:Nob Takahashi / facebook

Google、Awareness APIをリリース―Androidアプリがユーザー環境に反応するようになる

2016-05-20-awarenessapi

スマートフォンがユーザーの位置、何をしているか、付近に何があるか、それに外の天気まで知っており、これらの情報を総合してユーザーの置かれた状況を把握して知的に反応できるとしたらどうだろう? 気味が悪いだろうか? すばらしく便利だろうか? われわれはすぐにどちらなのか実感することになりそうだ。

今週のGoogle I/Oデベロッパー・カンファレンスでGoogleはアプリのデベロッパー向けのツールを発表した。 このツールを利用するとデベロッパーは自分の置かれた環境を認識してそれに合わせて自らをカスタマイズするアプリケーションを開発することができるようになる。

たとえば、ユーザーがジョギングを始める時間に音楽ストリーミング・アプリを立ち上げると元気のいい曲がイアフォンに流れてくるというような仕組みだ。

またア薬局に寄って薬をピックアップするように促すリマインダー・アプリも登場するかもしれない。しかもこのリマインダーが流れるのは薬局の近くを通りかかり、かつ薬局がオープンしている時間帯に限られる。

デベロッパーこうした本当の意味でスマートな」アプリを開発できるようにするため、Googleは新しいAwareness API〔環境認識API〕を発表した。このツールはI/Oカンファレンス終了後まもなく利用可能になるはずだ。

実質的に、このAPIはこれまでも他のAPIを通じて可能であった多くの処理を統合するものだ。たとえばデバイスの位置情報にアクセスして置かれた場所を知り、またユーザーが車を運転していることを知るなどの処理だ。さらに付近のWiFiタワーやデバイスについての情報も収集できる。ユーザーがAndroid Wearを搭載したスマートウォッチをしていればその情報にもアクセスできるし、Chromecast(Google Cast)やGoogleが今回発表したAmazon Echoに対抗するスマート・スピーカー、 Google Homeとも会話する。

puzzle

この機能がアプリに応用された場合、どんなことが可能かについて、Googleは上で述べたような例に加えていくつもの利用法を提案している。

たとえば、目覚まし時計アプリがスマート化され、ユーザーが前夜ベッドに入った時間と当時予定されている最初のミーティングの時間を総合して起床に最適の時間を決めることができるようになるという。そして目を覚ますと大型テレビに接続されたChromecastが今日の天気を画面に出してくれるわけだ。

アシスタント・アプリはカレンダーから今日の予定を読み取り、自宅の位置と移動方法を総合し、Google Homeを通じて「そろそろ出かける時間です」と教えてくれる。

スマート・ヘルス・アプリをインストールしておけば、ジョギングを始めると同時に、ユーザーがモニター機能をオンにするのを忘れていても、自動的にモニターを始めてくれる。

ユーザーが自然の中にいればランチャー・アプリがカメラ・アプリをスクリーンのいちばん目立つ場所に大きく表示してくれる。ランチャーはユーザーがきれいな景色や生き物に囲まれていればたくさん写真を撮るだろうと予期するわけだ。しかも写真を撮れば活動の種類や天候をタグとして付加するというボーナスも付く。こうしたデータは写真のメタダータの一部となるので、、後で「晴れた日、ジョギング中、ネイチャー」というような条件で簡単に見つけ出すことができる。

こうした機能の一部を実現するアプリはこれまでも存在した。しかしそのためにデベロッパーには複数のAPIを使うという手数がかかった。しかもGoogleによると、常に複数のAPIを使うと、場合によっては、アプリが遅くなり、メモリー容量を食い、バッテリー駆動時間を減らすなどの望ましくない事態を招く可能性があったという

これは非常に腹立たしい副作用で、ユーザーはそうしたアプリをアンインストールしてしまうことになりかねない。

apis-around-you

新しいAwareness APIは単一のAPIでありながら、アプリが必要とする情報をすべて提供することが可能だ。それと同時にメモリーや電力の使用量などシステムの状態を最適に保つ手助けもしてくれる。これによってデバイスがクラッシュしたりバッテリーを使いきってしまうなどの現象を防ぐことができる。

Awareness APIは2つの異なる部分に分けられる。一組はアプリが現在の状況に対応できるようにする(Fence API)。もう一組はユーザーが置かれている現在の状況に関連する情報を求める(Snapshot API)。

Googleが披露した上述の例はそれぞれ興味深いが、オンライン不動産業のTruliaなどのパートナー企業が実際に示した例はどちらかというと地味なものが多かった。下の例でオープンハウスを実施している物件の近くを通りるとそれを教えてくれるというもの。

Screen Shot 2016-05-19 at 12.29.24 PM

ただしラテン音楽のストリーミング・アプリ、Superplayer Musicの例は楽しそうだ。このアプリはユーザーがどこで何をしているかに応じて適切な音楽を推薦しようとする。たとえばこれからジムでトレーニングを始めようとしているときと、車で長距離の運転をしなければならないときでは推薦される楽曲が異なる。

Screen Shot 2016-05-19 at 12.30.48 PM

ランチャー・アプリのNovaは環境を認識できるよう、全面的にアプリを書きなおしている。

Screen Shot 2016-05-19 at 12.29.41 PM

環境認識では過去にも似たような試みはあったが、Googleの例はAPI1を通じてアプリそのものに緊密に統合されるという点が理にかなっている。置かれた状況についていちいちユーザーに入力を求めるのではなく、カレンダーなどを通じて自動的に情報を収集することでわずらしさが大幅に軽減され、スマートさが増してている。近くのAndroidデバイスと協調し、その情報も利用したりコントロールしたりできるというのも強みになるだろう。

デベロッパーはこちらから初期利用に参加できる。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Android Nの名前はGoogleが決めずにネット上の一般公募になった

o92a6165

Androidの次のリリースの名前を決めるのは、Googleではなくてあなただ。

これまで、Androidの各リリースyは、Marshmallow, Lollipop, KitKat, Jelly Beanなどなど、甘いものの名前が付けられた。アルファベット順に。

そしてプレビューは、前のバージョンの次のアルファベットで呼ばれた。えー、前のMarshmallowの次といえば、Mの次のNだ。そして最終リリースは、それが出る直前に完全な名前が発表される。

今回、Android Nは“Nutella”という名前になる、と噂されていた。その線は今もあると思うが、でもGoogleはAndroid Nの早すぎるリリースで驚かせたあと、今度はネーミングの方式を変えるようだ。従来のトップダウン型でなく、Androidの次のバージョンの名前は一般公募にする、とGoogleが今日(米国時間5/18)発表した。

Googleのエンジニアリング担当VP Dave Burkeに、それは良くないアイデアだ、数週間前にはBoaty McBoatfaceの例があったじゃないか、と言ったら、彼は、最終的に名前を決めるのは会社だ、と述べた。

しかも、Android Nのネーミングの公募は、すでに数か月前に行われている。そのときは、Napoleon, Nougat, Noriなどの名前が提案されている。

個人的には、インターネットの投票で、Boaty〜〜のときみたいに、とてもひどい名前に決まるのが待ち遠しい。Googleはそのときにかぎり、それを捨てるだろう。

 

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのDaydream VRヘッドセットの参考デザインが発表、ハードウェアの発売は秋から

ciwi0xdw0aatl0n

2012年のGoogle I/Oの圧倒的な主役は、多くのスカイダイバーやバイカー(自転車乗り)やクライマー(登山家)を動員してデモを行ったProject Glassだ(今から思えば)。 その2年後のGoogleは、来場者全員にCardboardヘッドセットを進呈し、その年のI/Oはそれでキマリ、となった。さらにその後それは、某日刊紙が読者に無料で配る景品になった。

スマートグラス(glass,眼鏡)とVRヘッドセット、この二つは、どちらも大成功、とは言えなかったが、ひとつだけ確かなのは、Googleが人間の顔にコンピューターの画面を貼り付けることによって、知覚の体系を変えようとしていることだ。

当然、その執念は1〜2年で立ち消えになるものではない。まさに予想されたとおり、今年の同社はVRハードウェアを一段と進化させた。その“Daydream”と呼ばれるプラットホームと、AndroidのニューバージョンAndroid NのVRモードと共に、最近噂でもちきりだった新しいヘッドセットが披露された。まだ、サードパーティのデベロッパー向けの、最小限の機能しかない参考設計だが、サードパーティのハードウェアデベロッパーもターゲットとしてねらうヘッドセットとコントローラーの概念モデルがデビューした。

今のところ情報は乏しいが、しかし同社によると、今は“複数の”デバイスを準備中で、最初の装置が秋に出る。Googleによると、スペックは光学的側面と快適性の両方に配慮し、ユーザーが期待する、あるいは気になる点をすべてカバーしている。VRのユーザー体験そのものも、Cardboardの素朴なレベルを卒業して長時間楽しめるものになっている、という。

controller__1024

コントローラー(上図)は、とてもシンプルな楕円形で、いくつかのボタンと、クリックしたりスワイプできるタッチパッドがある。内部には方向センサーがあって、より没入的な動きの制御を可能にしている。Googleは今日のI/Oのステージで、まるで“マジック”のよう、という言葉さえ使った。また、柔軟性にも富むので、実際にそれを見たサードパーティデベロッパーたちは喜んでいるそうだ。

何度も言って申し訳ないが、このハードウェアに関する情報は今のところ希薄だ。でもGoogleは、パートナーの名を誇らしげに挙げた。Google PlayのDaydreamバージョンもあるから、The New York TimesThe Wall Street Journal、CNNなどの既存のVRアプリも、ふつうに参加できる。

Hulu, Netflix, HBO, それにIMAXなども、GoogleのVRのコンテンツパートナーだ。ゲームのUbisoftとEAもそう。Googleはスマートフォンを”Daydream対応”にするためのスペックも公表しており、この新しいヘッドセットが処理能力、センサーの機能、ディスプレイの仕様、すべてにおいて、同社の新しいVRプラットホームとしての十分な力を持っていることを、示唆している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleはNで始まる言葉をネットで募集…でもそれは最悪の企画だ

naw

製品の名前をネットで募集するなんて、最悪の愚行ではないか? それは、Nで始まる名前、とだけ指定されている。このたびのGoogleのお人好しぶりは、度が過ぎているのではないか?

まず第一に、何かのネーミングをネットで公募するというやり方は、敗者のシナリオだ。たとえばイギリスの極地調査船Sir David Attenboroughは最初、公募でBoaty McBoatfaceという珍名をもらった。インターネットは、無責任が蔓延する世界だ。だから名前の公募などはつねに、目立ちたがり屋たちによるジョークのネタにされる。

インターネットで名前を募集するのは愚行として笑われるだけだが、でもそこに文字の制限が加わると愚行がさらにエスカレートする。それはまるで、言葉の珍芸大会のようになる。

この、退廃と放蕩が支配する時代に、Nで始まる言葉をインターネットで募集するのはグッドアイデアだ、と信ずる人たちがひとにぎりでもいることは、心温まる光景かもしれない。神よ、この純真なお馬鹿さんたちに祝福を!

ちょっと真面目になって言えば、Googleのチームは重要なことを忘れているのではないか。企業内における多様性が尊重される、と言われる今日において、しかしGoogleでは、これまでのどのミーティングにおいても、Nで始まる言葉をクラウドソーシングするというアイデアに対して、“おいおい冗談かよ。応募の洪水の中からたった一つの言葉を選ぶために、フルタイムのモデレーターを何人も貼り付けることになるぜ”、と言う人は一人もいなかったのか?

いたとしても、無視されたのだろう。このアホらしい公募キャンペーンに至りついてしまった、具体的な状況は想像できない。とにかく、重大なこととして、真剣な検討は為されなかった、と思われる。

faq
[名前の使用が有償でないこと。募集期間は2016年5月18日PT午前9時から2016年6月8日PT午後11時59分まで。この公募事業の唯一の意図は、エンターテイメントである。応募された名前は審査されないし、賞金や賞品もない。]

応募された名前の提案がライブでブロードキャストされることは、なさそうだ。このFAQにも、“エンターテイメントが唯一の目的”、と書かれている。例の人種差別的用語の問題も、Google側に何かの意図があったわけではない。

最後にお願い: この無駄で無意味な企画を葬り去るための会議が近く開かれたら、ぜひ、本誌の独占特ダネにさせていただきたい。tips@techcrunch.comまで、ご一報を。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google、大幅に高速化したAndroid Studioをリリース

screen-shot-2016-05-18-at-2-02-27-pm

Googleが、開発環境であるAndroid Studioの新版をアナウンスした。いろいろとアップデートが施されているが、とくにうれしいのは大幅なスピードアップがなされていることだろう。マウンテンビューで行われたデベロッパー・カンファレンスにてアナウンスされたものだ。

Googleのような企業にとって、開発環境を快適なものにしていくのは非常に大切なことだ。開発環境が整っていてこそ、Androidアプリケーションの開発者も増えるわけだ。優れたアプリケーションがAndroid版で先行してリリースされれば、アプリケーションストア同士の競争の中で優位に立つこともできる。そうなれば、iPhoneやiPadではなく、Androidを選ぶ人も増える可能性があるわけだ。ようするに、どちらの環境によりよいアプリケーションが存在するのかということが、とても大切なわけだ。

アップデートされた内容をみてみよう。

  • エミュレーターの速度が、Android Studio 2.1と比較して3倍になった。エミュレーターを使ってアプリケーションのチューニングを行なっていた人にとっては、速度面での不満が大きかった。そうした人にとって、まちがいなく朗報だ。
  • ビルド速度が高速化した。ビルドを行なっているときは、コードを書き加えたり、新機能を追加したりなどということはできないわけで、ほぼ無駄な時間となっていた。これが改善されたわけだ。
  • 「Test Recording」の機能が追加された。これは開発者がアプリケーションをチェックするのと同時に、自動的にテストレポートを生成してくれる機能だ。過去のバージョンで動作していたはずの部分がおかしくなったような場合、より迅速に原因を確認することができるようになる。
  • さまざまな機能追加を行った、新しいレイアウトデザイナーが搭載された。開発者が考える通りのエクスペリエンスを提供することが容易となる。
  • 当然ながら、Android Nをサポートしている。

新機能というよりも改善ポイントが多く、目新しさの面では物足りなく感じる人もいるかもしれない。しかしこうしたパフォーマンス改善などによってこそ、開発者たちがAndroid Studioを使い続けてくれることになるわけだ。ちなみに、現在Google Playに登録されているアプリケーションのうちの92%は、Android Studioで開発されているのだそうだ。

新しいAndroid Studioのベータ版は、本日から利用可能となっている。

原文へ

(翻訳:Maeda, H

Googleは機械学習アルゴリズム専用の高速チップを内製、なんと、8ビット機だ

tpu-2

GoogleのデベロッパーカンファレンスI/Oにおける発表によると、同社は機械学習のアルゴリズムの高速化に特化した独自のチップの構築を最近開始した。

tpu-1

その特製のチップはTensor Processing Units(TPU)と呼ばれ、同社のテクニカルインフラストラクチャ担当SVP Urs Holzleによれば、すでに同社のデータセンターで1年あまり使われている。またGoogleによれば、それは“性能が大幅に最適化されているので、1電力単位(ワット)あたりの機械学習実行効率がきわめて高く”、しかも、“通常なら7年はかかる技術進歩を1年で達成している”そうだ。

機械学習アルゴリズムの実行におけるTPUの高速性は、一般的なCPUやGPUほどの計算精度が要らないことにも由来している。つまり32ビットではなく8ビットで十分なため、演算に要するトランジスタも少なくてすむ。

Googleの音声認識サービスを利用すると、ユーザーのクェリは今すでにTPUが処理する。またデベロッパーが利用するGoogleのCloud Machine Learningサービスも、TPUによるサービスだ。最近囲碁の世界チャンピオンを負かしたAlphaGoも、そのプロセッサーはTPUだ

Holzleによると、特定のアルゴリズムのきわめて高効率な実行を求めるなら、柔軟性に富むFPGAを利用することは最適ではない。そこで、専用チップの内製に踏み切った。

チップを実際に製造しているファンドリーの名前は公表されなかったが、Holzleによれば、今はプロダクション(本番稼働)において二種類のリビジョンを使っており、それぞれが異なるファンドリーで作られている、ということだ。

Googleはすでに、同社のオープンソースの機械学習アルゴリズムTensorFlowを公開しているが、TPUが今動かしているのも、当然かもしれないが、そのライブラリのコードだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Android Nの新プレビュー版はベータ版品質―アップデートはバックグラウンド、VRモードを標準搭載

2016-05-19-android-n

現在Google本社に隣接するショアライン・アンフィシアターで開催中のデベロッパー・カンファレンス、Google I/Oのキーノートで、予想どおりAndroid Nが発表された。この次世代Android OSはGoogleのモバイル・システムの要となる存在だ。

Android NでGoogleは従来のアップグレードのサイクルから大きく外れた。 GoogleはこれまでI/Oで次世代Androidの最初の発表を行ってきた。しかしAndroid Nのプレビュー版は数カ月前にリリースされている。またNはon-the-airでアップデートできる最初のプレビュー版となった。そうした経緯から、かつてない数のユーザーがテストに参加しているはずだ。

android n

今日(米国時間5/18)開幕したI/Oデベロッパー・カンファレンスで、GoogleはAndroid Nの3回目のプレビュー版を発表した。 同時にこれは「ほぼベータ版の品質」に達しているとGoogleが考えた最初のプレビュー版だ。前回のリリース同様、今回のプレビュー版もNexus 6,、9、5X、 6P、Nexus Player、 Pixel C、Android One (General Mobile 4G)に対応する。これらのデバイスを持っている場合、こちらから登録できる。

製品版のリリース日時はまだ明らかにされていないが、Googleによれば「今年の夏の後半」を予定しているという。

GoogleのAndroidのエンジニアリング担当副社長、Dave Burkeは私のインタビューに対して「Nはユーザーのメインのモバイル・デバイスに利用できるレベルに達していると考える」と語った。私の経験では、Googleの場合、最初のリリースでもかなり使い物になった。しかしBurkeは「たしかに多くのユーザーが初期ビルドにしては出来がいいと驚くが、それでも致命的なバグが残っており、われわれのチームはそれらを修正している」と語った。

そういう次第で、今回Googleの発表の多くはすでに知られている内容だろう。 たとえば、Android Nはマルチウィンドウをサポートしている(これによってPixel Cのようなタブレットが生産性ツールとして使い物になるはず)。またグラフィックスAPIが改良されている。高速なジャスト・イン・タイム方式のコンパイラーはパフォーマンスを大きくアップするはずだ。Burkeによれば、アプリのインストールは75%速くなり、サイズも大幅に小さくなるという。

pasted image 0 (1)

当然ながら、Googleは最初のプレビューに搭載予定の新機能のすべてを詰め込んできたわけではなかった。

たとえば、新しいAndroid Nには標準でVRモードが搭載されることが判明した。このモードはVRアプリが優先的にCPU、GPUにアクセスできるようにする。またVRヘッドセットを装着した場合に問題となるユーザーの頭の動きに対する画面表示のレイテンシーを最小限にとどめるソフトウェア技術もいくつか含まれている。Googleによれば、VRモードはCardboardヘッドセットにNexus 6Pを装着した状態でレイテンシーを100msから20msに短縮するという。これは没入感を大幅に改善するだろう。VRプラットフォームについてTechCrunchはこちらに詳しい記事を掲載している。

また今回GoogleはOSアップデートのプロセスを一新した。Androidデバイスはバックグラウンドで新OSをダウンロードし、インストールする。ユーザーがデバイスを再起動すると新OSに切り替わっているわけだ。Androidの更新が終わるのを何分も待つ代わりに、単に再起動をかけるだけよくなる。更新は見えない場所ですでに行われており、ユーザーの利用を中断しない。

このバックグラウンドでの更新はすでにChrome OSで実施されており、Burkeは「両チームはアップデートの改良で緊密に協力している」と語った。

この改良で、Androidデバイスはユーザーにアップデートがあったことを知らせ、新OSをインストールするよう促すのではなく、ユーザーがデバイスを再起動するのを待つように変更された。BurkeによればGoogleの調査でユーザーはほとんどは月に1度以上デバイスを再起動しており、Chrome OSの経験では数ヶ月で99%のアップデート率を達成できたという。

ユーザーが指紋認証その他の認証手段を利用している場合は、再起動後にOSが更新されている場合でもAndrodiはユーザーにいちいちパスワードの再入力は求めない。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Google I/O: AndroidのInstant Appsはアプリとウェブページとのギャップを埋める新アプローチ

Park and Pay - Device with Meter

モバイルのネーティブ・アプリはいろいろな面でブラウザ・ベースのウェブページよりも優れたユーザー体験を提供できる。しかしユーザーがネーティブ・アプリを利用するためには検索などによってまずその存在を発見し、ダウンロードし、インストールするのを忘れないようにしなければならない。Googleはアプリとユーザーのこうした関係を根本的に見直そうとしている。

今日(米国時間5/18)、Google本社に隣接する野外劇場でスタートした I/O 2016デベロッパー・カンファレンスでGoogleはAndroidアプリを次世代に進化させる道筋を発表した。

Instant Appsはは反応の速いモバイルアプリとそれより遅いウェブアプリとのギャップを埋めるもので、たとえユーザーがモバイルアプリを事前にインストールしていない場合でも、URLをタップするだけでほとんど即座にアプリを起動できる。ただしInstant Appsの普及のペースはゆっくりしたものになりそうだ。

要するに従来の方式ではアプリをダウンロードしてからインストールするという手間がかかる。これには時間も食う。しかしInstant Appsを利用すれば、デベロッパーはアプリを小さなコンパートメントの実行可能ファイルに分割し、数秒でスタートするようにできる。

GoogleのAndroidのエンジニアリング担当副社長、Dave Burkeは私のインタビューに対して「Instant Appsはアプリの将来に対する考え方を全面的に改めるものだ」と語った。Instant Apps開発の動機は、処理が高速なネーティブアプリのユーザー体験をウェブサーフィンの便利さに近づけようとするものだった。Burkeは「ウェブページは短命だ。ユーザーはあるページを読んでしまえば、それきりで戻って来ないのが普通だ。ところが現在のネーティブ・アプリは大きすぎて使い勝手が悪い。ユーザーはごく一部の機能、たとえばそのページの情報しか必要としていないのに、アプリにはすべての機能が詰め込まれがちだ」と語った。

O92A6441

GoogleのMichael SiliskiとFicus Kirkpatrickが私に説明したように、新しいアプリはブラウザでウェブページを開くのと同じ手軽さでモバイル・アプリを起動させようとするものだ。チームは新アプリのサイズについ調整を繰り返しているところだが、SiliskiとKirkpatrickはInstant Appsのダウンロードは4MB以内となることを期待している。

ユーザーの立場からみると、新しいアプリはこういうことになる。ある都市を初めて車で訪問し、地元の自治体が提供する有料のパーキングメーターを利用しようとしているとしよう。ユーザーはAndroidスマートフォンをパーキングメーターにかざす。すると内蔵のNFCチップが必要な情報を読み取る。ほとんど同時にInstant Appのパーキング・メーターアプリが起動する。ユーザーは自治体のパーキング・メーター・アプリを事前にインストールしておく必要がない(あるいは後でアンインストールする必要もない)。

B&H - Device

Googleのエンジニアの説明によれば、このアプリのポイントは使い勝手をできるかぎりスムーズにすることだ。そもそもスマートフォン自体にログインしているのだからユーザーはGoogle Walletによる支払いができる。またパーキングの利用を終えればユーザーはもうそのアプリを必要としない。「ネーティブ・アプリ化するのが適当なサービスも多い。しかし最初にアプリをインストールしなければならないというのはユーザー体験を大きく損ねている」とSiliskiは説明した。

現在、GoogleはBuzzFeedの協力を得て実験を行っている。Buzzfeed Videoアプリがそれだ。 またB&Hと提携してデベロッパーがこの新方式によるいわば「その場で起動する使い捨て」のアプリを有効に利用する例を示している。

デベロッパーがInstant Appsを開発するためにはそれなりの準備が必要だ。ただしKirkpatrickの説明によれば、これはゼロから新しいくアプリを書き直すようなものではなく、既存のアプリのアップグレード程度の作業量だという。ソースコードはそのまま利用できるし、デベロッパーによってはわずか1日でInstant Appを作れるだろうという(もちろん簡単なアプリの場合)。

O92A6448

Instant Appsはセキュリティーが保証されたサンドボックス内で作動する。Instant AppsはAndroid Jelly Beanまで後方互換性がある。

BurkeはInstant Appsと現在注目を集めているボットを結びつけるアイディアも持っている。つまりボットのような複雑な処理をする場合でも、ユーザーに大きなアプリを事前にインストールさせる必要なしに、ウェブページを開くのと同じ使い勝手で利用できるようになるという。ただしBurkeは「ボットは言われているほど便利な存在ではない」と言う。必要な情報を得るまでの段取りが非常に面倒で、しかも大量に文章を入力しなければならない場合が多いからだ。それに引き換え、「Instant Appsならダウンロードやインストールといったネガティブな面をボットから取り除くことができる」という。

しかしデベロッパーの作業を介する必要があるため、ユーザーが大量のInstant Appsを見るようになるにはある程度の時間がかかるだろう。現在は限定されたベータ・テスターの協力を得ている段階で、Googleはデベロッパーからのフィードバックを広く求めるために今日の発表を行い、機能の一端を紹介した。Instant Appsのアプリが一般ユーザー向けに登場するのは今年の後半になるという。Googleでは引き続き来年もIntant Applsを利用するデベロッパーの拡大を見込んでいる。

動きの激しいモバイルの世界にあっていささかゆっくりしたペースのようだが、Googleではこの機能の利用に難しい側面があるとしている。「デベロッパー側の作業には相当の変更が予想される。われわれは新機能を正しく使ってもらいたい」とSiliskiは語った。

Googleはこれまでもネーティブ・アプリとウェブページの間のギャップを埋めようと努力してきた。たとえば、Google検索の結果にAndroidおよびiOSのネーティブ・アプリのコンテンツが含まれるようにしたし、アプリをインストールしていなくてもストリーミングが表示されるなどの努力をしている。 しかしInstant Appsは(ダウンロードしてインストールした後に初めて使い始めることができる」というネーティブ・アプリの限界を根本的に打ち破ろうとするものだ。

現在App Storeには膨大な数のアプリが登録され、ユーザーはすでにありったけのスペースをアプリに占領されており、新しいアプリのインストールには消極的になっている。2015年の調査によれば、一般ユーザーはスマートフォンに接する時間の85%をアプリに費やしているということだ。しかしそうしたサードパーティー製アプリのうち、日常的に繰り返し利用されているのはほんのわずかに過ぎない。

ユーザーの状況がこうしたものであるため、デベロッパーにとってはネーティブ・アプリをインストールしてもらうのがますます狭き門になりつつある。正しく利用できれば、Instant Appsはデベロッパーの直面する難問を解決する有力な手段となるだろう。

画像: Jeff Chiu/AP

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Google Cardboard、アプリのダウンロード数が5000万を突破

screen-shot-2016-05-18-at-1-44-20-pm

Google Cardboardアプリのダウンロード数が、この4ヵ月間で倍増した。

今日(米国時間5/18)I/Oの壇上で、GoogleのVR責任者、Clay Bavorは、Google PlayストアのGoogle Cardboardアプリのダウンロードが、5000万件を超えたと語った。1月にはわずか2500万ダウンドードだった。

「これはかなり良い成績だと思う、単なるダンボールにしては」とBavorは言った。

Googleは以前、500万個のCardboardヘッドセットか消費者の手に渡ったと報告した。今回Baovorは、ヘッドセットの実数については新たなデータを公表していない。「何百万台も」が出回っていると繰り返すだけだった。

他のモバイルVRメーカーが、Googleの手間なしVRプラットフォームに追いつくための道は長い。先週Samsungは、Gear VRプラットフォームのユーザーが先月100万人を超えたと発表したが、Oculusストアにヘッドセット用のアプリが250本しかないことも明らかにした。

Googleは今日、バーチャルリアリティーへの野望に関連する様々な発表を行った。Android Nの低遅延Daydream VRモードや、将来のGoogle Cardboardハmドウェアの新しいレファレンスデザインもある。

[原文へ]

(翻訳:Nob Takahashi / facebook

Google I/O 2016のキーノートを最初からライブブログで実況中継する(合衆国西部午前10時、東部午後1時、日本19日午前2時)

io-head

今日はGoogle I/Oのキーノートの日だ! Googleがこれまでの数か月、ひそかにやってきたものがすべて、どばっと公開されるのだ。

Androidのアップデート! VRのヘッドセット(だろうねきっと)! ほかには?

本誌TechCrunchは予想記事を載せたけど、予想外のサプライズもいくつかあるはずだ。だからこれから、ライブブログで、実況をじっくりお伝えしたい。

キーノートの始まりは太平洋時間午前10時(東部時間午後1時))〔日本時間5月19日午前2時〕の予定だから、ライブブログの実況はその直前から始めよう。何一つ見逃さないためには、お早めにどうぞ。〔原文へアクセスしてください。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))