明日から始まるGoogle I/O 2016の発表テーマを予想する

2016-05-18-google-io

Googleは年に1度、Androidの新バージョンから自動走行車まで(秘密の守られ方はそれぞれだが、ともかく)厳重な秘密にしてきた新プロジェクトをお披露目することにしている。そして明日がその日だ。Google I/Oのキーノートが予定されている。さて何がテーマとなるのだろう?

もちろん確かなことは分からないが、あらゆる種類の噂が渦を巻いている。その中には当たっているものもあるだろう。

われわれは明日朝10時から〔JST 5/19 AM2:00〕からGoogle I/Oを会場で取材する予定だ。ライブブログも用意されている。ここでは何がテーマになりそうか予想してみよう。

Android Nの詳細

android n

これはいわば既定事実だ。Googleは以前からAndroid Nについて語ってきた。これはAndroid OSの次世代メジャー・プラットフォームで、デベロッパー向けにプレビュー版が提供されている。

I/Oではリリース日時、新機能など新バージョンの詳細が発表されるのが通例だ。

われわれもすでにAndroid Nについては繰り返し報じてきた。新OSにはディスプレイの分割表示(LGとSamsungはすでに分割表示できるアプリを発表しているがOSレベルで公式にサポートされたものではない)、通知のデザインの改良、プルダウン窓を利用したインライン返信、電力消費を自動的に低減させる新たなロジックなどが含まれている。

興味の中心は、Google CardboardやSamsung GearVRのような拡張現実システムがAndroid NではOSレベルでサポートされるかどうかという点に集まっている。

Android Wearのアップデート

Android Wear Watchfaces

Android Wearが発表されてから数ヶ月経つのでそろそろ何らかのアップデートがあっていい時期だ。

事実、 I/Oの2日目には「Android Wearの新機能は?」というパネルが用意されている。

ChromebookのAndroidアプリ

chromebooks
スクリーンショット: InauspiciousPagan on Reddit

情報を総合すると、ChromebookノートパソコンでAndroidアプリが作動するようになることは間違いなさそうだ。それも数十個などではなく、Androidアプリのすべてではないとしても何百万のアプリが作動するようになる。

誰かがredditに 、「AndroidアプリをChromebookで作動させる」というチェックボックスのスクリーンショット投稿してからまだ1月にならない。

今回のI/Oかどうかは別として、この機能が登場するのも確実だ。

Google独自のVRヘッドセット

android-cardboard

われわれはこのところずっと Googleのウルトラ低価格な段ボール製VRヘッドセットがこれだけ成功しているからには、もう少し高機能で造りもしっかりしたシステムが登場してもいいはずだと考えてきた。

しかし具体的にどんなものかとなると推測は各人各様だ。【略】

Wall Street Journalの記事によれば、Googleは完全に独立な(スマートフォンやパソコンや煩わしいケーブルを一切必要としない)拡張現実ヘッドセットを開発しているという。

さてどうなるだろう?

Android VR

cardboard-iphone

スタンドアロン型のVRヘッドセットが開発されているなら、そのプラットフォームがあるはずだ。

先週、GoogleはAndroid VRの一端をちらりと見せた。GoogleはAndroidにVR能力を持たせることによってあらゆるガジェット、サービスにVRを導入する考えらしい。

プロジェクトTango

このプロジェクト自体は最近始まったものではない。これはコンピューター・ビジョン・システムでスマートフォン(やVRヘッドセット)に現実世界での位置を正確に認識させるためのテクノロジーだ。動く対象にマーカーを貼り付けたり外部センサーを利用したりせずにすむコンピューター・ビジョンなら位置認識以外にもありとあらゆる応用が考えられる。

Amazonに対抗するGoogle Chirp

音声認識で作動する家庭用アシスタントのAmazon Echoは大人気だ。Echoに話しかけるとUberを呼んでくれる! 天気、交通情報、ニュースを教えてくれる! 明かりも消してくれる!

音声認識が日常生活を便利にする技術であることはわかった。では音声認識を得意とするのはAmazonの他にどこだろう? もちろんGoogleだ。Uberを呼んだり(買収したNestを通じて)電気を消したりするテクノロジーに優れているのもGoogleだ。【略】

噂や情報を総合すると、GoogleはコードネームChirp〔おしゃべり、さえずり〕というEchoのライバルとなるシステムを開発中だという。I/Oはそのデビューの舞台としてうってつけだ。

そして…

それは明日のお楽しみだ。われわれは早くから会場入りする(私とTito はTechCrunchのSnapchatアカウントを利用してリアルタイムで報告する)。ライブブログは午前10時前にはスタートさせる。では明日!

(原注) I/Oは開催場所が変わった。これまではサンフランシスコ最大のコンベンション・センターの一つ、Moscone Centerで開催されていた。今年の I/OはGoogleのマウンテンビュー本社キャンパスに隣接するショアライン・アンフィシアター(Shoreline Amphitheater)という野外劇場に変更になった。これまでにも耳を聾する大音量のコンサートがたびたび開かれてきた会場だ。われわれはI/O 2016をしばらく前からGoogle Warped Tour”と呼んでいる。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

I/O 2014開催近づく―Googleデベロッパー・カンファレンスのテーマはデザインとウェアラブル

今年もGoogleの大掛かりなデベロッパー・イベントの開催が近づいてきた。多くの読者がこの2日にわたるイベント〔日本時間6/26-6/27〕で何が発表されるのか興味をお持ちだろう。

今年のGoogleはアプリのデベロッパーだけでなく、デザイナーやマーケッターにもGoogleの戦略に関する詳細な情報を伝えようと力を入れているようだ。しかし一般エンド・ユーザーに直接関連する発表も数多く用意されているらしい。

Android Wear

事情に通じた情報源によれば、今年のI/Oの重要なテーマの一つはGoogleが今年3月に発表したAndroid Wearだという。このプラットフォームはスマートウォッチなどウェラブル・デバイスのためのAndroid OSの拡張機能だ。

メーカー数社がAndroid Wearを利用したスマートウォッチをデビューさせようとしている。なかでもMotorolaとLGはこの夏にMoto360 とLG G Watchをそれぞれローンチさせると発表している。暦の上ではすでに夏だから、I/Oでこれらのプロダクトが正式にお披露目されるのはまず間違いない。同時にAndroidWearの詳細についても多くのことを知ることになりそうだ。

Android車載システム

Appleは今年に入ってiOSの車載システム、CarPlayの普及に大いに力を入れている。当然、Googleも独自の車載モバイル・システムでAppleにに対抗してくるはずだ。1月に概要が発表され、GM、Audi、Hyundaiと提携しているものの、Android車載システムについてはまだ具体的な情報がほとんどない。しかし今年中にいくつかの新車種に搭載されるという。

GoogleはこのAndroid車載システムについて近く大規模なプレスイベントを計画しているらしい。

Android TV、ホームAndroid

今年、GoogleはIoT〔モノのインターネット〕などを通じてAndroidを通常のモバイル・デバイス以外の分野に拡張することに全力を挙げている。Goolge TVなどがその一例だが、Android TVプロジェクトも進行中といわれる。これもI/Oで発表されるかもしれない。

Android TVはGoogle TVとは異なりアプリ自身の機能よりもコンテンツに主題があると言われている。ただし具体的な内容はまったく分かっていない。Googleは最近子会社のNestを通じてDropcamを買収した。Nestは急速にホーム・オートメーションのハブに成長しつつある。Nest関連の発表もあるだろう。同時にGoogleのプラットフォームを利用したサードパーティーのプロダクトの紹介もあるかもしれない。

Android 5.0

Androidの新バージョンが今回のカンファレンスで発表される可能性は低いかもしれないが、それがどんなものになりそうかヒントがつかめるかもしれない。最近報じられたQuantum PaperはAndroidアプリに新しい統一的UIを導入しようとする野心的なプロジェクトで、Polymerは再利用可能なそのインターフェイス要素だという。

Quantum PaperとPolymerはAndroidアプリばかりでなく、iOSやGoogle独自のハードウェアも含めたさまざまなデバイスのインターフェイスの新しいデザイン・ガイドラインとなるようだ。今年、Googleはデザインの改良と統一化に全力を挙げるものとみられる。

デベロッパーの再定義

当然ながらソフトウェアのデベロッパーを中心とするものの、Googleは今年のI/Oではターゲットしてデザイナーやマーケッターにも重点が置かれるようだ。つまりアプリを開発して流通させるプロセスに関わる人々全てを対象とするということらしい。

われわれは現地取材を行い、ライブ・ブログも含めて報告する予定だ。

[原文へ]

(翻訳:滑川海彦 Facebook Google+


今年のGoogle I/O申込みは4月8~10日:あなたに運が向きますように

Googleは2014 I/Oデベロッパー・カンファレンスで、いつもと違うことをやっている。今年は先着順受付を行っていない。それは過去に異常な押し合いとサーバーエラーを引き起こしてきた。代わりに2日間の受付期間が設けられ、その間は誰でも登録が可能で、後にGoogleが応募者全員からランダムに選択する。

それではちょっと運に頼りすぎると感じたあなたは、Googleが作ったこのステキなI/O ウェブサイトを見て元気をだそう。そこにはインタラクティブな「実験」があり、それはかなり単純な筋書きだが、今年のショウの焦点を暗示しているのかもしれない。機械学習はテーマの一つである可能性が高い。そして太陽系外惑星探索もそうかもしれないが、後者は多くのデベロッパーセッションの話題の中心ではないかもしれない。

もしI/Oでプレイする人物に選ばれなくても、Googleはキーノートとセッションのライブストリーミング・ビデオを提供する。また、人間味を感じたいけれでもサンフランシスコは遠いという人たちのために、世界各地でI/O拡大イベントが行われる。詳細は近々公開するとGoogleは言っている。

[原文へ]

(翻訳:Nob Takahashi / facebook


Google+の写真機能、大幅強化―全自動で色調・露出補正、GIF、パノラマ、HDR、 グループ写真の合成などを実行

Google+の重要なセールスポイントは写真だったが、I/Oカンファレンスで発表されたGoogle+のリニューアルでも写真に重点が置かれていた。

今回Googleが発表したGoogle+写真のアップグレードには昨年11月に買収したNik Softwareのテクノロジーが多用されている。画像の補正と共有の自動化だ。たとえばホワイトバランスや肌色の調整、エッジのシャープ化、ノイズ除去などがワンクリックで自動的にできるようになった。画像処理はすべてクラウド上で実行される。

GoogleのVic Gundotraが事前のわれわれに取材で対して語った(そしてI/Oでも繰り返した)ところによれば、写真というのはもはや「撮影」するものではなく「作り上げる」ものなのだという。ユーザーは写真のハードとソフトに何千ドルも投じているが、写真を整理し、補正する作業は依然として高度に労働集約的で時間のかかる作業だ。「しかし普通のユーザーにはそんな時間がない。それならGoogleのデータセンターがユーザーのデジタル暗室になればどうだろう?」とGundotraは言う。

Googleが今回ローンチしたのはユーザーがアップロードしたデータを解析して、ユーザーにさまざまなフィードバックを提供する仕組みだ。ひどいブレや重複している写真などには印をつけて注意を促す。露出不足の写真は修正する。有名なランドマークが写っている良い写真があればチェックする。顔を認識して笑っているかどうか、ユーザーのGoogle+サークルに含まれている人物かどうかを判断する。これまでユーザーが何時間もかけていた写真の整理がクラウド上で文字通り数秒のうちに処理されてしまう。

そこでGoogle+システムは緑を鮮やかに、肌を魅力的に、湖をブルーにし、コントラストを強くし、等々の画像処理を自動的に行う。またフラッシュによる人物の赤目も自動的に修正してくれる。ユーザーはこうした補正処理を一括して適用することも、個別のフィルタだけを適用することもできる。

すべて非破壊処理なので元の画像ファイルはオリジナルの状態に保たれる。ユーザーはオリジナルと補正後の画像をワンタッチで往復して比較ができる。Googleは今や全ユーザーに無料で15GBの記憶容量を提供しているのでユーザーはフルサイズの画像を大量にアップロードできる。

オートAwesome機能

アニメの人気を反映してGoogle+チームはGIFファイルの制作もサポートすることにしたが、その手法がなかなかユニークだ。Awesomeと名付けられたシステムはアニメに合成可能な一連の写真を見つけ出して自動的にGIFファイルを作成する。Gundotoraは「ユーザーがバーストモードであれ手動であれ短時間に連射した写真があれば、自動的にアニメを作成できる。システムは背景が動いていないこともチェックする」と述べた。

オート“Awesome機能はGIFファイルを作るだけではない。人物が笑っている写真を集めて切り貼りし、全員が笑っているグループ写真を合成したり、風景写真の場合、継ぎ合わせてパノラマ写真を作れる また露出ブラケット撮影した写真があればHDR写真を合成することもできる。しかもこうした処理はGoogleの巨大データセンター内で実行されるので非常に短時間ですむ。

以上の機能はすでに公開ずみで、Googleはユーザーの既存の写真からいろいろすばらしい写真をせっせと作っているところだ。

[原文へ]

(翻訳:滑川海彦 Facebook Google+