I/O 2014開催近づく―Googleデベロッパー・カンファレンスのテーマはデザインとウェアラブル

今年もGoogleの大掛かりなデベロッパー・イベントの開催が近づいてきた。多くの読者がこの2日にわたるイベント〔日本時間6/26-6/27〕で何が発表されるのか興味をお持ちだろう。

今年のGoogleはアプリのデベロッパーだけでなく、デザイナーやマーケッターにもGoogleの戦略に関する詳細な情報を伝えようと力を入れているようだ。しかし一般エンド・ユーザーに直接関連する発表も数多く用意されているらしい。

Android Wear

事情に通じた情報源によれば、今年のI/Oの重要なテーマの一つはGoogleが今年3月に発表したAndroid Wearだという。このプラットフォームはスマートウォッチなどウェラブル・デバイスのためのAndroid OSの拡張機能だ。

メーカー数社がAndroid Wearを利用したスマートウォッチをデビューさせようとしている。なかでもMotorolaとLGはこの夏にMoto360 とLG G Watchをそれぞれローンチさせると発表している。暦の上ではすでに夏だから、I/Oでこれらのプロダクトが正式にお披露目されるのはまず間違いない。同時にAndroidWearの詳細についても多くのことを知ることになりそうだ。

Android車載システム

Appleは今年に入ってiOSの車載システム、CarPlayの普及に大いに力を入れている。当然、Googleも独自の車載モバイル・システムでAppleにに対抗してくるはずだ。1月に概要が発表され、GM、Audi、Hyundaiと提携しているものの、Android車載システムについてはまだ具体的な情報がほとんどない。しかし今年中にいくつかの新車種に搭載されるという。

GoogleはこのAndroid車載システムについて近く大規模なプレスイベントを計画しているらしい。

Android TV、ホームAndroid

今年、GoogleはIoT〔モノのインターネット〕などを通じてAndroidを通常のモバイル・デバイス以外の分野に拡張することに全力を挙げている。Goolge TVなどがその一例だが、Android TVプロジェクトも進行中といわれる。これもI/Oで発表されるかもしれない。

Android TVはGoogle TVとは異なりアプリ自身の機能よりもコンテンツに主題があると言われている。ただし具体的な内容はまったく分かっていない。Googleは最近子会社のNestを通じてDropcamを買収した。Nestは急速にホーム・オートメーションのハブに成長しつつある。Nest関連の発表もあるだろう。同時にGoogleのプラットフォームを利用したサードパーティーのプロダクトの紹介もあるかもしれない。

Android 5.0

Androidの新バージョンが今回のカンファレンスで発表される可能性は低いかもしれないが、それがどんなものになりそうかヒントがつかめるかもしれない。最近報じられたQuantum PaperはAndroidアプリに新しい統一的UIを導入しようとする野心的なプロジェクトで、Polymerは再利用可能なそのインターフェイス要素だという。

Quantum PaperとPolymerはAndroidアプリばかりでなく、iOSやGoogle独自のハードウェアも含めたさまざまなデバイスのインターフェイスの新しいデザイン・ガイドラインとなるようだ。今年、Googleはデザインの改良と統一化に全力を挙げるものとみられる。

デベロッパーの再定義

当然ながらソフトウェアのデベロッパーを中心とするものの、Googleは今年のI/Oではターゲットしてデザイナーやマーケッターにも重点が置かれるようだ。つまりアプリを開発して流通させるプロセスに関わる人々全てを対象とするということらしい。

われわれは現地取材を行い、ライブ・ブログも含めて報告する予定だ。

[原文へ]

(翻訳:滑川海彦 Facebook Google+


今年のGoogle I/O申込みは4月8~10日:あなたに運が向きますように

Googleは2014 I/Oデベロッパー・カンファレンスで、いつもと違うことをやっている。今年は先着順受付を行っていない。それは過去に異常な押し合いとサーバーエラーを引き起こしてきた。代わりに2日間の受付期間が設けられ、その間は誰でも登録が可能で、後にGoogleが応募者全員からランダムに選択する。

それではちょっと運に頼りすぎると感じたあなたは、Googleが作ったこのステキなI/O ウェブサイトを見て元気をだそう。そこにはインタラクティブな「実験」があり、それはかなり単純な筋書きだが、今年のショウの焦点を暗示しているのかもしれない。機械学習はテーマの一つである可能性が高い。そして太陽系外惑星探索もそうかもしれないが、後者は多くのデベロッパーセッションの話題の中心ではないかもしれない。

もしI/Oでプレイする人物に選ばれなくても、Googleはキーノートとセッションのライブストリーミング・ビデオを提供する。また、人間味を感じたいけれでもサンフランシスコは遠いという人たちのために、世界各地でI/O拡大イベントが行われる。詳細は近々公開するとGoogleは言っている。

[原文へ]

(翻訳:Nob Takahashi / facebook


Google+の写真機能、大幅強化―全自動で色調・露出補正、GIF、パノラマ、HDR、 グループ写真の合成などを実行

Google+の重要なセールスポイントは写真だったが、I/Oカンファレンスで発表されたGoogle+のリニューアルでも写真に重点が置かれていた。

今回Googleが発表したGoogle+写真のアップグレードには昨年11月に買収したNik Softwareのテクノロジーが多用されている。画像の補正と共有の自動化だ。たとえばホワイトバランスや肌色の調整、エッジのシャープ化、ノイズ除去などがワンクリックで自動的にできるようになった。画像処理はすべてクラウド上で実行される。

GoogleのVic Gundotraが事前のわれわれに取材で対して語った(そしてI/Oでも繰り返した)ところによれば、写真というのはもはや「撮影」するものではなく「作り上げる」ものなのだという。ユーザーは写真のハードとソフトに何千ドルも投じているが、写真を整理し、補正する作業は依然として高度に労働集約的で時間のかかる作業だ。「しかし普通のユーザーにはそんな時間がない。それならGoogleのデータセンターがユーザーのデジタル暗室になればどうだろう?」とGundotraは言う。

Googleが今回ローンチしたのはユーザーがアップロードしたデータを解析して、ユーザーにさまざまなフィードバックを提供する仕組みだ。ひどいブレや重複している写真などには印をつけて注意を促す。露出不足の写真は修正する。有名なランドマークが写っている良い写真があればチェックする。顔を認識して笑っているかどうか、ユーザーのGoogle+サークルに含まれている人物かどうかを判断する。これまでユーザーが何時間もかけていた写真の整理がクラウド上で文字通り数秒のうちに処理されてしまう。

そこでGoogle+システムは緑を鮮やかに、肌を魅力的に、湖をブルーにし、コントラストを強くし、等々の画像処理を自動的に行う。またフラッシュによる人物の赤目も自動的に修正してくれる。ユーザーはこうした補正処理を一括して適用することも、個別のフィルタだけを適用することもできる。

すべて非破壊処理なので元の画像ファイルはオリジナルの状態に保たれる。ユーザーはオリジナルと補正後の画像をワンタッチで往復して比較ができる。Googleは今や全ユーザーに無料で15GBの記憶容量を提供しているのでユーザーはフルサイズの画像を大量にアップロードできる。

オートAwesome機能

アニメの人気を反映してGoogle+チームはGIFファイルの制作もサポートすることにしたが、その手法がなかなかユニークだ。Awesomeと名付けられたシステムはアニメに合成可能な一連の写真を見つけ出して自動的にGIFファイルを作成する。Gundotoraは「ユーザーがバーストモードであれ手動であれ短時間に連射した写真があれば、自動的にアニメを作成できる。システムは背景が動いていないこともチェックする」と述べた。

オート“Awesome機能はGIFファイルを作るだけではない。人物が笑っている写真を集めて切り貼りし、全員が笑っているグループ写真を合成したり、風景写真の場合、継ぎ合わせてパノラマ写真を作れる また露出ブラケット撮影した写真があればHDR写真を合成することもできる。しかもこうした処理はGoogleの巨大データセンター内で実行されるので非常に短時間ですむ。

以上の機能はすでに公開ずみで、Googleはユーザーの既存の写真からいろいろすばらしい写真をせっせと作っているところだ。

[原文へ]

(翻訳:滑川海彦 Facebook Google+