Google、I/Oカンファレンスで機械学習の力を見せつける

img_0485

今年のI/Oのキーノート講演がGoogle史上最も派手だったと言う人はいないだろう。もしあなたが、飛行船から新型のGoogle Glassを持った人々が飛び出してくることを期待していたなら、間違いなく失望していただろう。代わりにGoogleは、比較的控え目なキーノートの中で、Androidをモノのインターネットに対応させる段階的なモバイルOSの改善や、デベロッパーの収益化、広告、アプリの分析などをやりやすくするための新しいツールの数々を発表した。

しかし、私を引きつけた3つの消費者向けGoogle新製品は、Google PhotosAndroid MNow On Tap、そして ― キーノート講演にはなかったが ― Inbox for Gmailの最新アップデートだった。いずれも、自然言語、高度な機械学習、およびこの数年Googleが注力してきた知識グラフデータベースを一定レベルで活用している。

例えばGoogle Photosは、現時点で最高の写真検索エンジンと呼べるものを塔載している。単に “trees”、”flowers”、”mountains” 等を検索すれば、自分の写真集の中からそれを見つけてくる。Photosは、Google+の写真機能を独立させたスタンドアロン版で、大部分の機能を既に実現していたが、今回Googleは検索機能を改善した。

Google “Now on Tap” は、アプリの中で起きていることを理解して追加のコンテキスト情報を提供し、それに関するユーザーの質問に答える。Googleのデモは大きな賞賛を浴びた。実演者がSpotifyで(なぜかGoogle Musicではなく)スクリレックスの楽曲を流し、Now on Tapを立ち上げて「彼の本名は?」と尋ねる。Googleがこれに答えるためには、アプリで何が演奏されているかを理解し、「彼」が誰を指しているかを理解した上で知識ベースを深く堀り下げなければならない。

tomorrowland-final

Inboxは、なぜかキーノートでは触れられなかったが、今やこの知識と自然言語を理解することによって、誰かがあなたに何かをして欲しいことに気付くと、自動的にリマインダーを生成する。さらに、今後の旅行に関する複数のメールを認識して、一つのグループにまとめることもできる。

Microsoftは、Cortanaでこの一部をやり始めており、Appleも似たようなツールを考えているに違いないが、Google製品が他を一歩リードしていると感じた。つまるところ、10億以上の項目に関するデータの知識グラフを利用できる会社は他にいない。そして良くも悪くも、Google以上にあなたやあなたのオンライン習慣(おそらくオフラインも)を知り、そのすべての情報にコンテキストを与えられる人はいない。

Google I/Oのキーノートは、いわゆるサプライズには欠けていたが(ただし翌日のATAPキーノートは補って余りあった)、上記3つの機能だけでも、ことユーザーを理解することに関してGoogleがライバルを大きく引き離していることを示している。

[原文へ]

(翻訳:Nob Takahashi / facebook

GoogleのCloud Test LabでデベロッパがAndroidアプリを、人気上位20機種の上でテストできる

kkviamwe8hy

GoogleがデベロッパカンファレンスGoogle I/Oで今日(米国時間5/28)ローンチしたプロジェクトCloud Test Labは、文字通りクラウド上のテストラボで、モバイルアプリを全世界的に人気最上位のAndroid機20機種の上でテストできる。公開は今年の後半となっているが、パイロットプログラムへの参加は今からここで申し込める。

Android製品は多様化が激しいため、デベロッパ泣かせだ。数機種の人気機種でテストしてOKでも、そのほかの機種でOKとは限らない。デベロッパはスマートフォンやタブレットをつねに数機種手元に用意しているが、自分のアプリを種類のやたら多い最新機種や最新のアップデートのすべてでテストすることは、ほとんど不可能だ。

google-io-20150241

このTest Labでは、デベロッパは自分のアプリケーションをアップロードするだけで、あとはツールが自動的にそのアプリの各画面を調べていく。そしてアプリがクラッシュしたらクラッシュログを生成し、デベロッパにはビデオで、ユーザの目前で何が起こったかを見せる。

このサービスは今後、Google PlayのDeveloper Consoleから使えるようになる。さらに長期的には開発プロセスの中に、そのほかのテストサービスなどと一緒に統合していく予定だ。

この種の自動化テストサービスはすでにいろいろあり、たとえばXamarinは、1000種類のデバイスの上でユーザのアプリをテストする。ただし月額料金が1000ドルからだ。それに比べるとGoogleのは機種の数が少ないが、でも無料だ。

〔TechCrunch Disrupt New York 2015に出たNativetap。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

極小画面のデバイスでも人間の手の自由な動きで細かく制御できる新しいインタフェイス技術、Google ATAPのSoliプロジェクト

google-io-2015-atap0025

GoogleのATAPが今日のI/Oカンファレンスで発表したSoliプロジェクトは、今日(こんにち)ますます小型化していくデバイスや画面を、手や指でもっと容易に操作するための仕組みだ。そのために何かのツールを使うのではなく、“手の動きで表現されるボキャブラリ”を使ってデバイスをコントロールする。目の前にそのデバイスが、なくてもよい。

ユーザは自分の手をごく自然に動かすだけだが、システムは動きの微妙な違いを精密に検出する。センサと手のあいだに物が介在していてもよい(たとえばデスクの下面にセンサがあるなど)。その秘密はレーダーを使うからで、画面の大小に関わらず正確な操作ができる。物理的肉体的にタッチするときに生ずる‘点のサイズ’という問題がないからだ。

人間の手から自然に生ずる触覚的なフィードバックも利用される。たとえば、指と指が触れ合うときの皮膚の摩擦だ。つまりSoliは、ユーザの手そのものを自分のユーザインタフェイスとして参照する。そのためにはもちろんセンサが必要だが、ハードウェアに関してそれ以外の要件はない。

  1. google-io-2015-atap0037.jpg

  2. google-io-2015-atap0036.jpg

  3. google-io-2015-atap0038.jpg

  4. google-io-2015-atap0039.jpg

  5. google-io-2015-atap0020.jpg

  6. google-io-2015-atap0022.jpg

  7. google-io-2015-atap0021.jpg

  8. google-io-2015-atap0024.jpg

  9. google-io-2015-atap0023.jpg

  10. google-io-2015-atap0025.jpg

  11. google-io-2015-atap0026.jpg

  12. google-io-2015-atap0027.jpg

  13. google-io-2015-atap0028.jpg

  14. google-io-2015-atap0029.jpg

  15. google-io-2015-atap0030.jpg

  16. google-io-2015-atap0031.jpg

  17. google-io-2015-atap0033.jpg

  18. google-io-2015-atap0032.jpg

  19. google-io-2015-atap0035.jpg

  20. google-io-2015-atap0034.jpg

  21. google-io-2015-atap0017.jpg

Soliはスマートウォッチのような小さなデバイスや、何かの‘面’の上、あるいは、デバイス本体と隔てられている‘距離’がある環境で使われることを想定している。そういう環境にはセンサとしてレーダーがベストだが、問題はそのサイズだ。そこでATAPはレーダーの小型化に努力した。何度も試作を重ねて、今では家庭用ゲーム機の1/4よりも小さくなっている。

ATAPは、大量生産も実現した。開発に要した時間は10か月だ。検出の精度は、個々の指の位置まで分かる。そこで、アプリケーション側では、わずかな動きにも反応できるから、高精細な3D画像のドローイングなども可能だ。

デベロッパは、その信号をAPIから受け取り、どんな用途にも利用可能だ。

Soliは、今年の終わりごろ、それに対応する実用製品、たとえばスマートウォッチなどを出す予定だ。Android Wearのハードウェアは、相当能力アップすると思われるから、クリスマス商戦に間に合うといいね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleのVaultプロジェクトは一枚のmicroSDカードに収めたセキュリティ万全のコンピュータ…企業利用を念頭

google-io-2015-atap0076

Project VaultはmicroSDカード大のデバイスにセキュアなコンピュータを収容した製品だ。GoogleのATAPによると、microSDの形を選んだのは、すでに携帯電話上に、高度なセキュリティ機能があるからだ。携帯のSIMカードは、キャリアにとって重要な情報を確実に保護しなければならない。Vaultもそれを志向しているが、守るのはユーザの重要なコンテンツだ。

またmicroSD形式なら、ビデオの再生などにも適した高いデータスループットが得られる。容量が大きいので同一カード上にストレージを併設でき(Vaultは本体上に4GBのストレージがある)、またモジュール性が良いので可搬性にも富む。

Vaultの上ではARMのプロセッサがリアルタイムオペレーティングシステムRTXを動かしている。このOSは、プライバシーとデータのセキュリティがとくに強化されている。NFCチップとアンテナもあるので、ユーザの本人認証も確実だ。また、ハッシュ、署名、バッチによる暗号化(not個別処理)、ハードウェアによる乱数生成など、一連の暗号化サービスを内包している。

  1. google-io-2015-atap0072.jpg

  2. google-io-2015-atap0073.jpg

  3. google-io-2015-atap0075.jpg

  4. google-io-2015-atap0076.jpg

  5. google-io-2015-atap0077.jpg

  6. google-io-2015-atap0078.jpg

  7. google-io-2015-atap0079.jpg

Vaultは、二要素認証を誰もが使いやすい形で提供し、デベロッパはそれを利用するために特別な作業を必要としない。システムはそれを、標準的なファイルシステムが載っているジェネリックなストレージと見なす。

そのファイルシステムには、ファイルが二つだけあり、それぞれ、リード用とライト用だ。どのアプリケーションも、Vaultとコミュニケーションするためには、これらを利用しなければならない。また、ホストのコンピュータや電話機から見るとジェネリックなストレージにすぎないから、AndroidやWindows、OS X、Linuxなど、そのほかのオペレーティングシステムでも使える。

ATAPは今日(米国時間5/29)のGoogle I/OでオープンソースのSDKをリリースしたから、誰もが正規の立ち上げの前にVaultを理解し試用ができる。企業が利用するための正規の製品もすでにあり、それは今Googleの内部で使われている。また将来的には、消費者向けの製品も出す予定だ。

ATAPがI/Oで行ったデモでは、Vaultを使ってチャットの会話のセキュリティを確保する例が示された。Vaultの載ったmicroSDがインストールされると、チャットアプリケーションがファイルが二つだけのファイルシステムへと仮想化されたストレージを開き、リード/ライトを行う。メッセージはVaultがすべて暗号化し、暗号化されたテキストが送信される。受信側の携帯はその会話を解読するが、どちらの側も、ユーザレベルにはキーやアルゴリズムは何もない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

ジーンズのLevi’sがGoogleの‘インターネット接続織物’Jacquardプロジェクトの初のパートナーに

google-io-2015-atap0064

GoogleがI/O 2015で披露したProject Jacquardは、インターネットに接続された織物で、衣類の表面からデバイスに接続してそれらを動かせるだけでなく、従来どおりにファッションの素材にもなる。すでにLevi’sが最初のパートナーになっているところから見ても、かなり将来性のある技術のようだ。

サンフランシスコに本社のあるLevi’sはジーンズのメーカーとして有名だが、今では総合衣料メーカーと言ってよい。今日(米国時間5/29)のI/Oで、ATAPのプレゼンテーションに登場したLevi’sの代表は、この新しい技術に飛びついた理由を説明した。そのキモは、デバイスと人間の日常生活とを、もっとしっくり馴染んだものにすること。いちいち気にせずにデバイスを利用できることだ。

アプリは同社独自で作るつもりのようだが、デベロッパコミュニティからの協力も求めている。この新たな技術を前提とすると、同社によれば、デベロッパも“ファッションデザイナー”だそうだ。

このパートナーシップはまだきわめて初期段階のようで、プロダクトの発表もない。でもここでおもしろいのは、技術開発がもはやGoogle自身の研究部門に閉じ込められないことだ。世界的に著名な老舗ファッションブランドとの協働により、Jacquardという一見突飛な技術から、人間の日常に定着する何かが生まれるかも、と期待される。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleがオンライン学習のUdacityとパートナーしてAndroid開発のナノ学位を立ち上げ、エジプト語へのローカライズも

uda

今日(米国時間5/28)サンフランシスコで行われたデベロッパカンファレンスI/OでGoogleは、Udacity とパートナーして6コースから成るAndroid開発のナノ学位日本語参考記事)をローンチする、と発表した。

これはビギナーのためのコースではなく、まだAndroid未経験のプロのデベロッパにAndroidモバイルアプリの“正しい書き方”を教える。コースが終了したらGoogleが彼/彼女を実際に雇うこともありえるほど、本格的な特訓教育を行う。

Udacityのそのほかの学位プログラムと同じく、ビデオ教材の視聴は無料だが、卒業証書や教育助手へのアクセスが必要なら、今回のコースでは月額200ドルの有料になる。

Udacityの協同ファウンダでCEOのSebastian Thrunによると、受講者は学位を得るために、6つのコースといくつかのプロジェクトを終了しなければならない。たとえばあるコースでは、アプリの中でSpotifyのAPIを使いなさい、と求められる。Udacityのそのほかの学習プログラムと同様に、実践的知識の獲得が最大の目的で、したがってコースよりもプロジェクトの意義がとても重要だ。

Thrunは曰く、“ねらいは、受講者が実践を通じて、Androidプログラミングに関して完全な自信を持てる状態になること。多項選択(三択四択〜〜)のテストなどは、やらない。いわばそれは、Googleが同社のデベロッパに持っていてもらいたいと願っている知識や技術をすべて叩き込む、というナノ学位コースだ”。

学位取得までの所要(許容)時間は6〜9か月、開始日は決まっているが、途中のペースは受講者が自由に決めてよい。

Google Play Services

Googleは、このプロジェクトに本気であることを示すために、年末に50名の学生を本社に招待して三日間のサミットを行う。その内容は、ハッカソン、雇用担当者とのミーティングなどだ。要するにGoogleは、実際に何名か雇うぞ、という姿勢を見せたいのだ。

さらにGoogleは、エジプト政府とパートナーしてこの学位の6つのコースを現代標準アラビア語(Modern Standard Arabic)にローカライズする。Udacityとしても、ここまでやるのはこれが初めてで、ビデオにアラビア語で字幕を入れるのではなくて、コースの全コンテンツをアラビア語化するのだ。

Googleはエジプトの学生2000名に奨学金を提供し、就職説明会や各種の集会を行う。Thrunによるとこれは、Udacityにとってもアラビア語圏に進出していくための好機であり、その地域に良質な教育を持ち込むと同時に、良質な就職機会も開拓していきたい、という。そして、“あそこらの戦争の数を減らしたいね”、とThrunは語る。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleのVRアプリ‘Expeditions’は学校で行う野外研究を仮想化する…教材としてはビデオや映画より良いか?

google-io-20150285

Googleの今のVRの取り組みは、さまざまな実世界の様相をVRで再現することによって、ユーザの世界を広げることに重点がある。野外研究を仮想化するアプリExpeditionsも、そのひとつだ。このアプリの目的は、児童生徒が、実際には行けないかもしれない場所をVRで踏査することにある。

Expeditionsは、旅のリーダーが使うソフトウェアと、児童生徒と教師用のヘッドセットやハードウェアから成るキットで提供され、それだけあれば仮想の旅ができる。

Googleがねらっている仮想現実は、入門用の安価でやさしいものだ。ヘッドセットは安い、または無料のCardboardで十分だし、ユーザがすでに持っているスマートフォンを使う。仰天するような生々しい光景は見られないとしても、旅をしている感覚は十分に味わえる。

google-io-20150284

Expeditionsにはサンプルの仮想旅行(ないし仮想遠足)が含まれているので、教師はクラスで準備にそれほど時間をかけずに仮想ツアーを開始できる。もちろん、利用するにあたって面倒な、団体利用の許可申請も要らない〔本物の植物園などでは必要な場合がある〕。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Chromecastが自動再生、キューイング、第二画面、マルチプレーヤーゲームなどを新たにサポート…革命的なユーザインタフェイスへ

driver-speedboat-paradise

GoogleのChromecastは、この検索の巨人を秘かに本格的なホームエンタテイメント企業に変えてしまいそうな、かわいらしい外見にパワーを秘めたメディアエンジンだ。このおちびエンジンに対応しているアプリケーション(もっとも典型的にはYouTube)のユーザが画面上の小さなボタンを押すと、コンテンツをテレビの大画面で楽しめる。この“Castボタン”はこれまで、合衆国だけでも15億回押された。そしてChromecastは、Googleのほかの船も浮上させている…たとえばYouTubeでは、Chromecastユーザの総視聴時間が従来より45%増加した。

Chromecastやその対応デバイス(Nexus Player、Nvidia Shieldなど)は、今年のI/Oカンファレンスで発表されるいくつかの新しい機能により、さらにパワーアップする。一言で言うと、これまでの単純なストリーミングマシンから、本格的なメディアデバイスに変身し、Chromecastとその操作デバイス(スマホなど)は、近未来のホームシアターやメディアルームの基本装備になる。Chromecast向けの開発をやっているデベロッパや、一般ユーザは、期待をふくらませて待つ価値があるだろう。

オートプレイとキューイング

ストリーミングTVがふつうのTVらしくなるためには、長時間の連続視聴が可能でないといけない。たとえばNetflixのようなWebアプリケーションでは、とくにユーザが操作しなくても複数のコンテンツを次々と‘上映’することができる。今度からChromecastでも、それができる、しかも、どんなコンテンツでも。

これをデベロッパのボキャブラリで言うと、最初のビデオが再生されているときに次のビデオをバッファリングしてキューを作り、一つのコンテンツが終るたびに次のコンテンストをユーザが指定する、という手間をなくす。しかもユーザはキューをコントロールして並び順を変えたり、新しいコンテンツを途中に入れたりもできる。これだけ高度なキューイングは、今のNetflixでもできませぬ。

今このAPIを導入しているアプリケーションは、NBA Game TimeとRed Bull TVぐらいだが、ほかのメディアアプリケーションも視聴者を長時間釘付けにするために当然導入するだろう。

ゲームマネージャAPI(マルチデバイス/マルチプレーヤーを簡単に)

複数のユーザが複数のデバイスを使ってChromecast対応のゲームを楽しめることは、元々この製品の大きな売りの一つだったが、これまでは乗り気でないデベロッパが多かったため、各人のスマートフォンをコントローラにしてTVに映しだされるゲームをシェアする遊び方は、あまり盛り上がらなかった。

I_O_Rolocule

しかし今度からはGame Manager APIというものが導入されるので、デベロッパにとって仕事がすごく簡単になる。ゲームに参加するデバイスはiOS、Android、Chromecast対応デバイスなど何でもよく、デベロッパはそういうマルチプレーヤー体験を容易に作れる。ローンチタイトルとして提供されるCatch Phraseは、よくあるパーティーゲームだが、この機能の活用例としては好適だ。

“マルチデバイス/マルチプレーヤは機能は最初から好評だったけど、それをもっと、デベロッパにとって使いやすくしたい、と考えた”、Chromecast担当VP Rishi Chandraはこう語る。“今では、モバイルゲームのデベロッパのほぼ全員が、このユーザ体験を作り出そうとしている”。

そこでGoogleは、TV画面上で共有されるスコアボードなど、共通的な機能を管理できるようにし、また個々のプレーヤーとデバイスのレベルでの、正しいセッション管理ができるようにもした。こうしてついに、Game Manager APIが誕生した。

ぼくはいつも感じていたんだけど、モバイルゲームも一人プレイはもう古い、マルチデバイス/マルチプレーヤには、未開拓の大きな可能性がある。これまでは、開発の難度と、参加〜プレイの容易化単純化正確化がネックだった。でもこの二つの大きな難点を、このAPIは克服できる。

リモートディスプレイAPI(iOSとAndroid)

スクリーンの二重化(デュアルスクリーン…ゲーム画面はTV、コントローラ画面はスマホ)はもちろんゲームにとって大きな意義があるが、Chromecastおよび対応ハードウェアを操作するAndroidとiOSアプリのための(ゲームに限らない)ジェネリックなAPI、Remote Display APIは、デュアルスクリーンの意義をさらに大きくする。これによりたとえば、TV(+Chromecast、〜対応デバイス)の画面にカーレースが映っていて、スマホ上では仮想ステアリングホイールを操作する、ということができる。あるいはTVの大画面を利用して写真の編集〜修正をやっていて、その細かい操作をスマホ上のUIでやる、といった“適材適所”の役割分担ができる。

i_o 2Pixlr

 

このAPIの初期のバージョンを実際に使っているのが、Autodesk Pixlrだが、これを見るとまさに、マルチディスプレイが新しいタイプのユーザインタフェイスだ、ってことを実感できる。Chromecastはこの、コンピュータシステムの歴史上かつてなかった、斬新な利用インタフェイスを支えるのだ。クリエイティブアプリ/アプリケーションはもとより、世界中のユーザ数がもっとも多い生産性アプリ/アプリケーションにとっても、これは朗報だ。それに、デスクトップアプリケーションがもっと多様な状況でモバイルにリプレースされるためにも、こんなインタフェイスがその基盤に必要なのだ。対象を見る画面は大(&高精細)、手による操作は手元の小型デバイス、という理想の仕事環境が、今後、社会の至るところで普及するだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Android Mの開発者プレビューを動かしてみた(ビデオ)

android-m1

Android Mはまだ開発の初期段階にある。しかしGoogleは、テストデバイスで確認するためのデベロッパー・プレビューを公開した。さっそくNexus 5に搭載して新機能などの確認を行なってみた(上のビデオをご覧ください)。当然ながら作りこみが不十分なところもあるものの、新機能の様子などを体感することができるだろう。

アプリケーションのドロワーやボリューム調節機能などの細かな変更点も、実際に使い勝手的には大きな改善と言えそうな感じだ。アプリケーションを名前で検索したり、あるいはアルファベット順に並べて探すことができるのは、大量のアプリケーションをインストールしている人にはとても便利な機能だろう。ボリューム調節では通知音やアラーム音などを簡単に設定できるようになっている。

新OSには「Google Now on Tap」という機能も搭載される。但し、現状のプレビュー版では、その実際の動作はまだほとんど確認できない状況だ。しかしどのようなタイミングでどういった機能が実行されるのかということを確認することはできる。

原文へ

(翻訳:Maeda, H

GoogleのダンボールVRがiPhoneでも(非常に快適に)使えるようになった

cardboard-iphone

GoogleのCardboard VRアプリは昨年のI/O 2014で初めて登場したが、初期バージョンはサポート端末が限られていた。今年公開された新バージョンは画面サイズ最大6インチの端末をサポートしているが、多くの人々にとってもっと嬉しいニュースは、iPhoneでも使えるようになったことだ。

新たに登場したCardboard for iOSアプリは、米国のApp Storeで公開中で、同じデモアプリが含まれ、同じQRコードベースのペアリング手順で使用ヘッドセットの世代に最適化する。Cardboard for iOSは無料、iPhone 5以降で使用できる。

新しいVRヘッドセットでは、内蔵された「ボタン」を使って表示されたコンテンツを操作することが可能で、その際にバイブレーションでフィードバックされる。

iPhone 6 Plusでアプリを使用したところ非常に快適な体験を得られた。実際、Nexus 5とNexus 6を含め、他のどの端末のCardboard VR体験よりも良かった。画面解像度のためなのか端末の能力なのか、新ヘッドセットとの相性なのかわからないが、何かがiPhoneとCardboardキットの関係を最適に調整している。

試してみたいiPhoneユーザーは、Googleのこのページに入手方法あるいは自分で作る方法がある。

[原文へ]

(翻訳:Nob Takahashi / facebook

Google、ダンボールVRキットを100万台出荷

google-io-20150282

Googleは今日(米国時間5/28)、ダンボール製キットのCardboardが静かにVRプラットフォームのリーダー(数においては)になっていることを発表した ― これまでに100万台のCardboard製品が出荷され、昨年12月発表時の50万台から100%増加した。

Cardboardの発展は、迫真性と高価格で高度なハードウェアよりシンプルさと低い参入障壁を優先するGoogleのアプローチを証明するものだ。Googleは昨年のI/Oイベントで初めてCardboardを発表した。Facebookによる巨額なOculus VR買収直後のことだった。

急速に拡大するユーザーベースは、ユーザーが何をVR体験に求めているかを知りたいデベロッパーにとって朗報であり、VRを広く低価格な製品に適用する方法を探る絶好の機会だ。

Cardboardおよびサードパーティー製の同等品は、現時点で消費者向けVR市場の圧倒的リーダーだが、そのためにGoogleがしたのはクールで安価な工作キットを作ったことだけだ。

[原文へ]

(翻訳:Nob Takahashi / facebook

Google、Android Wearを大幅アップデート。絵文字も手書き認識が可能に

draw-emoji-android-wear-watch

生まれながらのインターネット使いが大喜びしそうなニュースだ。これまで、自分が使いたい絵文字を見つけるのは非常に大変なことだった。この苦労を軽減しようと、Googleのスマートウォッチ用OSのAndroid Wearがアップデートを行ったのだそうだ。使いたい絵文字の大雑把な様子をスクリーンに描けば、Android Wear側で入力画像をスキャンして求められている絵文字を探し出すようになったのだそうだ。描いた絵文字(たとえばマルティーニグラス)に該当しそうな候補は複数表示され、その中からひとつを選んで利用することができる。

これは、本日開催されているGoogle I/Oにおいて行われているAndroid Wearのアップデートのアナウンス中に示された内容だ。新たなAndroid Wearでは、ローパワーモードにては白黒で表示することにより、情報を長い間にわたって表示するようなことができるようになっている。

原文へ

(翻訳:Maeda, H

Gmailのアクティブユーザーは9億超。そのうち75%はモバイル利用(付:Inboxはオープンになった!)

6133587103_05e7981a2c_o

Googleのプロダクト部門バイスプレジデントであるSundar PichaiがI/Oカンファレンスで発表したところによると、Gmailの利用者数は9億人にものぼるのだそうだ。前回利用者数が発表されたのは2012年のことで、その当時の4億2500万から倍以上に数値を伸ばしたことになる。さらに、そのうちの75%がモバイル環境からGmailを利用しているのだとのこと。

Googleが前回Gmailの利用者数を公表したとき、ちょうどHotmail(今ではOutlook.comとなっている)を抜いて首位になったときだった。それまではHotmailが長らく首位の座に君臨していたのだった。ちなみにこの分野におけるGoogleのライバルたちも、なかなか利用者の実数を明らかにしてはいない。ただ、Gmailが最もよく利用されているメール環境であるということは言えるのだと思う。

多くの人が利用し、そしてさらに利用者数を伸ばしつつあるGmailは、当然ながら大きなアップデートをおこなっていない。デビュー当初のGmailは、ウェブベースのメールクライアントとして革新的なものであると受け止められた。そのGmailも、あまりに多くの利用者を抱える中、「革新的」なアップデートを行いにくいという状況にもあるのだろう。そうした状況の中、Googleはこれまでインビテーションが必要であった「Inbox by Gmail」を一般公開することとしたようだ。Gmailの仕組みを利用した新たなプラットフォームで、Googleはここで最新メールクライアントのあり得えべき姿を示そうとしているのだろう。

Inbox by Gmailは本日よりオープンなクライントとなり、かつまた新しい機能も加わっている。但し、Inboxのオープン化によりGmailクライアントの開発をやめてしまうわけではないとのことだ。

原文へ

(翻訳:Maeda, H