Google Trendsがアップデート―リアルタイムのデータが収集されるようになった

今日(米国時間6/17)、Google Trendsのリニューアル版が公開された〔日本でも公開済み〕。新しいバージョンではリアルタイムのデータが利用できる。たとえば大統領選挙への出馬を突如表明したドナルド・トランプと彼のカツラがどんな反響を得ているかを即座に調べられるようになった。

新バージョンのビジュアルにはGoogleが1年前に発表したマテリアル・デザインが用いられている。

このバージョンは現在28ヵ国で公開されており、ここ数ヶ月でさらに多くの地域に導入される。

realtimedata

NBAファイナルなど一般の関心が極めて高い重要なイベントについて、GoogleはTrends searchページに関連情報を含めた詳しいストーリーを掲載している。またGoogleはTrendsの対象となるデータの「幅と深さを共に拡げた」としている。ユーザーはこれまで「データが少なすぎて表示できない」とされていたようなニッチなテーマについてもトレンドを知ることができる。新しいGoogle TrendsはYouTubeやGoogle Newsの検索結果も含めるようになったという。

今回のアップデートは、「世界中のジャーナリストを始めとするユーザーからのフィードバック」を参考にしたという。ジャーナリストやマーケティング専門家は「MERSとエボラ」や「ジェブ・ブッシュの大統領選出馬」など重要トピックに関するGoogle Trendsの元データをダウンロードして自由に処理できるようになった。.

2015-06-17_0924

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Google App EngineのPHPサポートが一般公開へ…今でも人気衰えず

4375533365_7681d02112_o

GoogleのPHP用のApp Engineベータを終了して一般公開された。これによりPHPアプリケーションがGoogleのApp Engineのサービス合意条項と非推奨ポリシーの対象になる。

PHPに関してはさまざまな意見があるが、しかしそれは今でもWebでいちばん多く使われている言語のひとつであり、FacebookのHHVMプロジェクトなどのおかげで、今のデベロッパコミュニティにおいても、一目(いちもく)置かれている。

App EngineのPHPサポートは、2013年夏のデベロッパカンファレンスGoogle I/Oで招待制のプレビューがローンチされた。そのプレビューの時点ですら、PHPはApp Engine上で人気言語のひとつだった。Googleによると、“何万名ものデベロッパがApp Engine上でPHPアプリケーションを構築および展開し、今ではApp Engineが扱う各週のPHPのクェリが約8億件に達する”、そうだ。

Sony MusicはOne Direction Dayのクイズにこのサービスを利用しているが、毎秒のクェリは最大で9000に達する。これはApp Engineにとってはすごいことだが、ファンにとっては迷惑かもしれない。今、世界一周に挑戦しているソーラー飛行機Solar ImpulseのWebサイトも、このサービスからホストされている。

GoogleのCloud Platformのサービスの多くがそうであるように、App Engineにも無料枠があり、デベロッパが自分のアプリケーションをテストするなどの目的で利用できる。App Engineがサポートしている言語は、PHPのほかに、PythonとJavaと、Googleの言語Goだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

もうすぐChromeが、Macのバッテリーに優しくなる

chrome1

様々なブラウザーオプションのメリットが何であれ、Appleの自家製ブラウザー、Safariにはライバルに対して一つ大きな利点がある ― ポータブルMacのバッテリー消費が著しく少ないことだ。今Googleは、そのギャップを次期Chromeで埋めようとしている。

既にChromeは、くだらないFlash広告を無効化する新機能を入れ、ある程度バッテリーの節約を実現しているが、まだ続きがある。Chromeの上級エンジニア、Peter KatingがGoogle+に書いた将来計画によると、Chromeはバックグラウンドタブ(たった今見ていないタブ)のレンダリング方法を変更する他、Googleで検索する際のCPU効率にわずかだが重要な改善を加える。

他にも数多くの取り組みが進められており、その大部分がChromeのCPU効率をSafariに追い付くあるいは近づかせるものだ。Kastingは「われわれのユーザーが苦しんでいるのを黙って見ているつもりはない」とまで言う。実際Chromeの性能問題に対する不平不満は、Macパワーユーザーの間でかなりよく耳にするが、Googleがこの問題にそこまで力を入れているのは興味深い。

新バージョンはChromeベータチャンネルにあと1ヵ月と少しでやってくるので、一般公開は数ヵ月後になるだろう。現在私は、ほぼフルタイムSafariを使っているが、バッテリーに優しいChromeがどんなものになるのかを見るのは興味深い。

Via TechSpot

[原文へ]

(翻訳:Nob Takahashi / facebook

Googleが非営利団体支援事業をアジアでも展開へ

google-sign

Googleがその、非営利団体のための一連のサービスを初めてアジアに持ち込み、同社が選んだ地域の団体がそのサービスを利用して、自分たちの活動への認知度の向上努力や新しい寄付者の募集運動を、インターネットからできるようになった。

Google For NonProfitsと呼ばれるその事業を、これからは香港とインドと、インドネシア、マカオ、マレーシア、フィリピン、シンガポール、台湾、タイ、そしてベトナムの団体が利用できる。Googleが申し込みを受け入れた団体には、AdWordsの広告枠が無料で提供され、YouTubeでは特別ブランドとして優遇され、そしてGmail、Calendar、DocsなどGoogle Apps生産性アプリケーションのカスタムバージョンを使用できる。

また企業ユーザはGoogle Earth ProとMaps APIのライセンスが無料になり、団体はGoogleの資金調達プラットホームOne Todayを資金集めのために利用できる。

“アジアの諸団体との継続的パートナーシップの開始を、これ以上先延ばしすることはできない。非営利団体がこれらのツールを使って新しい寄付者やボランティアを見つけ、活動の効率を上げ、支援者たちのアクションを誘導できることを、期待したい”、とGoogleのブログ記事は述べている。

今週の初めにGoogleは、アジアにおけるサーバの能力を拡大するための努力の一環として、シンガポールのデータセンターを拡張することを発表した

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Chromeは“重要でない”Flashコンテンツを自動的にポーズする

577990701_459d0cedc3_o

自動再生されるFlashコンテンツはラップトップの電池を干上がらせ、しかもそれが広告だったら人の神経にも障(さわ)る。そこでGoogleはAdobeとパートナーして、Chrome上のFlashをチェックすることにした。デスクトップ版Chromeの今日リリースされる最新のベータからChromeブラウザは、Google曰く“そのWebページにとって本質的でない”Flashアニメーションを自動的にポーズする。

うまくいけば、Googleがここでは重要でないとみなしたFlashコンテンツをポーズし、ユーザは自分が見たいと思ったビデオを見続けることができる。しかしGoogleのその判断が間違っていた場合は、ポーズされたビデオをクリックすればそれを再生できる。

2015-06-04_1221

これまでのChromeには、プラグインのコンテンツをすべて認める/すべて自動再生しない、のオプションしかなかった。

Googleは、このアップデートで“電力消費が相当に減る”と主張している。突然ビデオが自動再生されてびっくりすることも、なくなるだろう。短時間試してみたが、動作はGoogleの主張どおりで、CNNやNew York Timesのページで勝手にたくさんのFlash広告が動きだすことはなくなった。でもFlashを使っている広告はとても多いから、Googleにとっては微妙な決断ではなかったろうか。

この新しい機能はChromeデスクトップのベータチャネルで入手できる。安定バージョンへの実装は、もうすぐだそうだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google、40箇所の離島やその海中のゴージャスなストリートビューを公開

今日(米国時間6/4)、Googleは離島と海中で撮影された多数の映像をストリートビューに追加した。Googleマップのユーザーは南太平洋のクック諸島沖でザトウクジラといっしょに泳いだりバリ島の沿岸で熱帯魚を観察したり、アメリカ領サモアの浜辺を散策したりできる。

今回、一挙に40箇所の新しい海中ストリートビューが公開されたが、これは2012年に海中ストリートビュー・プロジェクトが開始されて以来最大のアップデートだ。

ストリートビュー撮影の多くは海洋調査を専門とするNPO、XL Catlin Seaview Surveyと共同で行われた。しかし今回、Googleはアメリカ海洋大気庁(NOAA)の国立海洋保護区局およびChagos自然保護基金とも協力している。

American-Samoa-Before-and-After-rotation

Googleの広報担当者によれば、このプロジェクトの狙いは海洋に関する公衆の関心を高め、正しい知識を持たせることだという。「海洋はわれわれにとって決定的な重要性を持つが、近年、温暖化の加速、汚染、乱獲などの深刻な環境問題が海洋を襲っている。 Googleは海洋の現状を正確に記録できる新しいテクノロジーを開発し、その変化を確認する手助けをしたい」という。

今日、Googleは海中ストリートビュー・プロジェクトで新たにNOAA、 Reef Check,、Blue VenturesOur World Underwater Scholarship Society、 Global Underwater ExploresのProject Baselineと協力していくことを発表した。

Humpback-Whales-Cook-Islands-hyperlapse

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Googleがユーザ個人のプライバシー/セキュリティ総合ダッシュボードを提供…一箇所でチェックや変更が可能

ac_home_us-1

Googleが今朝(米国時間6/1)、ユーザのプライバシーコントロールを改良したことと、Googleのデータ収集をめぐる人びとの懸念に答えるための、新しいWebサイトを立ち上げたことを発表した。後者のサイトではユーザ個人の設定ページMy Accountが最初に現れ、そこでユーザはGoogleのさまざまなサービス…検索、地図、YouTubeなどなど…のプライバシーとセキュリティの設定を、見たり変えたりできる。また、ユーザが訪れたWebページや、アプリケーション上の活動、位置の履歴などの、Googleによる保存を無効にもできる。

“My Account”という名前になっているが、この設定ページはGoogleのアカウントのないユーザでも利用できる。

この新しいサイトでユーザはPrivacy Checkup(プライバシーチェック)やSecurity Checkup(セキュリティチェック)などのプログラムを走らせ、どのデータを公開にするかプライベートにするか、どのデータならGoogleが個人化(パーソナライゼーション)に利用してもよいか、などを指定する。たとえばユーザは、Google+のプロフィールに載ってもよいコンテンツや、Hangoutなどのサービスで他人が電話番号から自分を見つけてもよいか、YouTubeの会員情報をプライベートにするか、などを指定できる。

また、YouTubeの検索履歴や視聴履歴、デバイス情報、音声とオーディオのアクティビティ、位置履歴、ブラウザの履歴なども、Googleがそれらを保存してよいか、いけないかを指定できる。

またprivacy.google.comというサイトでは、Googleがどんなデータを何のために集めているのか、という疑問に答えてくれる。答えの多くは、“Googleのプロダクトを利用するときの体験をよりカスタマイズして、ユーザとの関連性の強い広告をお見せするため”、である。

answers site

Googleがそのサービスに関する情報を一箇所にまとめるのは、これが初めてではない。2009年にはGoogleはGoogle Dashboardを立ち上げ、2012年にはそれをさらに詳細にし、アクセスに関する数値情報も見られる専用のサイトを作った。

もちろんこれまでにも、プライバシーやセキュリティの設定は個々のサービスごとにできたが、今回のMy Accountハブの目的は、一箇所ですべてが見られて設定もできることによって、ユーザの混乱を避け、利便性を向上することだ。案内文も、より親切になった。

このところ大規模なインターネットサイトにおけるユーザデータの利用や保護に関する懸念が、政府の監視行為がばれたことなどにより、高まっている。とりわけGoogleは、検索やメールなどを初めとして、ユーザの日常のネット生活と深く関わっている部分が多いだけに、ユーザの懸念は大きい。

同社は2012年にユーザのプライバシーポリシーを一元化することによって、Googleの多種類のサービスへのアクセスを容易化し、ユーザが今Googleアクセスしていることをより正確に同定できるようにした。ところがこの新方針は多くのデータ保護勢力からの批判を招き、罰金刑の脅しまで頂戴するはめになった。

今回の、プライバシーとセキュリティ専用サイトの立ち上げは、規制当局のそのような懸念に応える意味もある。Googleは、集めている個人情報やその用途についてもっと明確に説明せよ、と迫る勢力もある。そしてそれらは、アプリケーションごとに漫然とやられるのではなく、Googleのプライバシーポリシーとして明記されるべきである、と彼らは主張する。Googleは1月にはイギリスの政府当局と、個人情報の収集に関して契約を交わし、プライバシーポリシーに関するコンテンツを、一般消費者に対しもっとアクセスしやすくする、と約束させられた。

今回の新しいハブは、Googleによるデータの利用のされ方に不安と疑念のあるユーザに、その全体像を一箇所で明らかにするとともに、ユーザがそれらの設定を自由に変更できることを、知らしめることも目的だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google、I/Oカンファレンスで機械学習の力を見せつける

img_0485

今年のI/Oのキーノート講演がGoogle史上最も派手だったと言う人はいないだろう。もしあなたが、飛行船から新型のGoogle Glassを持った人々が飛び出してくることを期待していたなら、間違いなく失望していただろう。代わりにGoogleは、比較的控え目なキーノートの中で、Androidをモノのインターネットに対応させる段階的なモバイルOSの改善や、デベロッパーの収益化、広告、アプリの分析などをやりやすくするための新しいツールの数々を発表した。

しかし、私を引きつけた3つの消費者向けGoogle新製品は、Google PhotosAndroid MNow On Tap、そして ― キーノート講演にはなかったが ― Inbox for Gmailの最新アップデートだった。いずれも、自然言語、高度な機械学習、およびこの数年Googleが注力してきた知識グラフデータベースを一定レベルで活用している。

例えばGoogle Photosは、現時点で最高の写真検索エンジンと呼べるものを塔載している。単に “trees”、”flowers”、”mountains” 等を検索すれば、自分の写真集の中からそれを見つけてくる。Photosは、Google+の写真機能を独立させたスタンドアロン版で、大部分の機能を既に実現していたが、今回Googleは検索機能を改善した。

Google “Now on Tap” は、アプリの中で起きていることを理解して追加のコンテキスト情報を提供し、それに関するユーザーの質問に答える。Googleのデモは大きな賞賛を浴びた。実演者がSpotifyで(なぜかGoogle Musicではなく)スクリレックスの楽曲を流し、Now on Tapを立ち上げて「彼の本名は?」と尋ねる。Googleがこれに答えるためには、アプリで何が演奏されているかを理解し、「彼」が誰を指しているかを理解した上で知識ベースを深く堀り下げなければならない。

tomorrowland-final

Inboxは、なぜかキーノートでは触れられなかったが、今やこの知識と自然言語を理解することによって、誰かがあなたに何かをして欲しいことに気付くと、自動的にリマインダーを生成する。さらに、今後の旅行に関する複数のメールを認識して、一つのグループにまとめることもできる。

Microsoftは、Cortanaでこの一部をやり始めており、Appleも似たようなツールを考えているに違いないが、Google製品が他を一歩リードしていると感じた。つまるところ、10億以上の項目に関するデータの知識グラフを利用できる会社は他にいない。そして良くも悪くも、Google以上にあなたやあなたのオンライン習慣(おそらくオフラインも)を知り、そのすべての情報にコンテキストを与えられる人はいない。

Google I/Oのキーノートは、いわゆるサプライズには欠けていたが(ただし翌日のATAPキーノートは補って余りあった)、上記3つの機能だけでも、ことユーザーを理解することに関してGoogleがライバルを大きく引き離していることを示している。

[原文へ]

(翻訳:Nob Takahashi / facebook

GoogleのCloud Test LabでデベロッパがAndroidアプリを、人気上位20機種の上でテストできる

kkviamwe8hy

GoogleがデベロッパカンファレンスGoogle I/Oで今日(米国時間5/28)ローンチしたプロジェクトCloud Test Labは、文字通りクラウド上のテストラボで、モバイルアプリを全世界的に人気最上位のAndroid機20機種の上でテストできる。公開は今年の後半となっているが、パイロットプログラムへの参加は今からここで申し込める。

Android製品は多様化が激しいため、デベロッパ泣かせだ。数機種の人気機種でテストしてOKでも、そのほかの機種でOKとは限らない。デベロッパはスマートフォンやタブレットをつねに数機種手元に用意しているが、自分のアプリを種類のやたら多い最新機種や最新のアップデートのすべてでテストすることは、ほとんど不可能だ。

google-io-20150241

このTest Labでは、デベロッパは自分のアプリケーションをアップロードするだけで、あとはツールが自動的にそのアプリの各画面を調べていく。そしてアプリがクラッシュしたらクラッシュログを生成し、デベロッパにはビデオで、ユーザの目前で何が起こったかを見せる。

このサービスは今後、Google PlayのDeveloper Consoleから使えるようになる。さらに長期的には開発プロセスの中に、そのほかのテストサービスなどと一緒に統合していく予定だ。

この種の自動化テストサービスはすでにいろいろあり、たとえばXamarinは、1000種類のデバイスの上でユーザのアプリをテストする。ただし月額料金が1000ドルからだ。それに比べるとGoogleのは機種の数が少ないが、でも無料だ。

〔TechCrunch Disrupt New York 2015に出たNativetap。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

極小画面のデバイスでも人間の手の自由な動きで細かく制御できる新しいインタフェイス技術、Google ATAPのSoliプロジェクト

google-io-2015-atap0025

GoogleのATAPが今日のI/Oカンファレンスで発表したSoliプロジェクトは、今日(こんにち)ますます小型化していくデバイスや画面を、手や指でもっと容易に操作するための仕組みだ。そのために何かのツールを使うのではなく、“手の動きで表現されるボキャブラリ”を使ってデバイスをコントロールする。目の前にそのデバイスが、なくてもよい。

ユーザは自分の手をごく自然に動かすだけだが、システムは動きの微妙な違いを精密に検出する。センサと手のあいだに物が介在していてもよい(たとえばデスクの下面にセンサがあるなど)。その秘密はレーダーを使うからで、画面の大小に関わらず正確な操作ができる。物理的肉体的にタッチするときに生ずる‘点のサイズ’という問題がないからだ。

人間の手から自然に生ずる触覚的なフィードバックも利用される。たとえば、指と指が触れ合うときの皮膚の摩擦だ。つまりSoliは、ユーザの手そのものを自分のユーザインタフェイスとして参照する。そのためにはもちろんセンサが必要だが、ハードウェアに関してそれ以外の要件はない。

  1. google-io-2015-atap0037.jpg

  2. google-io-2015-atap0036.jpg

  3. google-io-2015-atap0038.jpg

  4. google-io-2015-atap0039.jpg

  5. google-io-2015-atap0020.jpg

  6. google-io-2015-atap0022.jpg

  7. google-io-2015-atap0021.jpg

  8. google-io-2015-atap0024.jpg

  9. google-io-2015-atap0023.jpg

  10. google-io-2015-atap0025.jpg

  11. google-io-2015-atap0026.jpg

  12. google-io-2015-atap0027.jpg

  13. google-io-2015-atap0028.jpg

  14. google-io-2015-atap0029.jpg

  15. google-io-2015-atap0030.jpg

  16. google-io-2015-atap0031.jpg

  17. google-io-2015-atap0033.jpg

  18. google-io-2015-atap0032.jpg

  19. google-io-2015-atap0035.jpg

  20. google-io-2015-atap0034.jpg

  21. google-io-2015-atap0017.jpg

Soliはスマートウォッチのような小さなデバイスや、何かの‘面’の上、あるいは、デバイス本体と隔てられている‘距離’がある環境で使われることを想定している。そういう環境にはセンサとしてレーダーがベストだが、問題はそのサイズだ。そこでATAPはレーダーの小型化に努力した。何度も試作を重ねて、今では家庭用ゲーム機の1/4よりも小さくなっている。

ATAPは、大量生産も実現した。開発に要した時間は10か月だ。検出の精度は、個々の指の位置まで分かる。そこで、アプリケーション側では、わずかな動きにも反応できるから、高精細な3D画像のドローイングなども可能だ。

デベロッパは、その信号をAPIから受け取り、どんな用途にも利用可能だ。

Soliは、今年の終わりごろ、それに対応する実用製品、たとえばスマートウォッチなどを出す予定だ。Android Wearのハードウェアは、相当能力アップすると思われるから、クリスマス商戦に間に合うといいね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

ジーンズのLevi’sがGoogleの‘インターネット接続織物’Jacquardプロジェクトの初のパートナーに

google-io-2015-atap0064

GoogleがI/O 2015で披露したProject Jacquardは、インターネットに接続された織物で、衣類の表面からデバイスに接続してそれらを動かせるだけでなく、従来どおりにファッションの素材にもなる。すでにLevi’sが最初のパートナーになっているところから見ても、かなり将来性のある技術のようだ。

サンフランシスコに本社のあるLevi’sはジーンズのメーカーとして有名だが、今では総合衣料メーカーと言ってよい。今日(米国時間5/29)のI/Oで、ATAPのプレゼンテーションに登場したLevi’sの代表は、この新しい技術に飛びついた理由を説明した。そのキモは、デバイスと人間の日常生活とを、もっとしっくり馴染んだものにすること。いちいち気にせずにデバイスを利用できることだ。

アプリは同社独自で作るつもりのようだが、デベロッパコミュニティからの協力も求めている。この新たな技術を前提とすると、同社によれば、デベロッパも“ファッションデザイナー”だそうだ。

このパートナーシップはまだきわめて初期段階のようで、プロダクトの発表もない。でもここでおもしろいのは、技術開発がもはやGoogle自身の研究部門に閉じ込められないことだ。世界的に著名な老舗ファッションブランドとの協働により、Jacquardという一見突飛な技術から、人間の日常に定着する何かが生まれるかも、と期待される。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleがオンライン学習のUdacityとパートナーしてAndroid開発のナノ学位を立ち上げ、エジプト語へのローカライズも

uda

今日(米国時間5/28)サンフランシスコで行われたデベロッパカンファレンスI/OでGoogleは、Udacity とパートナーして6コースから成るAndroid開発のナノ学位日本語参考記事)をローンチする、と発表した。

これはビギナーのためのコースではなく、まだAndroid未経験のプロのデベロッパにAndroidモバイルアプリの“正しい書き方”を教える。コースが終了したらGoogleが彼/彼女を実際に雇うこともありえるほど、本格的な特訓教育を行う。

Udacityのそのほかの学位プログラムと同じく、ビデオ教材の視聴は無料だが、卒業証書や教育助手へのアクセスが必要なら、今回のコースでは月額200ドルの有料になる。

Udacityの協同ファウンダでCEOのSebastian Thrunによると、受講者は学位を得るために、6つのコースといくつかのプロジェクトを終了しなければならない。たとえばあるコースでは、アプリの中でSpotifyのAPIを使いなさい、と求められる。Udacityのそのほかの学習プログラムと同様に、実践的知識の獲得が最大の目的で、したがってコースよりもプロジェクトの意義がとても重要だ。

Thrunは曰く、“ねらいは、受講者が実践を通じて、Androidプログラミングに関して完全な自信を持てる状態になること。多項選択(三択四択〜〜)のテストなどは、やらない。いわばそれは、Googleが同社のデベロッパに持っていてもらいたいと願っている知識や技術をすべて叩き込む、というナノ学位コースだ”。

学位取得までの所要(許容)時間は6〜9か月、開始日は決まっているが、途中のペースは受講者が自由に決めてよい。

Google Play Services

Googleは、このプロジェクトに本気であることを示すために、年末に50名の学生を本社に招待して三日間のサミットを行う。その内容は、ハッカソン、雇用担当者とのミーティングなどだ。要するにGoogleは、実際に何名か雇うぞ、という姿勢を見せたいのだ。

さらにGoogleは、エジプト政府とパートナーしてこの学位の6つのコースを現代標準アラビア語(Modern Standard Arabic)にローカライズする。Udacityとしても、ここまでやるのはこれが初めてで、ビデオにアラビア語で字幕を入れるのではなくて、コースの全コンテンツをアラビア語化するのだ。

Googleはエジプトの学生2000名に奨学金を提供し、就職説明会や各種の集会を行う。Thrunによるとこれは、Udacityにとってもアラビア語圏に進出していくための好機であり、その地域に良質な教育を持ち込むと同時に、良質な就職機会も開拓していきたい、という。そして、“あそこらの戦争の数を減らしたいね”、とThrunは語る。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Chromecastが自動再生、キューイング、第二画面、マルチプレーヤーゲームなどを新たにサポート…革命的なユーザインタフェイスへ

driver-speedboat-paradise

GoogleのChromecastは、この検索の巨人を秘かに本格的なホームエンタテイメント企業に変えてしまいそうな、かわいらしい外見にパワーを秘めたメディアエンジンだ。このおちびエンジンに対応しているアプリケーション(もっとも典型的にはYouTube)のユーザが画面上の小さなボタンを押すと、コンテンツをテレビの大画面で楽しめる。この“Castボタン”はこれまで、合衆国だけでも15億回押された。そしてChromecastは、Googleのほかの船も浮上させている…たとえばYouTubeでは、Chromecastユーザの総視聴時間が従来より45%増加した。

Chromecastやその対応デバイス(Nexus Player、Nvidia Shieldなど)は、今年のI/Oカンファレンスで発表されるいくつかの新しい機能により、さらにパワーアップする。一言で言うと、これまでの単純なストリーミングマシンから、本格的なメディアデバイスに変身し、Chromecastとその操作デバイス(スマホなど)は、近未来のホームシアターやメディアルームの基本装備になる。Chromecast向けの開発をやっているデベロッパや、一般ユーザは、期待をふくらませて待つ価値があるだろう。

オートプレイとキューイング

ストリーミングTVがふつうのTVらしくなるためには、長時間の連続視聴が可能でないといけない。たとえばNetflixのようなWebアプリケーションでは、とくにユーザが操作しなくても複数のコンテンツを次々と‘上映’することができる。今度からChromecastでも、それができる、しかも、どんなコンテンツでも。

これをデベロッパのボキャブラリで言うと、最初のビデオが再生されているときに次のビデオをバッファリングしてキューを作り、一つのコンテンツが終るたびに次のコンテンストをユーザが指定する、という手間をなくす。しかもユーザはキューをコントロールして並び順を変えたり、新しいコンテンツを途中に入れたりもできる。これだけ高度なキューイングは、今のNetflixでもできませぬ。

今このAPIを導入しているアプリケーションは、NBA Game TimeとRed Bull TVぐらいだが、ほかのメディアアプリケーションも視聴者を長時間釘付けにするために当然導入するだろう。

ゲームマネージャAPI(マルチデバイス/マルチプレーヤーを簡単に)

複数のユーザが複数のデバイスを使ってChromecast対応のゲームを楽しめることは、元々この製品の大きな売りの一つだったが、これまでは乗り気でないデベロッパが多かったため、各人のスマートフォンをコントローラにしてTVに映しだされるゲームをシェアする遊び方は、あまり盛り上がらなかった。

I_O_Rolocule

しかし今度からはGame Manager APIというものが導入されるので、デベロッパにとって仕事がすごく簡単になる。ゲームに参加するデバイスはiOS、Android、Chromecast対応デバイスなど何でもよく、デベロッパはそういうマルチプレーヤー体験を容易に作れる。ローンチタイトルとして提供されるCatch Phraseは、よくあるパーティーゲームだが、この機能の活用例としては好適だ。

“マルチデバイス/マルチプレーヤは機能は最初から好評だったけど、それをもっと、デベロッパにとって使いやすくしたい、と考えた”、Chromecast担当VP Rishi Chandraはこう語る。“今では、モバイルゲームのデベロッパのほぼ全員が、このユーザ体験を作り出そうとしている”。

そこでGoogleは、TV画面上で共有されるスコアボードなど、共通的な機能を管理できるようにし、また個々のプレーヤーとデバイスのレベルでの、正しいセッション管理ができるようにもした。こうしてついに、Game Manager APIが誕生した。

ぼくはいつも感じていたんだけど、モバイルゲームも一人プレイはもう古い、マルチデバイス/マルチプレーヤには、未開拓の大きな可能性がある。これまでは、開発の難度と、参加〜プレイの容易化単純化正確化がネックだった。でもこの二つの大きな難点を、このAPIは克服できる。

リモートディスプレイAPI(iOSとAndroid)

スクリーンの二重化(デュアルスクリーン…ゲーム画面はTV、コントローラ画面はスマホ)はもちろんゲームにとって大きな意義があるが、Chromecastおよび対応ハードウェアを操作するAndroidとiOSアプリのための(ゲームに限らない)ジェネリックなAPI、Remote Display APIは、デュアルスクリーンの意義をさらに大きくする。これによりたとえば、TV(+Chromecast、〜対応デバイス)の画面にカーレースが映っていて、スマホ上では仮想ステアリングホイールを操作する、ということができる。あるいはTVの大画面を利用して写真の編集〜修正をやっていて、その細かい操作をスマホ上のUIでやる、といった“適材適所”の役割分担ができる。

i_o 2Pixlr

 

このAPIの初期のバージョンを実際に使っているのが、Autodesk Pixlrだが、これを見るとまさに、マルチディスプレイが新しいタイプのユーザインタフェイスだ、ってことを実感できる。Chromecastはこの、コンピュータシステムの歴史上かつてなかった、斬新な利用インタフェイスを支えるのだ。クリエイティブアプリ/アプリケーションはもとより、世界中のユーザ数がもっとも多い生産性アプリ/アプリケーションにとっても、これは朗報だ。それに、デスクトップアプリケーションがもっと多様な状況でモバイルにリプレースされるためにも、こんなインタフェイスがその基盤に必要なのだ。対象を見る画面は大(&高精細)、手による操作は手元の小型デバイス、という理想の仕事環境が、今後、社会の至るところで普及するだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Android Mの開発者プレビューを動かしてみた(ビデオ)

android-m1

Android Mはまだ開発の初期段階にある。しかしGoogleは、テストデバイスで確認するためのデベロッパー・プレビューを公開した。さっそくNexus 5に搭載して新機能などの確認を行なってみた(上のビデオをご覧ください)。当然ながら作りこみが不十分なところもあるものの、新機能の様子などを体感することができるだろう。

アプリケーションのドロワーやボリューム調節機能などの細かな変更点も、実際に使い勝手的には大きな改善と言えそうな感じだ。アプリケーションを名前で検索したり、あるいはアルファベット順に並べて探すことができるのは、大量のアプリケーションをインストールしている人にはとても便利な機能だろう。ボリューム調節では通知音やアラーム音などを簡単に設定できるようになっている。

新OSには「Google Now on Tap」という機能も搭載される。但し、現状のプレビュー版では、その実際の動作はまだほとんど確認できない状況だ。しかしどのようなタイミングでどういった機能が実行されるのかということを確認することはできる。

原文へ

(翻訳:Maeda, H

GoogleのダンボールVRがiPhoneでも(非常に快適に)使えるようになった

cardboard-iphone

GoogleのCardboard VRアプリは昨年のI/O 2014で初めて登場したが、初期バージョンはサポート端末が限られていた。今年公開された新バージョンは画面サイズ最大6インチの端末をサポートしているが、多くの人々にとってもっと嬉しいニュースは、iPhoneでも使えるようになったことだ。

新たに登場したCardboard for iOSアプリは、米国のApp Storeで公開中で、同じデモアプリが含まれ、同じQRコードベースのペアリング手順で使用ヘッドセットの世代に最適化する。Cardboard for iOSは無料、iPhone 5以降で使用できる。

新しいVRヘッドセットでは、内蔵された「ボタン」を使って表示されたコンテンツを操作することが可能で、その際にバイブレーションでフィードバックされる。

iPhone 6 Plusでアプリを使用したところ非常に快適な体験を得られた。実際、Nexus 5とNexus 6を含め、他のどの端末のCardboard VR体験よりも良かった。画面解像度のためなのか端末の能力なのか、新ヘッドセットとの相性なのかわからないが、何かがiPhoneとCardboardキットの関係を最適に調整している。

試してみたいiPhoneユーザーは、Googleのこのページに入手方法あるいは自分で作る方法がある。

[原文へ]

(翻訳:Nob Takahashi / facebook

Google、ダンボールVRキットを100万台出荷

google-io-20150282

Googleは今日(米国時間5/28)、ダンボール製キットのCardboardが静かにVRプラットフォームのリーダー(数においては)になっていることを発表した ― これまでに100万台のCardboard製品が出荷され、昨年12月発表時の50万台から100%増加した。

Cardboardの発展は、迫真性と高価格で高度なハードウェアよりシンプルさと低い参入障壁を優先するGoogleのアプローチを証明するものだ。Googleは昨年のI/Oイベントで初めてCardboardを発表した。Facebookによる巨額なOculus VR買収直後のことだった。

急速に拡大するユーザーベースは、ユーザーが何をVR体験に求めているかを知りたいデベロッパーにとって朗報であり、VRを広く低価格な製品に適用する方法を探る絶好の機会だ。

Cardboardおよびサードパーティー製の同等品は、現時点で消費者向けVR市場の圧倒的リーダーだが、そのためにGoogleがしたのはクールで安価な工作キットを作ったことだけだ。

[原文へ]

(翻訳:Nob Takahashi / facebook

Google Photosの「無料無限ストレージ」は、Appleの高価なiCloudを打ちのめすかもしれない

photos-comparison1

1テラバイトの写真を保存するのにいくらかかるか? iCloudなら240ドル/年。Dropboxなら100ドル。Microsoft OneDirveなら84ドル。Flickrなら25ドルだ。

Googleは、0ドル。デスクトップでもAndroidでも iOSでも無料だ。

Googleは今日(米国時間5/28)新たなGoogle Photosサービスを公開し、写真とビデオのストレージを無制限に提供する。唯一の制限は写真が16メガピクセルまで、ビデオの解像度が1080Pまでということ。

写真やビデオが大きすぎる時はGoogleが圧縮するが、見た目の画質は事実上変わらないと言っている。iOSおよびAndroidアプリの自動バックアップ機能によって、写真を保存することは忘れてよい。保存のための支払いも忘れてよい。

Google Photos

写真はコンピュータビジョンの金鉱

実質的にGoogleは金をバラまこうとしている。検索広告で十分な利益を上げているので、写真ストレージを長期投資として全面的に補助することが可能だ。Googleは写真が金鉱であることを知っている。そこには撮影した人の情報が大量に含まれ、広告のターゲティングや体験のカスタマイズに利用できる ― それを堀り起こすツールさえあれば。

google-io-20150192Googleには、ある。同社の持つコンピュータービジョン、機械学習、人工知能を始めとする高度な技術を活用すれば、写真に写っている人々、場所、物等を認識し、そのデータをユーザーの個人情報と結び付けることができる。お気に入りの炭酸飲料やオートバイと一緒に写っている写真から、そのユーザーに見せるべき広告がわかる。ランドマークから識別された位置から、何を探しているかを推測できる。そして、友達との自撮り写真から、Googleは誰とシェアするよう薦めるべきかのヒントを得られる。

アプリは、面倒な写真の編集や収集もやってくれる。「アシスタント」機能を使えば、露出過度を修正したり、連続写真をGIFアニメに変換して、あなたの冒険を短編映画にしてくれる。単なるファイルストレージは、誰でも提供できる一般的サービスだが、Google Photosは検索の巨人だけに可能な機能を数多く提供する。

GoogleのVP Bradley HorowitzをインタビューしたBackchannelのSteven Levyの記事によると、同サービスのコンピュータービジョンはまだ完全ではないが、新サービスの中心と言えるものだ。「乗り越えるべき最後の何%かを実現するカギは、大規模に展開することにある。大量のデータを得ることによって、技術を次々と向上させる好循環が生まれる」とHorowitzは言う。

優れたテクノロジーは人間の理解を不要にする

unnamed-fileユーザーを無料ストレージで誘惑することによって、Googleはわれわれの持つ膨大なメディアを手に入れ、同社の機械ビジョン学習システムを教育すると同時に、広告やサービスを改善しようとしている。そして、人は大量の思い出を移動したくないので、Google Photosはユーザーをさらに強く自社のアプリやサービスに結び付けることができる。Googleに情報を与えすぎることを懸念する人もいるだろうが、われわれは既にメールの管理を任せており、さほど悪い結果を招いていない。

しばしばGoogleは、人間を「理解」しようとしないと批判される。しかし、写真が同社の最も強力なテクノロジーを束ねることによって、その必要もなくなる。ストレージ、編集、整理、および検索がすべて同時に実行される。手作業でファイルを移動したり、色を調整したり、対象にタグ付けしたり、山ほどの写真をめくっていく必要はない。

Google Photosが素人フォトグラファーにとって完璧である理由はそこにある。狙ってシャッターを押すだけで、思い出を永遠に残すことができる ― 無料で。

[原文へ]

(翻訳:Nob Takahashi / facebook

Google、Android Wearを大幅アップデート。絵文字も手書き認識が可能に

draw-emoji-android-wear-watch

生まれながらのインターネット使いが大喜びしそうなニュースだ。これまで、自分が使いたい絵文字を見つけるのは非常に大変なことだった。この苦労を軽減しようと、Googleのスマートウォッチ用OSのAndroid Wearがアップデートを行ったのだそうだ。使いたい絵文字の大雑把な様子をスクリーンに描けば、Android Wear側で入力画像をスキャンして求められている絵文字を探し出すようになったのだそうだ。描いた絵文字(たとえばマルティーニグラス)に該当しそうな候補は複数表示され、その中からひとつを選んで利用することができる。

これは、本日開催されているGoogle I/Oにおいて行われているAndroid Wearのアップデートのアナウンス中に示された内容だ。新たなAndroid Wearでは、ローパワーモードにては白黒で表示することにより、情報を長い間にわたって表示するようなことができるようになっている。

原文へ

(翻訳:Maeda, H

Gmailのアクティブユーザーは9億超。そのうち75%はモバイル利用(付:Inboxはオープンになった!)

6133587103_05e7981a2c_o

Googleのプロダクト部門バイスプレジデントであるSundar PichaiがI/Oカンファレンスで発表したところによると、Gmailの利用者数は9億人にものぼるのだそうだ。前回利用者数が発表されたのは2012年のことで、その当時の4億2500万から倍以上に数値を伸ばしたことになる。さらに、そのうちの75%がモバイル環境からGmailを利用しているのだとのこと。

Googleが前回Gmailの利用者数を公表したとき、ちょうどHotmail(今ではOutlook.comとなっている)を抜いて首位になったときだった。それまではHotmailが長らく首位の座に君臨していたのだった。ちなみにこの分野におけるGoogleのライバルたちも、なかなか利用者の実数を明らかにしてはいない。ただ、Gmailが最もよく利用されているメール環境であるということは言えるのだと思う。

多くの人が利用し、そしてさらに利用者数を伸ばしつつあるGmailは、当然ながら大きなアップデートをおこなっていない。デビュー当初のGmailは、ウェブベースのメールクライアントとして革新的なものであると受け止められた。そのGmailも、あまりに多くの利用者を抱える中、「革新的」なアップデートを行いにくいという状況にもあるのだろう。そうした状況の中、Googleはこれまでインビテーションが必要であった「Inbox by Gmail」を一般公開することとしたようだ。Gmailの仕組みを利用した新たなプラットフォームで、Googleはここで最新メールクライアントのあり得えべき姿を示そうとしているのだろう。

Inbox by Gmailは本日よりオープンなクライントとなり、かつまた新しい機能も加わっている。但し、Inboxのオープン化によりGmailクライアントの開発をやめてしまうわけではないとのことだ。

原文へ

(翻訳:Maeda, H

Google過去10年の成長が一目でわかるインフォグラフィック・チャート

更新ペースが落ちているSEO Japanですが、厳選してお届けしている記事は大半がGoogleの話題。今回は、SEO Japanも関わるコンテンツマーケティング会社のエコンテが作成した、Googleのインタラクティブなインフォグラフィックを。Googleの決算情報を過去10年にさかのぼってビジュアル的にわかりやすく表現。普段、SEO的観点からGoogleを見ていない方も、改めて世界を代表する巨大企業に成長したGoogleの売上成長ぶりを再確認いただけるかと思います。 — SEO Japan

Google四半期決算インタラクティブ・チャート」では、次の内容を四半期毎に時系列で比較して見ることができます。

  • PL(損益計算)
  • BS(バランスシート)
  • GAAP(米国会計基準)ベースと非GAAPベースの営業利益・純利益
  • TAC(トラフィック獲得コスト)

グラフにマウスオーバー(スマホの場合はタップ)すると、吹き出し表示で詳細な数値を見ることができます。PCでは、グラフ上部の各項目名をクリックすることで、見たい項目のみを表示させ比較することもできます。また、スマホで見る場合は、縦長の画面でも見やすいよう、縦方向の時系列グラフを表示しています。

Googleの過去10年の成長がひと目でわかる、四半期決算インフォグラフィック・チャート

時系列チャートで情報をに置き換え、項目の表示期間や表示制御を設定できるグラフを用いることで、通常の表形式の決算発表からは読み取りづらい事柄を発見することができます。

例えば、Googleの2015年Q1の決算発表を受けて、多くのメディアは「売上高は前年同期比12%増加」と報じました。これは、Google自身の決算発表サマリーを元にした報道ですが、時系列で見てみると、過去最高だった2014年Q4から2015年Q1にかけて、売上が下がっていることがわかります。とはいえ、全期間を通して見ると、全体を通して順調に成長していることが分かります。

Googleの過去10年の成長がひと目でわかる、四半期決算インフォグラフィック・チャート

インタラクティブなインフォグラフィック・チャートは、情報を見やすくするだけでなく、細かい情報分析にも役立ちます。Googleの決算発表を毎回チェックしている方も、企業としてのGoogleの数値成長に興味がなかった方も、是非ご覧ください!

それなりにまとまっているのでは?と思うのですが、いかがでしたでしょう。好評なら、他の企業や企業比較版のインフォグラフィック・チャートも作成していきたいと思います。 — SEO Japan

続きを読む Google過去10年の成長が一目でわかるインフォグラフィック・チャート