Android上のGoogle Assistantのビジュアルな答が改良された

半年ぐらい前にGoogleは、スマートフォンのAssistantのルックスを一新した。そして米国時間4月6日、同社はそのフォローアップとして、Android上のAssistantのビジュアルな応答性を良くするための、小さいけどすてきな手直しを発表した。それによってアプリの使い心地は、Googleのそのほかのサービスと同じになるだろう。

たとえば、イベントをたずねたときの応答は、同じ質問をモバイルのブラウザー上でたずねたときとまったく同じだ。これまでは、Assistantのビジュアルな応答は、かなり簡略化されていた〔下図のそれぞれ左(Before)〕。

[イベント][株価][犬][猫]

  1. Events

  2. Stocks

  3. Dog

  4. Cats

また、これにはユーザーからの苦情もありそうだが、Assistantでは最適解がないのでWebサイトのリストを“その他の解”としてユーザーに見せるとき、二つのボックスを画面上に縦に並べた。それは、とっても見づらい。しかし今度からは、ふつうのGoogle検索のレイアウトと同じになる。

良いアイデアじゃないの。なんでそれに苦情が来るの? つまり、表示が通常のGoogle検索と同じになったことによって、検索広告も出るのだ。Assisitantが広告をユーザーに見せるのは、これが初めてだ。Webサイトのリストを答としてもらうような質問は、そんなに多くないから、まあいいじゃないか。でもユーザーが心配するのは、これをきっかけにAssistant上の広告が今後多くなることだ。

Googleによると、Assistantのユーザーに見せるその広告では、広告主は広告のターゲティングができない。そしてユーザーに関する情報を、捕捉しない。

今度のAssistantには、住宅ローンの計算や、カラーピッカー(画面から色を拾う)、チップの計算、水準器などの機能が加わった。また、株価を知りたいときは、完全な対話型のグラフでそれができる。今までのように、株価が表示されるだけではない。

これらの新しい機能は今のところ、アメリカのAndroidスマートフォンのみだ。例によって、あなたのお手元のスマホに現れるのはもうちょっとあとだね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google、モバイル用検索アプリをアップデート。パーソナル化されたフィードがメイン画面に

google-android-app

今日(米国時間12/6)Googleの看板モバイルアプリに大きな改訂があった。知っているべきこと ― 約束のフライトの時間等 ― と、興味のあること ― ニュース、スポーツ、エンターテイメント等 ― が区別しやすくなった。これまでのカード型デザインは変わらないが、2つのセクションに分けてコンテンツを整理した。自分専用のフィードと、upcoming(これからの予定)セクションだ。

upcomingセクションは、右下のアイコンをタップすると現れる。スケジュール、通勤の電車時刻、宅配便の通知、フライト、塔乗券などの情報が表示される。これは知的アシスタントのGoogle Nowが何年も前から提供しているものと同じ種類の情報で、Gmail、カレンダー、Googleマップ等、他のGoogleサービスのデータを利用している。

Googleが、個人の予定を表示する upcoming ではなく、ニュースフィードをデフォルトにしたことは興味深い。改訂されたアプリでは、このパーソナルフィードがアプリのメインセクションになり、好きなスポーツチームや気になる人物、音楽、ニュース記事等が満載される。これは、不可欠な重要情報が他のフィードに埋もれる心配がなくなることを意味しているが、通常は見えないという意味でもある。見るためには upcomingフィードを表示させる必要があり、この設定は変えられそうにない。

このフィードは以前と同じくアプリの設定画面でカスタマイズが可能だ。どの株を追いかけるか、どのスポーツチームが好きか等々。さらにGoogleは、このフィードを使い続けるとさらにパーソナライズされ、意味のある情報が載るようになると言っている。Googleやこのアプリを使えば使うほど。

狙いは明らかで、フィードの整理をよくして最重要情報が散乱した情報に紛れないようにすることだ。2つのセクションを切り替えるのは簡単だが、ニュースフィードをデフォルトにした選択には疑問が残る。

finaltake_2

Googleのアプリは、広大なウェブに飛び出していくことに長けていて、移動の計画やスケジュールの確認にはとても便利だが、ユーザーが気にかけていることを知るパーソナルアシスタントではあまり成功していない。

設定画面で明示しない限り(株式、好きなチーム等)、アプリがニュース記事を選ぶ基準は、それまでにユーザーがGoogle検索した履履に頼りすぎていると感じる。

今回の改訂でGoogleは、interests[関心事]セクションを前面中心に据え、ユーザーと自社コンテンツとの接触を増やそうとしている。そうすることで、フィードのパーソナル化を進め、関連度を高めることが可能になる。これまでは過去の検索を反復するだけだった。

さらにGoogleは、フィードをカスタマイズするための新機能も公開する。

まず米国からだが、読みたい記事や情報の話題を選べるカードがフィード内に表示される。これは、アプリをあまり使っていなかったり、Googleで関連性の高い検索をしていないユーザーの「コールドスタート」問題の解決に役立つだろう。

AndroidおよびiOS版Googleアプリのアップデートは今日から公開される。

[原文へ]

(翻訳:Nob Takahashi / facebook

GoogleのNow on Tapがより賢く進化した

BlogSpot_gif_v1_garciarobert (1)Googleが昨年、Android Marshmallowについてアナウンスした際、もっとも注目を集めたのはNow on Tapの機能だったのではなかろうか。操作時点でスマートフォンないしタブレット画面に表示されている内容に関連するコンテンツを検索してくれる機能だ。

そのNow on Tapに、3つの新機能が加わってさらに便利になった。Now on Tapが「賢くなった」と言っても良いだろう。

実装された新機能のまずひとつ目は、どのアプリケーションを使っているときでも翻訳を可能にしたものだ。Chrome利用時には表示コンテンツを翻訳する機能がすでに搭載されていたが、他のネイティブアプリケーションでは使うことはできなかった。それが、Now on Tapにより「すべてのアプリケーション」に、翻訳機能を実装することとなったわけだ。翻訳したいコンテンツを表示している最中にNow on Tapを起動して、新たに表示されるようになった「translate this screen」を選べば良い。表示されている文章が、スマートフォンで利用している標準言語に翻訳されるのだ。Now on Tapの翻訳機能は、現在のところ英語、フランス語、イタリア語、ドイツ語、スペイン語、ポルトガル語、およびロシア語への翻訳に対応しているとのことだ。

BlogSpot_v2_garciarobert (1)さらに新機能のその2として、「Discover」というセクションが登場した。ここでは関連する話題やビデオなどを見ることができる。ちょっと使ってみたところでは、なかなか役立つ情報が表示されているように思う。

最後にに3つ目として、カメラを使いながらNow on Tapを利用できるようになった。バーコードないしQRコードをカメラでとらえながらNow on Tapを起動すると、バーコードを認識して関連情報を表示してくれるのだ。たとえば書籍のバーコードで試してみると、ただちに出版社および書籍の情報を表示してくれた。さらにチョコレートについているバーコードをうつしながらNow on Tapを起動してみると、商品名が表示された。残念ながら、ただちに当該プロダクトをオーダーするようなインタフェースは提供されていないようだ。ただし商品名がわかったのなら、そこからGoogle検索を行なってAmazonやメーカーのサイトにジャンプすれば事足りる話ではあるかもしれない。Googleによれば書籍やDVDなどなど、さまざまな製品で利用できる機能だとのことだ。

ところで今回のアップデートでも、Now on Tapが抱える最大の問題は放置され続けることとなった。すなわち「知らない人は気づかない」問題だ。Now on Tapの機能を知らない人は、ホームボタンの長押しなどしないかもしれない。Now on Tapに気づいてもらうのに、おおいに「偶然」に頼っている感じなのだ。Now on Tapが非常に便利であるだけに、知らない人にも気づいてもらえる仕組みを考えるべきだと思うのだがどうだろうか。

(訳注:訳者の所有する端末では、まだNow on Tapのアップデートは確認できていません)

原文へ

(翻訳:Maeda, H

Googleの音声検索の履歴はこうやれば聴ける、そして削除できる

DUBLIN, IRELAND - APRIL 19:  (FRANCE OUT) A general view the Google European headquarters, on April 19, 2016 in Dublin, Ireland.  (Photo by Vincent Isore/IP3/Getty Images)

Googleは、あなたの想像以上に、盗聴をやっていたようだ。そのつもりもないのに。

2015年の6月からGoogleは、Webサイト上の個人データを保存している。ユーザーは、自分の情報ならアクセスできる。その機能はデジタルの日記的でもあり、検索やYouTubeの履歴、それに、そう!、Google Voice Searchの履歴も保存される。

Voice Searchの場合の問題は、遠いところからの、“Ok Google”という言葉(それらしく聴こえる言葉)も保存されることだ。何かの事故で、あなたが起動したつもりのない音声起動のAI(GoogleやSiri、Alexaなど)が起動されることが、ありえる。

でもGoogleが保存しているその情報は、ユーザー本人ならアクセスできるから、知らない間に録音された会話を知ることはできる。スマートフォンを毎日のように朝から晩まで使っているAndroidユーザーでも、そうだ。

Googleがこれらの会話を保存する理由は、ユーザーに履歴情報を与えることや、自然言語関連の研究開発に利用するなど、いろいろだろう。

いずれにしても検索の履歴は、ユーザーが完全にコントロールできる。履歴はここにあるから、自分で聴いてみて、要らない録音は削除できる。

検索の履歴はすでに1年近くたまっているから、人によっては、すごい量かもしれない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AIにできない部分を人間がどうやって補うのか…デジタルアシスタントが進化してもその部分は存在する

2011年にSiriがiOSに登場してから、聞けば何でも答えてくれるデジタルアシスタントは大手スマートフォンプラットホームの共通の大課題になってきた。

AppleがそのAIコンパニオン(Siri)を出してから1年も経たないのに、GoogleはGoogle Nowでそれに続いた。それは、ユーザの位置やメールの受信箱やそれまでのトラフィックの履歴などに基づいて、前もっていろんな通知をくれるサービスだ。

そして今年はMicrosoftが同社のBuildカンファレンスで、スマートアシスタントCortanaを発表した。その名前は、HaloゲームのXbox上のフランチャイズに登場するAIの名前を借りている。Microsoftによると、Cortanaはまるでユーザの秘書のように、あるいはこれから帰宅するとき妻にあれこれ用事を電話するどこかの旦那のように、忘れてはならないことを間に合うタイミングで事前に思い出させてくれるAIサービスだ。

彼らは今日のフライトに間に合うためにはいつもより15分早く退社しろ、と教えてくれるお利口さんだし、SiriやCortanaはときどきジョークも言うが、これらのアシスタントたちには明らかに限界がある。Siriはリマインダーだが、ユーザ自身による会議のスケジューリングを助けてくれない。Google Nowは近くのレストランを教えてくれるが、ユーザの好きな席のテーブルを予約できない。

Fancy HandsJarvisのような、有料のデジタルアシスタントもある。毎月の料金を払うと、これらのサービスは、SiriやCortanaを出来損ないアプリのアルファバージョンかと思わせるほど、見事にユーザのリクエストに応える。



〔ここにスライドが表示されないときは、原文を見てください。〕

これらのアシスタントは、どうやってこれほど高度な仕事をやっているのか? Jarvisはユーザが好きな食べ物を知っているのか? ユーザが乗れるフライトを探すときは、ユーザのスケジュールを秘かに見ているのか? 定型メールを送っているだけなのに、リアルな対話っぽいやりとりができるのか?

たしかにそうだが、でもそれは、彼らのAI技術が人知れず高度だからではない。彼らは、デジタルアシスタントのTaskRabbit(人力便利屋)を作ったのだ。リクエストを送るとその先には、学卒の労働者がコンピュータの端末の前に座っていて、ユーザのオフィスの近くにおいしい食べ物屋さんを探したり、価格比較サービスを利用してフライトを見つけたりしている。

今のWebアプリケーションがどんなに便利でも、仕事先の人を接待する店をYelpで探すのはかなりの手間だ。候補が多くてなかなか決められない人もいる。でも、これらの有料デジタルアシスタントのユーザたちに話を聞いてみると、そういうとき候補を三つか四つしか言わないので、決めやすいということだ。退屈で些細な仕事は誰かにやらせたい。ふつうの人たちにとって、その誰かが100%コンピュータのプログラムでなければならないことはない。

数年後には、これらのタスクもソフトウェアがやるようになるだろう。AppleもGoogleもMicrosoftも、現状の技術に納得してはいない。また、Siriの作者などが作った新しい企業は、ユーザの好きなアプリをすべて知ることにより、ユーザが抱える状況をある程度理解した上でアシストを提供するサービスを、提供しようとしている。

でもそれまでは、人間がまるで機械の中の歯車のように、これらのサービスにはめ込まれている、という面白い光景がある。ユーザにとってのインタフェイスは、人間というより、まるっきりアプリのそれだ。Jarvisはテキストメッセージングやメールを使うから、Siriのメッセージング機能からでも利用できる。データも、上の画像で見られるとおり、人の言葉というよりもコンピュータの出力だ。しかし複雑なコンテキストを解析したり、単純なリクエストからそのコンテキストを理解することは、コンピュータにとって何年も先の話だ。

でもそんなテクノロジがやってきたら、これらの人力サービスはなくなるのだろうか? それとも、そのときはまた、コンピュータには対応できない分野を見つけてサービスを続けるのか? たとえば、毎日忙しくてやるべきことが多すぎる人や、仕事の内容やニュアンスをコンピュータが得意とするシンプルで単純な言葉では表現できない職種の人は、相当進化したAIアシスタントにもやはり、不満を感じるかもしれない。コンピュータの前に座る人間労働者は、AIも道具として使いながら、今よりも多くの仕事をこなせるようになっている、のかもしれない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


GoogleとHPが提携―Google Nowがエンタープライズ・データのバーチャルアシスタントになる

われわれはSiri、Google Now、Microsoft Cortanaなどのパーソナル・アシスタントに天気、映画、スポーツなどについて尋ねることができる。しかし自分の会社の四半期売上や財務情報について知ることはできなかった。しかしThe InformationによればGoogleはHPと協力しながら、そういうことができるようにする準備を進めているという。 Google Nowがエンタープライズ・データにアクセスして組織内情報のバーチャル・アシスタントになってくれる。これはエンタープライズのモバイル・コンピューティングにまったく新しい分野を開く可能性がある。

これに先立って、AppleもHPとエンタープライズ・コンピューティングにおける協力の可能性を話し合っていた(Appleはその後、IBMと全面的に提携した)。The InformationによればHPとの協力の中には、ビジネス情報に特化したSiriが含まれていたという。Googleとの提携ではHPが開発中のエンタープライズ向け検索エンジンが利用され、これにバーチャルアシスタント機能が加わることになるだろう。一般ユーザー向けのバーチャルアシスタントに関してGoogleが大きくリードしている。これでAppleとGoogleはエンタープライズ市場でのモバイル・コンピューティングで真っ向から激突することになる。

こうしたエンタープライズ・スマート・システムにはアポ、位置情報、連絡先など各社員の個別データに加えて、会社の売上、財務情報のような重要な全社的情報が登録され、必要に応じて検索できるようになる。たとえば、あるプロジェクトの成績をレビューする会議を開くときにはリーダーがシステムにログインし、必要な情報を即座に収集してメンバー全員と共有するなどができるようになる。

モバイル・バーチャル・アシスタントは、すでにユーザーの置かれたコンテキストを認識して、検索に対してもっとも適切な情報を表示する、あるいは検索される前に情報をプッシュ通知することができるようになっている。ユーザーは以前のデータベース検索で必要とされたブール演算子や命令を用いた複雑な検索式を組み立てる必要がない。エンタープライズのビッグデータに関しても同じことが可能になるシステムなら規模の大小を問わず、あらゆる企業が関心を示すだろう。

Googleとの提携の具体的内容は明らかになっていないが、HPは縮小するパソコン事業を補う意味でもエンタープライズ・ソフトウェアにますます力を入れることになるだろう。MicrosoftもCortanaに一部のサードパーティー・デベロッパーのアクセスを許し始めたところでもあり、この分野からは目が離せないことになってきた。

[原文へ]

(翻訳:滑川海彦@Facebook Google+


長年腕時計嫌いだったぼくがAndroid Wearスマートウォッチを常用したくなった理由

今年のGoogle I/Oはいろんなプロダクトの寄せ集めみたいで、しかもその多くは早くて今年の終わりごろでないと可利用にならない。でも、来た人がいちばん知りたかったのはAndroid Wearのことだ。Googleのそのスマートウォッチ用オペレーティングシステムはほとんどAndroidそのものだから、デベロッパは比較的容易にアプリを作れると思うが、でもその現状の姿は、Google Nowのいろんな通知をユーザの手首に持ってくるためのシステムだ。

ぼくのスマホにはかなり前からGoogle Nowがあるけど、Wearのウォッチをしばらく使っていると、こいつはまさに、Google Nowのための専用機だ、と思えてくる。というか、Nowをこんなに身近に感じるのは、スマートウォッチの上で使うようになってからだ。Androidの上では以前から、かなり出しゃばりの、よく目立つアプリだけど、じっくり付き合うようになったのはウォッチに載ってからだ。

もちろんAndroid Wearには、スマートフォンからの通知もすべて来る。対話的な通知でもWearはなんとかこなせる。でも、スマホの通知が全部ウォッチに来るのはやり過ぎだ。嬉しいことに、通知がウォッチに来てもよいアプリをユーザは指定できるが、でもAndroid Wearの断然便利な機能といえば、Google Nowへの容易なアクセスなのだ。

今では誰もがGoogle Nowを知ってると思うが、でもそれをスマホの上で使うのと、手首の上で使うのとでは、基本的な違いがある。情報を正しいタイミングで伝えてくれるのはどちらも同じで、仕事中ならそろそろ家に帰る時間だと教えてくれるし、誰かとのアポイントがあるなら、そろそれそのために出かけろ、と教えてくれる。空港にいたら、搭乗ゲートを通るためのバーコードを表示する。これらの情報はすべて、スマホにも提供されるのだけど、腕時計の上だと、情報へのアクセス性、というか情報の利便性が、ぐんと高まるのだ。

もちろんそれは、Google Nowが正しいときにかぎるけど、だいたいいつも正しい。Nowが提供する情報の種類はかなり多いし、今でも新しい情報やカードが増え続けている。中には、スマホでは意味があるがWearの上では無意味な情報、たとえば検索の履歴などもあるが、しかしそんな情報は腕時計には来ないから大丈夫だ。

ただし、Nowは正しくてもWearが正しくないとがある。たとえば天気予報のカードを間違えてスワイプして画面からなくしてしまうと、それを取り戻すのが難しい。それはWearというオペレーティングシステムのUIの問題点の一つだが、ぼくを実際に困らせる唯一の問題でもある。ウォッチの小さな画面上でのカードの操作を、もっと簡単容易にしていただきたい。

Google NowはGoogleのいろんなサービスを一箇所に詰め込んでいるのだが、Wearにもそんな感触がある。それは、Androidとそのエコシステムから学んだこと、プラス、進歩した音声認識、プラス、まったく新しいデザインのデバイスだ。

そんな新しいデバイスのシステムが、Google Nowをユーザの手首へ持ってくる。それは、一見つまらないことのように思えるかもしれないけど、現実の使い心地としては、スマートウォッチ上のGoogle Nowほど便利なものは、今の世の中に、ちょっとほかにない。それだけに200ドルの価値がある、とまでは言えないにしても、Wearを一週間も使ってみれば、これからも使い続けたいという気持ちになってしまう。何を隠そう、ぼくなんか、もう10年以上、腕時計不使用の人間なのだ。

数か月後からGoogleは、MicrosoftやApple、それに数社のスタートアップと、スマートウォッチで競争することになる。でも、Google Nowみたいにユーザのことをよく知っているアプリを他社が作るのはたいへんだろう。だからiWatchがよっぽどすごい・すばらしい製品でもないかぎり、スマートウォッチの競争では、Google Nowのおかげで、Android Wearがかなり有利だろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Google Nowカードがデスクトップ版Chromeにやって来る―数週間かけて順次公開

GoogleはGoogle Now通知センターをデスクトップ版Chromeに移植した。アップデートは今日(米国時間3/24)から数週間かけて行われる。

ユーザーは新機能によって携帯電話で受け取っている内容と同期した通知をデスクトップでも受け取ることができるようになる。Google Nowを利用するためにユーザーは特に何もする必要はない。iOSまたはAndroidスマートフォンで使っているのと同じアカウントでログインするだけでよい。

Google Nowカードには今日の天気、スポーツ試合の結果、交通情報、Googleカレンダーに登録した日程などが表示される。こうしたデータの一部はユーザーのスマートフォンの位置情報に基づいて選択されるという。

Googleは今回発表したヘルプ文書で、 iOSまたはAndroidで自宅、勤務先の位置情報を設定すると、それがデスクトップのGoogle Nowにもコンテキストとして反映すると述べている。 Google NowはChromeが起動していないときでも位置情報をチェックしている。Nowを必要としない場合はChromeの通知アイコン(釣鐘型アイコン)をクリックし、設定(歯車アイコン)を開いて[Google Now]のチェックを外せばよいということだ。

Google NowがChromeに導入されるのは予期されていた。デベロッパー向けバージョンではしばらく以前からこの機能が実装されており、2月からはベータ版にもNowが組み込まれた。やっとGoogleはNowを一般向け安定版に導入する準備が整ったわけだ。最近Googleはモバイルとデスクトップのプラットフォームを融合させる試みを加速せているが、これもその一環だろう。

Google Nowはユーザーの利便のためばかりでなく、 Googleがユーザーについてのデータを収集するための手段としても開発された。今回のChromeへの導入にあたってGoogleはさらにNowの対話性を高め、新たなユーザー情報を収集する方法を準備しているかもしれない。そのためにはNowをさらにスマート化し、利便性を高める必要がある。デスクトップ化に伴ってGoogleがどんな機能強化を考えているのか注目だ。

[原文へ]

(翻訳:滑川海彦 Facebook Google+


GoogleのiOS用検索アプリがハンズフリー検索をサポート。Google Now通知とリマインダーも改善

本日(米国時間11/5)Googleは、iOS用検索アプリの最新バージョンを公開し、Google Nowのリマインダーと通知サポートが改善されると共に、「OK Google」コマンドを使用したハンズフリー検索が可能になる。

iOSユーザーがGoogle Nowのプッシュ通知を利用できるようになることを、Googleが最初に発表したのは、9月にGoogleのガレージで行われた風変わりなプレスイベントの時で、それ以来同社は改善を続けてきた。

新機能の殆どが、Androidユーザーにとってはお馴じみのものだが、これでiOSユーザーも、交通渋滞のために約束の時間に遅れそうな時、プッシュ通知を受け取れるようになる。さらに、Googleの今やよく知られている”OK Google” コマンドを使ってリマインダーも設定できる。例えば「OK Goolge、家に戻ったらメールをチェックするよう教えてくれ」などと言えば、帰宅時にGoogleが通知を送る。同じように、新作の映画やアルバムのリリースが近づいた時のリマインダーを設定できる。

このバージョンでは、塔乗券や映画のチケットがアプリのホーム画面に表示される他、アプリを開いている間は常に音声を待機しているので、マイクボタンを押すことなく、いつでも「OK Google」コマンドを使用できる。ただしこの機能はある程度新しいデバイス(iPhone 4s、iPad 2以降) でしか動作しない。現時点では、この機能および音声によるリマインダー設定は英語でのみ使用できる。

[原文へ]

(翻訳:Nob Takahashi)


新しいGoogleマップがさらに進化中―複数目的地のサポートを再開、フライト、イベント情報と連携

現在Googleマップは大規模なアップデート中だ。まだベータ段階だが、フルスクリーン・モードや公共交通機関との連携の拡充など重要な機能が追加されている。

その一方で新しいベータ版で失くなってしまった機能もある。その機能を長年使っていた私のような人間からするとまったく残念なことだ。失くなってしまった(そして私が残念がっていた)機能の一つがナビゲーションにおける複数目的地のサポートだ。

ありがたいことに、その機能が戻ってきた。新しい目的地を追加するにはルート検索窓を開き、現在の目的地の下に表示されるプラス(+)アイコンをクリックする。入力がすんだら目的地の左側のアイコンをつかんでドラグして順序を自由に入れ替えることができる。

新しいGoolgeマップをテストするにはこのページを訪問して、「使ってみる」をクリックすればよい。ただし多少のバグとCPUパワーの大食いは覚悟しなくてはならない(もっともローンチ当初にくれべればリソースの消費はかなり軽減された。安定版のGoogleマップでは複数目的地のサポートはずっと維持されている)。

一方、新しいGoogleマップは異母兄弟ともいうべきGoogle Nowからいくつかの機能をを取り入れている。

Googleがユーザーのフライト情報、レストランの予約情報を持っている場合、そのデータがマップに反映される。サンフランシスコ国際空港を検索するとユーザーのフライト情報の詳細がドロップダウン・リストで表示される。実のところ空港の場所を検索する前にフライト情報が自動的に表示されたらもっと便利だろう。しかしこの機能は、タクシーの運転手に「ターミナルは?」と尋ねられたときにどの航空会社だかすっかり忘れていた、などというピンチを救ってくれることは確かだ。

また新しいマップには、その地区、ないし施設で近く開催されるイベントも表示されるようになった。音楽会場を検索すると付近の会場とそこで近日開催予定のコンサートの一覧が表示される。特定の施設、たとえばOakland Coliseum(アスレティクスのホーム球場のお隣だ!)を検索すると向こう数週間そこで開かれるコンサートやショーの予定が表示される〔たとえば今日開催されるPinkのショーをクリックするとVividseatsのサイトにジャンプし、オンラインでチケットが購入できる〕。

[原文へ]

(翻訳:滑川海彦 Facebook Google+


Google Now、リマインダや音楽等、新しく6種類の「カード」を追加


GoogleからGoogle Nowについてもアップデートの発表があった。AndroidおよびiOSで利用する自動情報提示インテリジェントツールである「カード」に、新たに6種類が加わることとなった。加わったのは位置情報を活用するリマインダ、公共交通機関情報、本、音楽、テレビ、そしてゲームに関するものだ。いずれもこれまで同様に利用者にとってタイムリーに表示される。

たとえば新しいリマインダカードは時間、一緒にいる人、位置情報に基いて情報を表示する。また自然言語処理を行うことができ、簡単に音声コマンドでセットすることもできる。AppleがiOS環境で提供しているリマインダーに似ているとも言えるかもしれない。ただ、Google Nowのナレッジグラフと連動することで、一層便利に使える可能性がありそうだ。また、ReminderはNowに対して自ら情報提供のタイミングを指示するものという意味もある。これまでNow側からの自動情報提供であまり有益な情報が得られないと感じていた人も、このリマインダ機能により、新たな可能性を感じることになるかもしれない。

他に提供されることとなった新カードも、外出時などにいろいろと役立ちそうだ。ただ透けて見えるのはGoogle Playの売り上げを伸ばそうとするGoogleの意図だ。Nowと連動させていくという方向性は、なるほど頭の良いやり方というべきだろう。本格的モバイル時代が到来し、デスクトップにおける検索広告の収益性がますます低くなっていくものと思われる。そのような中、新たな収益源として機能しそうに思われる。

原文へ

(翻訳:Maeda, H)


Google NowのNexus 4向けCMはなかなか説得力あり―Siriより実用性高いかも

GoogleのCMはいつも上出来だったわけではない。Google+を立ち上げたときのCMは売り物であるサークルの紹介の仕方がまずくて面倒な大仕事のように見えてしまった。

しかしその後努力したらしく、最新のNexus 4/Google NowのCMはユーザーが世界中でこの機能を便利に使うところをなかなかうまく見せている。

Google NowはSiriに対するGoogleの回答だ。ただしGoogle Nowでは音声認識はSiriのように強調されていない。Googleはむしろ実際に役立つ情報を即時的確に提供できるという点を強調している。Google Now はスケジュール、位置、天気、その他現在のユーザーの行動に関連するかもしれないさまざまな情報をモニタする。それに基づいてユーザーが知りたがっていることを推測し、その情報を提供する。

たとえば私が午後ジムでエクササイズをする予定だとカレンダーに記入しているとしよう。Google Nowは私がジムに行くのに使う電車のダイヤを調べ、運行に遅れがあるようなら通知してくれる。そこで私は早めに家を出ないと遅れるかもと気づくわけだ。

しかしこれなどはほんの手始めにすぎない。Google Nowは外出中に付近のショッピングや飲食店の情報も教えてくれる。外国を旅行しているときは単語の翻訳をしてくる。ユーザーはなんであれ自分のまわりの情報をより正確にリアルタイムで入手できる。最新のテレビCMはその機能をうまく説明しているし、Nexus4の大型画面上の美しいデザインのユーザー・インタフェースも巧みに売り込んでいる。

最後は東京に出張している父親が息子とGoogleハングアウトで会話する心あたたまるシーンでCMが締めくくられる。なんといってもスマートフォンの一番大きな役目はわれわれを愛する人と結びつけることにあるのだ。

sirisucksGoogleはCMで音声認識機能をまったく使っていないが、私はSiriと機能を比べたくなってCMにあった使い方をすべてSiriで試してみた。

Siriは全く問題なく近くのレストランを探すのに成功した。「野菜」という単語をフランス語に訳すのもそう難しくなかった。しかしSiriは(というかAppleは)いささか時間の理解に行き届かないところがある。特にA地点からB地点に移動するために必要な時間にむとんちゃくなところが見られた。

私はSiriに「次のアポは何時?」と尋ねて教えてもらうことはできる。 しかしSiriは「いつ家を出たらいい?」と聞いても教えてくれない。移動手段や最適な経路の設定はできないのだ。もちろん電車が遅れているなどという通知もしてくれない。私が「ユニオンスクエア駅に一番早く着く地下鉄は?」〔Crook記者はニューヨーク在住〕と尋ねたところ地図アプリが開き、続いてAppStoreに送り込まれた。そこで乗り換え案内アプリを買えというわけだ。

Appleの地図アプリは公共交通機関の乗り換え案内を内蔵していない。そこでApple の地図アプリで乗り換えを調べようとすればまずサードパーティーの乗り換えアプリをインストール必要がある。

私自身はGoogle Nowから直接Googleハングアウトを立ち上げることができることにそれほど大きな価値があるとは思わないが、Siriは私がある友達をFaceTimeで呼び出すよう数回叫んでも理解してくれなかった。

アップデート: 鋭い読者からコメントがあったが、私はFaceTimeの呼び出しコマンドを間違えていた。 「FaceTime (ここに呼び出したい相手の名前)」と呼びかければSiriは正しく動作する。

[原文へ]

(翻訳:滑川海彦 Facebook Google+

Google Nowがデスクトップでも可利用に?: Chromeのコードに通知センターが加わる

richNotification

Google Nowはたぶん、ぼくがAndroidを好きな理由の一つだ。だから、Chromiumの最新ビルドにノーティフィケーション(通知)センターが載ったというニュースは、すばらしい。先月のChromeのコードの変更はGoogle Nowのカードが近くChromeに載ることを示唆していたから、ノーティフィケーション(通知機能)と合わせると*、いよいよGoogle Nowはモバイル以外の世界にも広がっていくようだ。〔*: 新しいGoogle Nowカードが掲出されるとユーザには通知アラートが行く。だから両者はセット。〕

通知センターに関するコードの変化を見つけたのはフランスのデベロッパFrançois Beaufortだ(The Next Webより)。Google NowのカードがChromeに載るらしいと思わせる最初の変化を見つけたのも、彼だ。実際に動かしてみるには、Chromeのためのオープンソースの開発パイロットというかテストベッドのようなChromiumを使う必要がある。そして、ブラウザの構成パラメータchrome://flagsで”Enable Rich Notifications”オプションをonにする(通知をon)。こんな面倒なことをするより、Chromeの正規バージョンを待ちたいというユーザがほとんどだろう。しかもノーティフィケーションセンターには今はまだ、わずかなものしかないからね。

これまでの通知機能はGoogle Nowにとってあまり便利じゃなかった。ノーティフィケーションセンターの導入で、Chromeの通知機能が大幅に改良される。つまりiOSのNotification Centerみたいに、通知が一箇所で集中管理されるのだ。最新情報が一箇所にまとまっているから、ほかの仕事をしながらでもほんの一瞬で更新情報をチェックできる。とりわけ、Chromebookのユーザには便利だ。

Chromiumで試行したことのすべてが、その後の安定バージョンのChromeに載るわけではないが、でもこれは、Google Nowのリーチを広げていく長期的な戦略の一環だろう。とくに、デスクトップではモバイルよりも多くのユーザ情報を集められるから、Google Nowにとっても、栄養豊富な環境だ。それに、デスクトップユーザにGoogle Nowの味を教えると、モバイルでも使いたくなるだろう。Chromeが正規にサポートして当然、とも言える機能だよね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))