Amazon Echoは、Siri風アシスタントが常時待機している199ドルのスピーカー


Amazonは、現在どのIT企業も同等品を出していない新製品を発表した ― つながっているスピーカー、Echoは、常時オン状態で待機して、バーチャルアシスタントが利用者の命令を聞いて情報を知らせたり作業を開始したりする。

この円筒形デバイスは部屋中に広がる音を出し、上部にある7つのマイクロフォンは、ビーム形成技術を使ってユーザーの声を特定し、部屋のどこから話しかけられても聞き取ることができる。要求を理解しやすくするために、演奏中の音楽などのバックグラウンド音をフィルターすることもでき、音声はAmazonのクラウドベース・ウェブサービス経由で処理されるため、要求の認識は対応は時間と共に改善されていく。

360度全方向スピーカーを内蔵し、ユーザーの端末からBluetooth経由で接続するほかに、Amazon Music Library、Prime Music、TuneIn、およびiHeartRadioの音楽再生機能が標準でサポートされている。さらに、地方ラジオ局やNPR、TuneIn経由のESPNその他の情報源によるニュースや気象情報を聞くこともできる。ユーザーの質問には、Wikipediaから得た基本情報、単語の意味、さらには単位の変換もリアルタイムで答えてくれる。


Amazonは専用のEchoアプリも公開し、Fire OS、Androidで動作する他、iOSのSafari、およびデスクトップ経由で制御するためのウェブベースアプリも提供される。ユーザーはこれを使って、サービスの設定、アラームの確認、リマインダーや買い物リストのチェック、その他ユーザーがスピーカー自身を経由して入力した情の確認等ができる。


Amazon Echoaの価格は199ドルで、Primeメンバーは期間限定で99ドルだが、注文するためにも同社からの招待が必要だ。これは全く思いがけなく現れた製品だが、Amazonの極秘プロジェクト、Lab126が様々なガジェットを手がけているという情報は今年になって聞いていた。家中で使える常時オンのSiriが、いつでも質問に答え情報を提供するというアイデアは、将来のApple TVに組み込まれるという噂もあり、少なからぬスタートアップの頭の中にある概念でもある。

Amazonにとっては明らかな利益がある。ユーザーの声を聞き、音声による問い合わせを処理することは同社のコンセプトそのものだからだ。それは、ユーザーにこのアイデア全体を不安に感じさせるものでもある。AmazonのFire Phoneが、ユーザー指向の利便性を提供することより、客をAmazonのウェブストアに誘導するためにあると、多くの人々が感じたのと同じだ。Amazonによると、Echoが聞くのはアクティベーションワードを言った時だけだそうで、標準では “Alexa” になっているようだ。

すべてが少々不可解ではあるが、主要IT企業の新製品としてかなりユニークであることには興味をそそられる。さらに、もしこれがPhilipsのつながる電球 Hueや、Nestの学習サーモスタット等のスマートホーム機器分野ともつながるようになれば、家全体のスマートハブへとシフトする可能性も見えてくる。現時点で見る限り、消費者への売り込み方は奇異に感じるが、操作するためにユーザーが頭を動かさなくてはならない3D表示付スマートフォンよりは、おそらく分別ある商品なのだろう。

[原文へ]

(翻訳:Nob Takahashi / facebook


AIにできない部分を人間がどうやって補うのか…デジタルアシスタントが進化してもその部分は存在する

2011年にSiriがiOSに登場してから、聞けば何でも答えてくれるデジタルアシスタントは大手スマートフォンプラットホームの共通の大課題になってきた。

AppleがそのAIコンパニオン(Siri)を出してから1年も経たないのに、GoogleはGoogle Nowでそれに続いた。それは、ユーザの位置やメールの受信箱やそれまでのトラフィックの履歴などに基づいて、前もっていろんな通知をくれるサービスだ。

そして今年はMicrosoftが同社のBuildカンファレンスで、スマートアシスタントCortanaを発表した。その名前は、HaloゲームのXbox上のフランチャイズに登場するAIの名前を借りている。Microsoftによると、Cortanaはまるでユーザの秘書のように、あるいはこれから帰宅するとき妻にあれこれ用事を電話するどこかの旦那のように、忘れてはならないことを間に合うタイミングで事前に思い出させてくれるAIサービスだ。

彼らは今日のフライトに間に合うためにはいつもより15分早く退社しろ、と教えてくれるお利口さんだし、SiriやCortanaはときどきジョークも言うが、これらのアシスタントたちには明らかに限界がある。Siriはリマインダーだが、ユーザ自身による会議のスケジューリングを助けてくれない。Google Nowは近くのレストランを教えてくれるが、ユーザの好きな席のテーブルを予約できない。

Fancy HandsJarvisのような、有料のデジタルアシスタントもある。毎月の料金を払うと、これらのサービスは、SiriやCortanaを出来損ないアプリのアルファバージョンかと思わせるほど、見事にユーザのリクエストに応える。



〔ここにスライドが表示されないときは、原文を見てください。〕

これらのアシスタントは、どうやってこれほど高度な仕事をやっているのか? Jarvisはユーザが好きな食べ物を知っているのか? ユーザが乗れるフライトを探すときは、ユーザのスケジュールを秘かに見ているのか? 定型メールを送っているだけなのに、リアルな対話っぽいやりとりができるのか?

たしかにそうだが、でもそれは、彼らのAI技術が人知れず高度だからではない。彼らは、デジタルアシスタントのTaskRabbit(人力便利屋)を作ったのだ。リクエストを送るとその先には、学卒の労働者がコンピュータの端末の前に座っていて、ユーザのオフィスの近くにおいしい食べ物屋さんを探したり、価格比較サービスを利用してフライトを見つけたりしている。

今のWebアプリケーションがどんなに便利でも、仕事先の人を接待する店をYelpで探すのはかなりの手間だ。候補が多くてなかなか決められない人もいる。でも、これらの有料デジタルアシスタントのユーザたちに話を聞いてみると、そういうとき候補を三つか四つしか言わないので、決めやすいということだ。退屈で些細な仕事は誰かにやらせたい。ふつうの人たちにとって、その誰かが100%コンピュータのプログラムでなければならないことはない。

数年後には、これらのタスクもソフトウェアがやるようになるだろう。AppleもGoogleもMicrosoftも、現状の技術に納得してはいない。また、Siriの作者などが作った新しい企業は、ユーザの好きなアプリをすべて知ることにより、ユーザが抱える状況をある程度理解した上でアシストを提供するサービスを、提供しようとしている。

でもそれまでは、人間がまるで機械の中の歯車のように、これらのサービスにはめ込まれている、という面白い光景がある。ユーザにとってのインタフェイスは、人間というより、まるっきりアプリのそれだ。Jarvisはテキストメッセージングやメールを使うから、Siriのメッセージング機能からでも利用できる。データも、上の画像で見られるとおり、人の言葉というよりもコンピュータの出力だ。しかし複雑なコンテキストを解析したり、単純なリクエストからそのコンテキストを理解することは、コンピュータにとって何年も先の話だ。

でもそんなテクノロジがやってきたら、これらの人力サービスはなくなるのだろうか? それとも、そのときはまた、コンピュータには対応できない分野を見つけてサービスを続けるのか? たとえば、毎日忙しくてやるべきことが多すぎる人や、仕事の内容やニュアンスをコンピュータが得意とするシンプルで単純な言葉では表現できない職種の人は、相当進化したAIアシスタントにもやはり、不満を感じるかもしれない。コンピュータの前に座る人間労働者は、AIも道具として使いながら、今よりも多くの仕事をこなせるようになっている、のかもしれない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


GoogleとHPが提携―Google Nowがエンタープライズ・データのバーチャルアシスタントになる

われわれはSiri、Google Now、Microsoft Cortanaなどのパーソナル・アシスタントに天気、映画、スポーツなどについて尋ねることができる。しかし自分の会社の四半期売上や財務情報について知ることはできなかった。しかしThe InformationによればGoogleはHPと協力しながら、そういうことができるようにする準備を進めているという。 Google Nowがエンタープライズ・データにアクセスして組織内情報のバーチャル・アシスタントになってくれる。これはエンタープライズのモバイル・コンピューティングにまったく新しい分野を開く可能性がある。

これに先立って、AppleもHPとエンタープライズ・コンピューティングにおける協力の可能性を話し合っていた(Appleはその後、IBMと全面的に提携した)。The InformationによればHPとの協力の中には、ビジネス情報に特化したSiriが含まれていたという。Googleとの提携ではHPが開発中のエンタープライズ向け検索エンジンが利用され、これにバーチャルアシスタント機能が加わることになるだろう。一般ユーザー向けのバーチャルアシスタントに関してGoogleが大きくリードしている。これでAppleとGoogleはエンタープライズ市場でのモバイル・コンピューティングで真っ向から激突することになる。

こうしたエンタープライズ・スマート・システムにはアポ、位置情報、連絡先など各社員の個別データに加えて、会社の売上、財務情報のような重要な全社的情報が登録され、必要に応じて検索できるようになる。たとえば、あるプロジェクトの成績をレビューする会議を開くときにはリーダーがシステムにログインし、必要な情報を即座に収集してメンバー全員と共有するなどができるようになる。

モバイル・バーチャル・アシスタントは、すでにユーザーの置かれたコンテキストを認識して、検索に対してもっとも適切な情報を表示する、あるいは検索される前に情報をプッシュ通知することができるようになっている。ユーザーは以前のデータベース検索で必要とされたブール演算子や命令を用いた複雑な検索式を組み立てる必要がない。エンタープライズのビッグデータに関しても同じことが可能になるシステムなら規模の大小を問わず、あらゆる企業が関心を示すだろう。

Googleとの提携の具体的内容は明らかになっていないが、HPは縮小するパソコン事業を補う意味でもエンタープライズ・ソフトウェアにますます力を入れることになるだろう。MicrosoftもCortanaに一部のサードパーティー・デベロッパーのアクセスを許し始めたところでもあり、この分野からは目が離せないことになってきた。

[原文へ]

(翻訳:滑川海彦@Facebook Google+


iOS 8最新ベータに、(ほぼ)リアルタイム書き起こし機能がついた

つい先ほどAppleのiOS 8 beta 4が公開され、新機能の一つとしてビジュアル化された書き起こし機能が加わった(上のビデオはMacRumorsより)。話した言葉が、ほぼリアルタイムでテキスト変換されているのがわかるだろう。これは以前Siriに登場した機能だが、メッセージその他のテキスト入力ボックスの音声入力オプションとしては初めてで、かなりクールだ。

ライブテキスト変換は、MicrosoftがCortanaで大々的に宣伝しているが、これには誰かを驚かせる以上の価値がある。話した言葉をシステムがどう解釈したかをその場で見られるので、エラーを見つけたり、言い間違えたりしたことがすぐにわかり、しゃべり終えて変換されるのを待つ必要がない。

これでエラーが少なくなり、テキスト変換を使うフラストレーションも減ることが期待できる。これは、見た目がカッコいいという副次効果以上のものだ。

[原文へ]

(翻訳:Nob Takahashi / facebook


Apple、音声認識のパイオニア、Novaurisを買収していた―プロダクトはSiriに組み込み済み

Appleは自動音声認識(ASR= Automatic Speech Recognition)テクノロジーのパイオニア企業の一つ、 Novauris Technologiesを買収していた。

Novaurisの買収が行われたのは昨年らしい。しかしその情報は一切公表されなかった。Novaurisチームは現在Appleの音声認識によるバーチャル・アシスタント、Siriの改良のために活動しているという。買収金額などの詳細は不明だ。

Novaurisは音声テープ起こしの有力企業であるイギリスのDragon Systemsの子会社、Dragon Systems R&D U.K. Ltd.から発展した会社だ。 創立は2002年で、CEOのYoon Kim、共同ファウンダーのMelvyn HuntJohn Bridle (Co-founder)が現在の経営陣だ。BridleはDragon、Nortel,、SRI (Appleが買収したSiriが誕生した場所だ)、Marconi、Aurixでの勤務経験がある。

アップデート: Appleは先ほどNovaurisの買収を確認した。

ただしTechCrunchの取材に対しては「Apple小規模なテクノロジー企業の買収を時折行っているが、通常その目的や将来計画については公表iしないものとしている」といういつものコメントが返ってきた。

またNovaurisのウェブサイトにもAppleによる買収は掲載されていない。しかしわれわれがイギリスのNovaurisのオフィスに電話すると共同ファウンダーのHuntが電話に出て「Appleです」と名乗った。HuntはAppleのために働いていることを認め、Novauris自体はすでに活動を止めていると述べた。

Novaurisは世界的に著名な企業ではないかもしれないが、共同ファウンダーは音声認識の専門家として国際的に知られている。

ライバルに対するNovaurisの優位性は、デバイス上のアプリとサーバ側のアプリの双方を開発していること、コアとなる音声認識エンジンを独自開発していることなどが挙げられる。言うまでもなくこれらはAppleにとって貴重な資産となる。AppleはSiriのテクノロジーを開発したNuanceの買収を試みたことがある。買収は実現しなかっtが、提携には成功した。この提携はよく知られていたものの、Nuanceが提携を公式に認めたのは昨年になってからだった。

Novaurisの音声認識プロダクトはすでにiOS、iPhoneにNovaSearch Compactとして組み込まれている。

Novaurisのウェブサイトによれば、提携先としてVerizon Wireless、Panasonic、Samsung、SingTel、Alpine,BMWなどが挙げられている。たとえばVerizonは2006年からBREWシリーズのデバイスに組み込まれたGet It Nowという音声認識検索”サービスに利用している。

2012年にはPanasonicと提携して“、さまざまな家電製品に音声認識機能をもたせるためのNovaLiteという組み込み用”モジュールを開発した。

Novaurisの音声認識プロダクトはアメリカ英語、イギリス英語を始めとしてシンガポール英語、ドイツ語、カナダ・フランス語、日本語、韓国語、フランス語、スペイン語、メキシコ・スペイン語、イタリア語、ポルトガル語、ブラジル・ポルトガル語、中国普通話など多数の言語をサポートしている

Novaurisのアプリはウェブ検索に加えてApp Store,内のナビゲーションと検索、楽曲や連絡相手などデイバイス内のコンテンツ検索ができる。、また翻訳にも利用できる。.

画像:Novauris

[原文へ]

(翻訳:滑川海彦 Facebook Google+


未来派プロセッサも含め全社をAI色に染め上げたいIntelが今度は自然言語認識のIndisysを買収

【抄訳】

Intelは、最近の同社において著しい、人工知能指向の姿勢を一層強化するために、ひそかに国際的な買収を行った。Intelがこのほど買収したIndisysはスペインのスタートアップで、自然言語の認識を専門とする。買収の条件は公表されていないが、噂では2000万ユーロよりも上、ということらしい。今回の買収のわずか2か月前には、IntelはイスラエルのジェスチャインタフェイスメーカーOmekを買収している(推定額4000万ドル)。

Intelは本誌に対してこの買収を確認し、社員も大半がIntel社員になる、と言った。広報がくれたメールには、こう書かれている:

“Intelはスペインセヴィルの非公開企業Indisysを買収した。Indisysの社員の大半はIntelに入社した。買収の合意は5月31日に成立し、このたび買収事務のすべてが完了した。”

価額など買収の条件については、“この取引の金額的な側面はIntelにとって重要でない”、ということだ。IndisysのCEOだったPilar Manchonは今、サンタクララにあるIntelのR&D部門にいる。

Intelの目当てが、どの技術、あるいはどの製品にあったのかも明らかでないが、“Indisysには計算機言語学、人工知能、認知科学、および機械学習に関する深い経験があるが、IntelがIndisysの技術を今後どのように利用していくかについて、現時点では詳細を明らかにできない”、と広報のメールは言っている。でもこの点に関しては、自明な事案がすでにいくつかある(後述)。

本誌宛のIntelの声明の前に、スペインの新聞には同社の初期の投資家Inveready社のニュースリリースが載り、その中でIntelへの売却が告げられていた。

Invereadyは今回の件についてはノーコメントだったが、これまで、スペインのスタートアップの出口を多く扱っている。たとえば同社が投資したPasswordBankは、Symantecが2500万ドルで買収した。なお、IntelのVC部門Intel Capitalも2012年に500万ドルのシリーズA資金をIndisysに投資している

セヴィルに本社のあるIndisysの対話システムは、小売大手のEl Corte Inglesや保険企業グループMapfre、銀行大手BBVAなどが、Webとモバイルの両方で利用している。

Indisysは自然言語認識技術を開発しているが、Siri的なインテリジェントアシスタント(intelligent assistant, IA)とその対話的インタフェイスも作っている。上の画像の”Maya”も、そんな“アシスタント”の一人だ。航空機メーカーのBoeingは同社のAtlantisと呼ばれるプロジェクトにIndisysのIA技術を採用し、無人機の操縦インタフェイスを作っている。

これまでの顧客は、多くがスペイン企業だが、同社はすでに多言語技術を開発している。Indisysの説明によると、“IAは人間のイメージであり、それが常識を伴って、複数のプラットホーム上および複数の言語で流暢に会話をする”、というものだ。

タッチインタフェイスのOmekを買収したことと合わせて考えると、今回の買収の目的は二つに絞られるだろう。ひとつは、“触(さわ)れる技術”を基盤とし、言語インタフェイスを人工知能が支える3Dによる視覚化。そしてもう一つは、音声(+言語)認識技術を同社の将来のプロセッサ事業に統合することだ。

今週初めにIntelが発表した自然言語ベースのジェスチャーデバイスにも示されているように、IntelはNuanceのようなサードパーティの技術をライセンスするという噂とは逆に、相次ぐ優良物件の買収による、自社技術の未来志向的な進化に、社運を託しているのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Apple、新SiriのTwitter、Wikipedia、Bingとの統合を発表。新コマンドおよび男女双方の音声も用意

WWDCキーノートにて、音声を使ったパーソナルアシスタントであるSiriに施す種々の機能追加が発表された。外見的には高性能の男性および女性音声が利用できるようになる。また、複数言語にも対応している(英語、ドイツ語、フランス語等々)。しかしそうした外見的変更だけでなく、機能的にも大幅に変更されることになった。すなわちTwitter、Wikipedia、およびBingを使った検索機能を統合することとなったのだ。即ち利用者のリクエストに対して、Wikipediaから引用して回答するというようなことがあり得るようになったわけだ。

またコマンドもいくつか追加されることとなった。たとえば「Play last voicemail」(最新のボイスメールを再生)、「toggle settings」(設定変更)、ないし「increase brightness」(輝度アップ)などだ。しかし最も大きな変更は、BingをSiriの標準検索ツールとしたことだろう。

さらに、ホンダ、メルセデス、日産、シボレー、Kia、およびHyundaiなどとの提携により、車載のタッチスクリーンからも種々の機能が利用できるようになる。

原文へ

(翻訳:Maeda, H)


AppleはSiriの音声データを匿名化して最大2年保存する

AppleのiOSデバイス上の音声アシスタントSiriは、情報を捨てずに保存し、それらを、同社がリモートのサーバ上で行っている分析処理の結果をより正確にするために利用している。同社はこれまで、Siriとぼくのやりとりをいつまで保存するのか、それをどのように利用しているのかを明かさなかったが、このほどWired誌がAppleに取材をして、Siriのデータの保存のされ方を突き止めた。

Appleによると、Siriが集めた音声ファイルには識別子としてユーザのアカウントではなく乱数を付ける。それによってデータは匿名化される。メールアドレスなどユーザを識別できる情報は、いっさい付けない。乱数とデータの結びつきは6か月続き、そのあと削除される。音声ファイルそのものは、まだ残る。そして識別子を失った音声ファイルはAppleのサーバ上にさらに最大で18か月残り、Siriの改良や新製品のテストに利用される。ただしユーザがSiriを完全にoffにすると、データも識別子もすべて即座に削除される。

口述型のアプリケーションやサービスをめぐるプライバシーの懸念という問題は、前からある。Siriのための音声認識ソフトウェアを作ったNuanceは、2009年にiPhone用のDragon Dictationをローンチしたとき、プライバシーを心配する人びとに対して自分を擁護しなければならなかった。Nuanceは、そのアプリの会話の書き起こしを同社のサーバに保存して、自社技術の改良に役立てていた。Googleが個人化〜ターゲティングやGoogle Nowの正しい動作のために集めている情報にも、まったく同様の問題がある。

American Civil Liberties Unionの弁護士Nicole Ozerはプライバシー評論家としても有名だが、今回Wired誌にAppleを調べさせたのも彼だ。彼は、Appleが、ユーザの個人データの保存ポリシーを、ユーザに分かりやすい形でどこにも明記していないことを、問題にしている。SiriのFAQにもない。どんな情報をどんな形で保存し利用しているか、それを消費者に正しく伝えることはAppleの義務だ、と彼は主張している。

原則として、アプリやサービスがデータの収集を必要とするときには、個人の情報が内部的にあっちへ行ったりこっちへ来たりを激しく繰り返すことはほぼ間違いない。プライバシーを重視するユーザは、そのような状況に対して用心すべきだ。Siriに関するAppleのポリシーは、ほかと比べてかなりひどいかもしれないが、今回それを明確に具体的に述べてくれたことは、ありがたい。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Siriを生んだSRIから魔法のカレンダー・アプリ、 Tempo登場―ミーティングに関する情報を自動収集して通知してくれる

私のような日程管理が苦手きわまる人間でなくとも会議の直前になって大慌てした経験が必ずやあるだろう。ミーティングの席についてから自分はいったい誰と何の話をするためにここに来ているのだろうと必死に記憶を探ったり、車で走りだしたはいいが正確な住所を知らないことに気づいたり、といった失敗だ。今日((米国時間2/13)リリースされたスマート・カレンダー・アプリのTempoはまさにこうした問題の解消を狙っている。

Tempoは名門の調査研究企業SRI Internationalからスピンオフしたスタートアップだ。SRIといえば最近ではiOSの音声認識アシスタント、Siriのオリジナル開発元(後にApple が買収)としても有名だ。 最近の他のSRIプロジェクトと同様、Tempoもパーソナル・アシスタントの一種だが、Siriとはまったく異なるアプローチのプロダクトだ。

ファウンダーでCEOのRaj Singhは「パーソナル・アシスタント・アプリには大きく分けて2種類ある。質問すると答えてくれるSiriのようなタイプと、もうひとつはユーザーが必要とする情報を必要とする瞬間に届けてくれるタイプだ。Tempoは後者に属する」と説明する。Tempoのようなアプリで重要なのは不必要な情報でユーザーをうるさがらせることなく的確に必要な通知だけをする能力だ。

「ユーザーが日常必要とする情報をわかりやすくひとまとめにするのにどんな方法が一番適しているかを考えた末、われわれはカレンダー形式を選んだ。カレンダーには誰にも直感的に理解できる整然とした構造があり、これからユーザーがなすべきタスクが管理されている。ここがユーザーが必要とするすべての情報を保管するのにもっとも適した場所だとわれわれは結論した」とSinghは語った。

たとえば、会議の前にTempoを開くと、関連するメール、資料、出席者のLinkedInプロフィールなどを見ることができる。もし車を運転してミーティングの場所に向かうのであればカーナビが起動するし、道が混んでいるなどで遅れそうならその旨のメッセージを自動的に送信できる。飛行機に乗るなら、フライト情報が通知される。カンファレンス・コールに参加する場合はTempoがダイアルインとパスコードを保管する。

もちろんいずれも有用な機能だが、個々に取り上げてみれば画期的というほどではない。たとえばXobniやRapportiveのようなプロダクトは友人やビジネスの相手のプロフィールやソーシャル投稿を自動的に取得してくれる。ミーティングに遅れそうなときに通知してくれるアプリにはTwistがある。しかしTempoの独自性は、こうしたさまざまな機能がカレンダーというフォーマットで整理されていることだ。Tempoはそれぞれの会合の役割を理解しようと努め、もっとも適切なツールを選んで情報を提供してくれるところにある(Tempoにいちばん近いアプリは私の知る限りEasilydoというto-doリストだろうと思う。しかしTempoほどカレンダーが決定的な役割を果たしているわけではない)。(Update: 読者から「これに似たCueというカレンダーアプリがある」という指摘があった。

Singhは「ユーザーはTempoを利用するために何か特別な作業を要求されることはない。 単にTempoにiPhoneカレンダーとメールその他の受信ボックスへのアクセスを許可するだけでよい。あとはアプリが自動的に処理する」と説明する。学習するにしたがってこのアプリは一層賢くなっていくが、が積極的にカスタマイズする必要はないまたTempoに日程の詳細をいちいち入力しておく必要もない。ミーティングの参加者の名前を入力しておくだけで、Tempoが自動的に関連情報を取得してくる。

私は短期間だがこのアプリをテストしてみた。なるほど設定は簡単だ(使い始めにTempoが各種の情報を収集して分析する間少々待たされる)。Tempoがミーティングの関連情報を教えてくれるので、直前になって必死にメールを検索したりせずにすむ。ただTempoはiPhoneのカレンダーを利用するのでこのカレンダーに存在する問題も全部引き継いでいる。大部分のユーザーにとってはさして障害にならないはずだが、私は時差をうまく理解させる方法を発見できない。今週は私はサンフランシスコからニューヨークに出張したが、Tempoは3時間前に終わったミーティングのリマインダー通知を送りつけてきた。

Tempoは無料アプリだ。Singhは後で有料のプレミアム機能を加えていくフリーミアム・モデルを考えている。iPhoneアプリのダウンロードはここから(Androidとタブレット版についても開発が進められている)。

[原文へ]

(翻訳:滑川海彦 Facebook Google+

Google NowのNexus 4向けCMはなかなか説得力あり―Siriより実用性高いかも

GoogleのCMはいつも上出来だったわけではない。Google+を立ち上げたときのCMは売り物であるサークルの紹介の仕方がまずくて面倒な大仕事のように見えてしまった。

しかしその後努力したらしく、最新のNexus 4/Google NowのCMはユーザーが世界中でこの機能を便利に使うところをなかなかうまく見せている。

Google NowはSiriに対するGoogleの回答だ。ただしGoogle Nowでは音声認識はSiriのように強調されていない。Googleはむしろ実際に役立つ情報を即時的確に提供できるという点を強調している。Google Now はスケジュール、位置、天気、その他現在のユーザーの行動に関連するかもしれないさまざまな情報をモニタする。それに基づいてユーザーが知りたがっていることを推測し、その情報を提供する。

たとえば私が午後ジムでエクササイズをする予定だとカレンダーに記入しているとしよう。Google Nowは私がジムに行くのに使う電車のダイヤを調べ、運行に遅れがあるようなら通知してくれる。そこで私は早めに家を出ないと遅れるかもと気づくわけだ。

しかしこれなどはほんの手始めにすぎない。Google Nowは外出中に付近のショッピングや飲食店の情報も教えてくれる。外国を旅行しているときは単語の翻訳をしてくる。ユーザーはなんであれ自分のまわりの情報をより正確にリアルタイムで入手できる。最新のテレビCMはその機能をうまく説明しているし、Nexus4の大型画面上の美しいデザインのユーザー・インタフェースも巧みに売り込んでいる。

最後は東京に出張している父親が息子とGoogleハングアウトで会話する心あたたまるシーンでCMが締めくくられる。なんといってもスマートフォンの一番大きな役目はわれわれを愛する人と結びつけることにあるのだ。

sirisucksGoogleはCMで音声認識機能をまったく使っていないが、私はSiriと機能を比べたくなってCMにあった使い方をすべてSiriで試してみた。

Siriは全く問題なく近くのレストランを探すのに成功した。「野菜」という単語をフランス語に訳すのもそう難しくなかった。しかしSiriは(というかAppleは)いささか時間の理解に行き届かないところがある。特にA地点からB地点に移動するために必要な時間にむとんちゃくなところが見られた。

私はSiriに「次のアポは何時?」と尋ねて教えてもらうことはできる。 しかしSiriは「いつ家を出たらいい?」と聞いても教えてくれない。移動手段や最適な経路の設定はできないのだ。もちろん電車が遅れているなどという通知もしてくれない。私が「ユニオンスクエア駅に一番早く着く地下鉄は?」〔Crook記者はニューヨーク在住〕と尋ねたところ地図アプリが開き、続いてAppStoreに送り込まれた。そこで乗り換え案内アプリを買えというわけだ。

Appleの地図アプリは公共交通機関の乗り換え案内を内蔵していない。そこでApple の地図アプリで乗り換えを調べようとすればまずサードパーティーの乗り換えアプリをインストール必要がある。

私自身はGoogle Nowから直接Googleハングアウトを立ち上げることができることにそれほど大きな価値があるとは思わないが、Siriは私がある友達をFaceTimeで呼び出すよう数回叫んでも理解してくれなかった。

アップデート: 鋭い読者からコメントがあったが、私はFaceTimeの呼び出しコマンドを間違えていた。 「FaceTime (ここに呼び出したい相手の名前)」と呼びかければSiriは正しく動作する。

[原文へ]

(翻訳:滑川海彦 Facebook Google+