Googleアシスタントに電話の保留待ち時間を有効活用できる新機能「Hold for Me」が加わる

Googleは、スマートフォンの最も基本的な機能の1つについて、その可能性を広げてきた。最近では見過ごされがちだが、スマートフォンの特徴の1つは電話機能だ。数年前には、着信を調べるCall Screenレストラン予約のためのDuplex、そして9月には「誰がなぜ電話をかけてきたか」を教えてくれるVerified Callsという機能(未訳記事)をローンチした。そして米国時間9月30日に「Hold for Me」(私のために待って)という機能を追加した(日本語は現在のところ非対応)。

9月30日、グーグルが新しいPixelスマートフォンを発表した同社のハードウェアイベントで、Pixelの最新のトリックが披露された。Hold for Meと呼ばれる機能は、利用者が電話を保留にしている間、回線接続を維持して相手が電話に出たときに警告してくれるという機能だ。接続先の電話が混み合っているときは延々と保留音を聞かされるハメになるが、Hold for Me機能を利用すれば保留から切り替わって電話口に人が出るまでの時間を有効活用できるわけだ。

グーグルは、同機能が既存のスパム電話を判別する技術であるCall Screen(コールスクリーン)と、Googleアシスタントが人間を相手に電話で自然に会話させる技術であるDuplex(デュプレックス)を組み合わせて実現したことを明らかにした。ちなみに後者はAIベースの技術で、電話での会話分析に焦点を当てている。

Hold for Meの短いデモをみたところ、同社はPixelデバイスの所有者が回線を保留にした後で機能を有効にする方法を示していた。通話をミュートするボタン、スピーカーフォンをオンにするボタン、およびそのほかの通話中の電話の各種コントロールボタンの上に表示される新しいボタンをタップすることで機能がオンになる。

有効化されると、Googleアシスタントが通話内容を聞いているので、画面には「電話以外のほかのことを続けられます」というメッセージと「回線を切らないでください」というアラートが表示される。

もちろんこの画面には、いつでもタップして通話に戻れるボタンも用意されている、その下には「music playing」と書かれたオンスクリーンメッセージが表示され、Googleアシスタントがまだ接続先の保留中の音楽を聞いているかどうかを示している。この画面から電話を切る赤いボタンを押して通話を終了することもできる。

電話口に人が出てくると、Pixelデバイスは通話に戻る時間になったことを利用者に知らせてくれる。

人々が失業給付のような新型コロナウイルス関連の政府援助のために何時間も電話を保留して待っている時にHold for Meオプションは非常に有用な新機能だろう。失業による財政危機の真っ只中にある人々には文字どおりの救世主かもしれない。

グーグルによると、このHold for Me機能はまずはPixel 5で利用可能になるという。そして、近日中に予定されているPixel端末向けのアップデート「Pixel feature drop」のロールアウトのタイミングで、旧世代のPixelスマートフォンに順次搭載される。

google-hardware-event

画像クレジット:Google

原文へ

(翻訳:TechCrunch Japan)

米国のGoogleポッドキャストに機械学習でニュースをカスタマイズする機能が登場

2019年にGoogle(グーグル)は、Googleアシスタントでオーディオニュースをカスタマイズする「Your News Update」というプレイリストをリリースした(未訳記事)。機械学習の技術を活用してニュースコンテンツを理解し、そのコンテンツがリスナーの好みや関心とどう関連するかを判断する機能だ。米国時間9月2日、グーグルはオーディオのカスタマイズをGoogleポッドキャストに広げ、米国の数百万人のポッドキャストリスナーに提供すると発表した(Googleブログ)。

Your News Updateを購読するには、Googleポッドキャストアプリを起動し、Exploreタブでいくつかのストーリーを購読して聴く。これにより、関心や地域、履歴、設定が反映されるようになる。

画像クレジット:Google

Your News UpdateはAlexaで人気のFlash Briefingをさらに賢くした機能として設計された。現在、Alexaユーザーは1万種類を超えるFlash Briefingのスキルからニュース提供元やコンテンツを追加して自分のFlash Briefingをカスタマイズすることができる。しかしこの作業はユーザーがやらなくてはならない。

Your News Updateは、グーグルがユーザーの関心を理解することで、この面倒な作業をアルゴリズムに任せる。

カスタマイズではユーザーがGoogleに対して明示的に提供しているデータが考慮される。フォローして関心を示したトピック、ニュース提供元、地域などだ。これに加えグーグルは、ユーザーのグーグル製品利用状況から収集したデータ(Googleアカウントの設定)を利用し、ユーザーの関心に応じてニュースをさらにカスタマイズする。ただしユーザーは自分のアカウント設定のページでカスタマイズをオフにすることができる。

Your News Updateの下にあるGoogleアシスタントのリンクから、ニュースのアルゴリズムの仕組みを詳しく説明したウェブサイトにアクセスできる。グーグルは、ニュースのアルゴリズムではユーザーの政治的信条や属性に基づくカスタマイズはしないと説明している(Googleの説明ページ)。

とはいえ、GoogleニュースやDiscoverで特定のパブリッシャーをフォローしたり非表示にしたりする、あるトピックをフォローする、似た記事をもっと多くまたは少なく表示するように指定するといったアクティビティから、グーグルは知り、学んでいく。

つまりグーグルはYour News Updateを組み立てるために、ユーザーに関して知っている豊富な情報と、ユーザーが好みに合わせてニュースをカスタマイズした行動についての知識を組み合わせる。

これが有効に働く場合もある。例えば好きなスポーツチームや地元の最新ニュースを受け取ることができる。ユーザーを左派寄りあるいは右派寄りのニュース提供元に誘導しようという意図はないだろうが、カスタマイズ技術の仕組みとグーグルのパブリッシャーのラインナップに基づいて結果としてそうなることはあり得る。グーグルのラインアップには左派寄りと右派寄りの両方のニュース提供元(ad fontes mediaサイト)がある。

画像クレジット:Google

さらにグーグルはサービス開始にあたって、ユーザーの使い方から学ぶのでGoogleアシスタントの機能を使えば使うほど適切にカスタマイズされるようになると述べている。

ポッドキャストのアップデートとあわせて、グーグルはGoogleアシスタントで地元の話題を簡単に聴けるようにする。「Hey Google, play local news(ローカルニュースを再生して)」「Hey Google, play news about [your city]((街の名前)のニュースを再生して)」と話しかければ、ネイティブ音声とテキスト読み上げのローカルニュースのミックスを聴くことができる。この機能を利用すると、Your News Updateの選択にも反映されるようになる。

画像クレジット:Google

[原文へ]

(翻訳:Kaori Koyama)

BMWがようやくAndroid Autoを採用へ

BMWは米国時間12月11日、ようやく2020年7月からAndroid Autoを同社の車に搭載することを発表した。これにより同社の車では、AppleのCarPlayと併せて利用できるようになる。

BMWによるAndroid Autoの最初のライブデモは、来月のCES 2020で行われる。その後、BMW OS 7.0を搭載した車で、20か国のドライバーに対するアップデートとして利用可能になる予定だ。ただし、BMWはAndroid Autoをワイヤレス接続でサポートするので、一般のものとまったく同じにはならない。

わずか2年前には、同社はAndroid Autoのサポートに興味がないと述べていた。当時、デジタルサービスおよびビジネスモデル担当の上級副社長だったDieter May(ディーター・メイ)氏は独占インタビューで「車内のインターフェイスを完全に掌握するため、自社の純正アプリにこだわっている」と語っていた。従って、BMWではAndroid Autoの採用に興味はないと。メイ氏はその後退社したが、Android Auto自体、その後の2年間で大幅に洗練されたものになったことも頭に入れておく必要があるだろう。

「Android Auto上でGoogleアシスタントを利用すれば、道順の検索も簡単で、人との連絡を保ち、生産性を維持できます。多くのお客様が、BMW独自の機能とサービスに加えて、Android Autoが車内で利用できるようになることの重要性を指摘しています。運転から気を散らすことなく安全に、多くの使い慣れたAndroidスマートフォンの機能が使えるようになるからです」と、BMWの製品管理担当の上級副社長であるPeter Henrich(ペーター・ヘンリッヒ)氏は、発表の場で述べた。

これによりBMWは、早くからAlexa、Cortana、そして独自にMicrosoft(マイクロソフト)のAIスタックの上に構築したBMW Assistantのサポートに手を出してきた後、ついにGoogleアシスタントもサポートすることになった。同社はずっと、一般に使われているデジタルアシスタントは、すべてサポートしたいと表明してきた。Googleアシスタントをサポートするには、少なくとも今のところ、Android Autoを利用するしかなかった。

BMWの場合、Android Autoは、BMWのInfo Displayと道順表示用のヘッドアップディスプレイに加えて、車のデジタルコックピットにも統合されることになる。これは非常に深い統合であり、現在ほとんどの自動車メーカーが実現しているものを超えている。

「BMWと協力して、来年には世界中のBMWのお客様に、ワイヤレスのAndroid Autoをお届けできることを楽しみにしています」と、Googleのエンジニアリング担当副社長であるPatrick Brady(パトリック・ブレイディ)氏は、述べている。「AndroidスマートフォンからBMWの車へのシームレスな接続により、お客様は、ご愛用のアプリやサービスへのアクセスを安全に維持したまま、車に乗り込んですぐに運転を始めることができるのです」。

原文へ

(翻訳:Fumihiko Shibata)

ウェブをスマートスピーカーの読み上げに対応させるSoundcheck

ゆっくりと、しかし確かにスマートスピーカーは勢力を伸ばしている。AmazonはAlexaを小さな時計から電子レンジまであらゆるものに組み込み、Googleアシスタントはできそうなことを何でも取り込んでいる。この分だと、どんな空間にも声で操作する何らかのデバイスがある日は遠くなさそうに思える。

しかし人々も企業も、自分たちが発信するコンテンツをスマートスピーカーで再生できるようにすることについては、まだいい考えがないようだ。これを可能にすることを目指すSoundcheckが、米国時間11月1日にその扉を開いた。Soundcheckは、コンテンツをスマートスピーカーや音声アシスタントデバイスにとって理解しやすい形にパッケージ化する。

Soundcheckは手始めとしてWordPressを利用しているサイトに的を絞っている。インターネットの30%以上はWordPressを使っているのでターゲットとしては小さくない。Soundcheckは、WordPressで作られたサイトの情報を取得し、1回か2回タップすればその情報の最も重要な部分をGoogleの「読み上げに適した」データフォーマットにまとめられるプラグインを開発した。これは、蛍光ペンでマークをつけて、音声対応スピーカーとそれを動かしている検索アルゴリズムに対して「この情報は君たちのためのもので、こういうトピックに関する質問の答えだよ」と教えるようなものだ。

データをこのような形式にまとめるには、通常、ページごとのトピックに応じたマークアップを書く必要があるが、これはみんなにできることではない(例えば小さな企業の経営者の多くは、ページの見た目を整えるためにWordPressを使っている)。Soundcheckはこのプロセスをボタンを押すだけでできるように集約し、データを検証して、音声アシスタントがコンテンツをどのように読み上げるかのプレビューを提供する。

Soundcheckの基本的なプラグインは、WordPressの最新の50件の投稿まで無料で利用できる。それより多くの投稿に対応させたい場合や、カスタムのAPIと統合したりAmazon AlexaまたはGoogleアシスタントの個別のアプリと関連付けるといった便利な機能を使いたい場合は、月に20〜79ドル(約2200〜8500円)かかる。データがどのように音声でアクセスされたかをサイト運営者が知るための分析ツールも開発しているという。また今後、WordPress以外のコンテンツプラットフォームにも対応する計画だ。

Soundcheckを創業したのはDaniel Tyreus(ダニエル・ティレウス)氏とNarendra Rocherolle(
ナレンドラ・ロシュロール)氏で、ロシュロール氏はWebshotsの共同創業者でもある。Webshotsは超簡単な写真共有サイトで、1999年にExcite@Homeに8250万ドル(約89億円)で売却された。Soundcheckの創業者の2人はもともと2016年からPeckというサービスを開発していた。これは情報を取り出して簡潔な形でパッケージするサービスだ。2人は、この処理の最も難しい部分を利用してデータをパッケージ化し、AlexaやGoogle Homeなどのスマートスピーカーに対応させることができると気づき、こちらに方針転換した。

Soundcheckはこれまでに150万ドル(約1億6000万円)を調達している。支援しているのは、True Ventures、Resolute Ventures、Twitter共同創業者のBiz Stone(ビズ・ストーン)氏、Flickr共同創業者のCaterina Fake(カテリーナ・フェイク)氏で、まさにWordPressを運営しているAutomatticも支援に加わっている。

[原文へ]

(翻訳:Kaori Koyama)

Googleが新しいアシスタント開発者用ツールを発表

米国時間5月7日に開催されたGoogle I/Oカンファレンスで、Googleは同社のアシスタントプラットフォームのエクスペリエンス開発者向けに、たくさんの新しいツールを発表した。提供されるのは、Nest Hubのようなスマートディスプレイ向けゲームを開発できるようにするツール、アシスタントの返した答えからネイティブアプリケーションを呼び出すApp Action、そして開発者たちが自身のスマートホームコードをGoogle Home SpeakerやNest Display上でローカルに実行することを可能とする新しいLocal Home SDKなどである。

このLocal Home SDKが、発表されたもののリストの中では最も重要なものかもしれない。なぜならこれを利用することで、それぞれのデバイスをスマートホームデバイスのための真のハードウェアハブにすることができ、クラウドに問い合わせることなくローカルな計算能力を提供することができるようになるからだ。当初のパートナーとして名前を連ねているのはPhilips、Wemo、TP-Link、そしてLIFXなどだが、来月にはすべての開発者がSDKを利用できるようになる予定だ。

さらに、このSDKを使用することで、新しいユーザーがGoogle Homeアプリを使って、スマートデバイスをより簡単に設定できるようになる。Googleは昨年10月にGEとこの機能をテストしており、今では他のパートナーにそれを展開する準備が整っている。

アシスタントの中から自分たちのネイティブアプリ内の適切な場所へと、ユーザーを誘導したい開発者たちのために、昨年GoogleはApp Actionsのプレビュー版を発表していた。健康やフィットネス、金融、銀行、配車、そして食品注文アプリなどは、この組み込み機能を利用することができる。「もしNike Run Clubでご自分のランニングを追跡したい場合には、単に「Hey Google, start my run in Nike Run Club」と言えばいいだけです。そうすればアプリが自動的にランニングを追跡してくれます」とGoogleは本日の発表の中で説明した。

またハウツーサイト向けに、標準的なschema.orgのマークアップを使って、スマートディスプレイ向けのGoogleアシスタントの回答や、Google検索結果に含まれるコンテンツを用意できるように、Googleは拡張マークアップサポートも発表した。

スマートディスプレイ用のゲームを書くための新しい機能の詳細については、ここで読むことができるが、これは明らかに最初の一歩に過ぎない。Googleは時間をかけて、より多くのサードパーティエクスペリエンスにプラットフォームを開放することを計画している。

[原文へ]

(翻訳:sako)

誰でも簡単に音声アプリが作れるVoiceflowが約4億円を調達

音声アプリの市場がオープンになった。AmazonのAlexaだけでも、今年の初めの時点で8万種類のスキルが登場している。それでも、米国内のスマートスピーカーの普及率がクリティカルマスに達した今、成長が鈍化する兆候はほとんど見られない。この流れに乗って、AlexaとGoogleアシスタント用音声アプリの開発を楽にするスタートアップVoiceflowは300万ドル(約3億3550万円)のシードラウンド投資を獲得した。

このラウンドは、True Venturesが主導し、Product Huntの創設者Ryan Hoover氏、Eventbriteの創設者Kevin Hartz氏、InVisionの創設者Clark Valberg氏などが参加している。同社は、プレシードですでに50万ドル(約3355万円)を調達している。

音声アプリ開発のためのこの協働プラットフォームのアイデアは、音声アプリを開発していた体験から直接得られたものだと、VoiceflowのCEOで共同創設者のBraden Ream氏は説明している。

Ream氏の他、Tyler Han氏、Michael Hood氏、Andrew Lawrence氏からなるこのチームは、まずAlexa用に、子ども向けのインタラクティブなお話アプリ『Storyflow』を開発していた。

ところが、この自分で冒険の筋書きを選ぶゲームアプリのための話のライブラリーを構築しようとしたところ、ユーザーベースに対応できる十分な速度でプロセスを拡大できないことが判明した。つまり、すべての枝道を含むストーリーボードを作るのに時間がかかりすぎるのだ。

「ある時点で、ドラッグ・アンド・ドロップで作るというアイデアが浮かびました」とReam氏は話す。「フローチャートとスクリプトと実際のコードが書けたら有り難い。さらにそのすべてをワンステップで行えたらと、私は考えました。そうして、今ではVoiceflowとして知られているものの初期の形が、試行錯誤によって作られていったのです。それは部内用のツールでした」とのこと。「なにせ私たちはナードなもので、そのプラットフォームをもっといいものにしたいと、論理演算や変数を追加し、モジュラー化していきました」

Storyflowのもともとの計画は、誰でも物語が簡単に作れるようになる「声のYouTube」を作ることだった。

しかし、彼らが開発したものをStoryflowを愛するユーザーたちが知ると、それを使って、インタラクティブストーリーだけでなく、その他の音声アプリも自分で作りたいという要望が彼らから湧き上がった。

「そのとき、私たちは閃きました」とReam氏は振り返る。「これは音声アプリ開発の中心的なプラットフォームになれる。子ども向けのインタラクティブ・ストーリーだけのものではないと。方向転換はじつに簡単でした」と彼は言う。「私たちがやったのは、名前をStoryflowからVoiceflowに変えるだけでした」

このプラットフォームが正式に公開されたのは12月だが、すでに7500件あまりの利用者が、このツールで開発した音声アプリを250本ほど発表している。

Voiceflowは、コーディングの知識がない人でも使えるよう、技術的なものを感じさせないデザインになっている。たとえば、基本のブロックのタイプは「speak」(話す)と「choice」(選ぶ)という2つだけだ。画面上でブロックをドラッグ&ドロップでつなぎ合わせれば、アプリの流れが出来上がる。技術に詳しいユーザーなら、高度な開発画面に切り替えれば論理演算や変数を使うこともできる。それでも、完全に視覚化されている。

企業ユーザー向けに、Voiceflowの中にAPIブロックも用意されているため、その企業の独自のAPIを組み込んだ音声アプリの開発も可能だ。

さらに、この製品の面白いところはもうひとつある。協働機能だ。Voiceflowには無料の個人向けモデルと、チームによる音声アプリの開発に重点を置いた商用モデルがある。月額29ドルで利用でき、たとえば言語学者や音声ユーザーインターフェイスのデザイナーと開発者など、多くのスタッフを抱えて音声を使った仕事をしている職場に、みんながひとつのボードで作業でき、プロジェクトが共有でき、アセットのやりとりが簡単に行える環境が提供される。

Voiceflowは、今回のシード投資を使って技術者を増やし、プラットフォームの開発を続ける予定だ。より優れた、より人間的な音声アプリを、このプラットフォームで利用者に開発してもらうことが、彼らの長期的な目標だ。

「当面の問題は、Googleから資料や最良の利用方法が提示されていて、Alexaの側にも同様に用意されているのに、明確な業界標準がないことです。しかも、手に取れる具体的な実例がひとつもありません。または、それを開発に応用する簡単な手段がないのです」とReam氏は説明する。「もし私たちが、新たに1万人の音声ユーザーインターフェイスのデザイナーを生み出すことができれば、彼らをトレーニングしたり、簡単にアクセスできて、みんなで協働できるプラットフォームを提供することができます。会話の質が飛躍的に向上するはずです」。

その観点に立って、Voiceflowでは、Voiceflow Universityというプログラムを立ち上げた。現在はそこでチュートリアル動画を公開しているが、将来は標準化したトレーニングコースを提供する予定だ。

動画の他にVoiceflowには、Facebookを通じたユーザーコミュニティのネットワークがある。そこでは、2500名以上の開発者、言語学者、教育者、デザイナー、起業家などが、音声アプリのデザインや開発方法について活発に論議を交わしている。

こうしたVoiceflowとユーザーベースとの相互関係は、True VenturesのTony Conradに対して重要なセールスポイントとなった。

「ミーティング(ピッチ)に出席した後、私は少しばかり探ってみました。そして大変に感銘を受けたのは、開発者コミュニティの関わりの深さでした。他では見られないことです。このプラットフォームの最大にして唯一の差別化要素は、Bradenのチームと、コミュニティとのエンゲージメントの強さです」とConradは言う。「初期のWordPressを思い起こしました」。

Voiceflowは、最近までもうひとつの視覚化デザインツールInvocableと連携していたが、Voiceflowのプラットフォームへのユーザーの統合を助ける目的で、Invocableはサービスをシャットダウンした。

ここには教訓が含まれているようだ。Invocabeは、ユーザーに別れを告げたブログ記事で、人々はスマートスピーカーを、いつまでも音楽やニュースやリマインダーや単純なコマンドを中心に使い続けていると指摘している。また、自然言語処理と自然言語理解は、高品質な音声アプリを支えるまでには進歩していないとも書いている。その日はいずれやって来るに違いない。だがそれまでの間、一般消費者に広く受容される時期に先んじて、音声アプリ開発市場を支える最適なプラットフォームで勝負に出ようとすれば、そのタイミングを見極める必要がある。

トロントに拠点を置くVoiceflowは、現在12人のチームで運営されている。彼らは拡大を目指している。

[原文へ]

(翻訳:金井哲夫)

GoogleアシスタントでついにG Suiteのカレンダーを管理できるようになる

米国時間4月10日、GoogleはCloud Nextカンファレンスの中で、ちょっとしたことだがうれしいGoogleアシスタントの機能を発表した。GoogleアシスタントでついにG Suiteの仕事用カレンダーを管理できるようになるというものだ。

これまで同社は、Googleアシスタントは生活のプライベートな部分を管理するのに役立つとしてきた。しかしこれからは、G Suiteのアカウントでサインインし、仕事の日に関する情報をGoogleアシスタントに尋ねることもできるようになる。車やGoogle Home HubなどGoogleアシスタントのディスプレイも含め、Googleアシスタントが動作するすべての場面でこのように統合される。

現時点では、この機能はカレンダーのイベントについて尋ねることにほぼ絞られている。Googleアシスタント経由でイベントを作成することはできないようだ。ただしGoogleは、たとえばこの機能を使って今後予定されているイベントについて尋ね、ほかの参加者にメールを送信することができるとしている。

興味深いのは、同社はこれまでGoogleアシスタントを職場での生産性向上ツールとは位置付けてこなかったということだ。「Google Home」や「Google Home Hub」という名前からもこのことは明らかだ。しかし仕事とプライベートは重なり合うこともあるし、基本的には声で操作してキッチンの照明を点けるのと同じテクノロジーを使ってスプレッドシートから関心のあるデータを取り出すこともできるだろう。

Googleはこのテーマを今後も拡大していくのか、あるいは今回限りの統合なのかに注目だ。

[原文へ]
(翻訳:Kaori Koyama)

Android新端末にはGoogleアシスタント起動ボタンがつくようになる

現在、AndroidスマートフォンGoogleアシスタントを起動するにはホームボタンを長押していた。今日(米国時間2/24)のバルセロナで開幕したMWCカンファレンスでは間もなくLG、Nokia、Xiaomi、TCL、Vivoが新製品を発表するが、各社の製品は専用のGoogleアシスタント起動ボタンを備える。これはSamsungのスマートフォンに以前から同社のアシスタント、Bixbyの起動ボタンが備えられていたのに似ている。

今週発売されるボタン付きの新しいスマートフォンは、LG G8 ThinQとK40、Nokia 3.2と4.2だ。近くXiaomi Mi Mix 3 5GとMi 9、Vivo(Vivo V15 Proを含む)、TCLにも専用のアシスタントボタンが装備される。Googleは1億台を超えるデバイスが近くアシスタント起動ボタンを備えるようになると期待している。

GoogleはAndroid OSに専用ボタンを利用する新機能を組み込むことができる。これにより現在数回タップしなければならない機能が簡単に利用できるようになるはずだ。

専用ボタンを1回タップするとアシスタントが表示さるのは(現在のスマートフォンでホームボタンを長押しするのと同じ効果)。ダブルタップすると、アシスタントの今日のスナップショット機能が表示される。天気、予定、予定、位置情報などユーザーのコンテキストに応じた情報が得られる。長押しすると「ウォーキートーキー機能」が呼び出される。これにより、アシスタントは長いセンテンスjを最後まで聞き取るようになるという。Googleでは「メールなど長いテキストを音声入力するのに最適」としている。

GoogleがこのボタンをAndroidスマートフォン自体に組み込んでいることは興味深い。Google自身の次期Pixelスマートフォンや、発表が期待されている低価格版のPixel 3にも組み込まれるだろう。アシスタントを発見しやすくなれば利用の頻度もアップするに違いない。すくなくともGoogleはそう期待しているはずだ。

原文へ

滑川海彦@Facebook Google+

GoogleのCES 2019発表まとめ――すべてスマートアシスタントが関係

今朝(米国時間1/8)、、ラスベガスで開幕したCESでGoogleはコンシューマー向けプロダクトを多数発表した。いちいち詳しく調べているヒマがなくても心配無用だ。以下にまとめを用意した。

  • Googleは「音声対話型アシスタントが今月末までに10億台のデバイスに搭載される」と発表。
  • Googleは今日からiOSとAndroidの双方でGoogleマップでアシスタントが使えるアップデートを配信開始。Google自身でモバイルOSとの連携を最適化できるためAndoroid版の方がやや機能が豊富だ。しかしどちらのバージョンでも非常に便利な機能だ。
  • 近くアシスタンからSonosスピーカーを制御できると発表。これは1年前から予告されていたが、いよいよ実際にリリースされるのだろう。新しいSonos OneとSonos Beamの場合、マイクがビルトインされるようだが、最終的にはマイク内蔵でないSonosでもGoogle
    Home経由でも操作できるようになる。
  • 2019版Samsung TVはGoogleアシスタント互換となる。実現するのは今年後半。ユーザーがGoogle Homeまたはこの種のデバイスを持っていれば、 Samsung TVとペアリングし、電源のオン・オフ、音量調整、チャネル選択などの操作を音声でできるようになる。
  • 衛星放送のDishがアシスタントを導入する。 ng yDishが提供する音声対応リモコンからHopperセットトップボックスが操作できるようになる。
  • アシスタントからフライトのチェックインとホテルの予約ができるようになる。今日はUAのみだが、他のキャリヤにも順次対応する。コマンドは“Hey Google, check into my flight”だ。
  • Lenovoは 価格80ドルのアシスタント内蔵置き時計を開発。ベッドの枕元に好適。
  • アシスタントに新しく通訳モードが追加される。72カ国語でリアルタイム音声通訳が可能。
  • GoogleはAssistant Connectプログラムをスタート。デバイスなどのメーカーが既存のGoogle Homeデバイスとの連携し、その能力を簡単に利用できるようになる。 大きな処理能力を必要とする力技はGoogle Homeデバイスが受け持つ。 eインクの電子書籍リーダーが天気予報やカレンダーなどの情報を表示できるところがデモされた。デバイス自身はネットに接続していないが、Google Homeに接続させることで必要な情報を取得、表示することが可能になっていた。
  • GoogleはバッテリーのAnkerと提携した。Roav Boltシステムは自動車の12V電源(昔はシガーライターと呼ばれていたソケット)で利用でき、車内でのアシスタントの利用が容易になる。BluetoothまたはAUXで接続される。またGoogleはハイエンド・オーディオのJBLとも提携、スピーカーにノイズキャンセル機能が組み込まれ、エンジン音やロードノイズを低減する。またいちいちスマーフォンをアンロックせずに車内でアシスタントが利用できる。

Google Assistant

お気づきのように、今年のCESでGoogleはスマートアシスタントにもっとも力を入れている。発表のすべてになんらかの形でアシスタントが関わっていた。Googleはコンベンションセンターの会場の正面に2階建てのビルを建てたが、全館がアシスタントのショーケースだ。Googleがアシスタントを検索の次にくるエボリューションとみていることが明らかになった。

すくなくとも今後Googleの一般ユーザー向けサービス、プロダクトにはアシスタントが重要な役割を果たすことになるのは間違いない。

CES 2019 coverage - TechCrunch

原文へ

滑川海彦@Facebook Google+

Googleアシスタントでホーム・アローンも楽しい――大人になったマーコーレー・カルキンがCMに登場

クリスマスを控えて新しいGoogleアシスタントのCMが公開された。これは1990年にスマッシュヒットした映画、『ホーム・アローン』の設定を借りてアシスタントの多彩ぶりを紹介するもので、よくできている。

大人になったケビンを演じるのはなんとマコーレー・カルキン自身だ。家中のさまざまなデバイスをGoogleアシスタントで自由にコントロールできるところが披露される。健康上の問題を抱えていると報じられたこともあるカルキンだがたいへん好調そうだ。

公平のために言っておけば、AmazonあるいはAppleのスマートアシスタントでもだいたい同じことはできる。

〔日本版〕CM中のカルキンが使っている音声コマンドは、

Hey Google, what’s on my calendar today? 今日の予定を教えて。
Hey Google, add aftershave to my shopping list. ショッピングリストにアフターシェーブを追加して。
Hey Google, remind me to clean these sheets later. このシーツを洗濯することをリマインドして。
Hey Google, what do I owe you? いくら払えばいいのか教えて。
Hey Google, turn down the temperature 2 degrees.  室温を2度下げて。
Hey Google, begin Operation Kevin. ケビン作戦を実行して。

など。Operation Kevinはカスタム・コマンドらしく家中のデバイスが賑やかに作動する。ミニバンでやってきた泥棒は「見つからないうちに逃げよう」と退散する。アシスタントの機能と操作方法の一覧はこちら

原文へ

滑川海彦@Facebook Google+

Googleアシスタントがフライト遅延を教えてくれる――航空会社の不手際の場合は無理

よく出張する旅行者なら、スケジュールの遅延の多くは飛行機がどこかでひっかかってしまうためだと知っているだろう。機材の故障はもちろんだが、着陸する空港の視界不良(サンフランシスコ空港、お前のことだ!)でも遅れが出る。航空会社が万事順調だと言っていても油断はできない。

あまり出張の必要がなかったり(それはそれで大変けっこう)、いちいちFAAの航空情報をチェックするのが面倒だという向きに朗報だ。Googleは「近くアシスタントがスマートフォン経由でいち早くフライトの遅延の可能性を知らせるようになる」と発表した。Googleは収集したフライト関連情報をアルゴリズムで処理し、遅延の確率を判断するのだという。この機能は現在順次公開されており、数週間で全ユーザーが利用できるようになる。

フライト遅延情報自体は今年の初頭からGoogleが提供していた。ただし、このときはユーザーがフライトを検索しないかぎり遅延の可能性があると知ることはできなかった。この機能があることを知らないユーザーは遅延情報を利用できなかった可能性が高い。

Googleによればフライトの遅延予測は主として機械学習アルゴリズムによっているという。ただし飛行中のフライトの着陸遅延も予測できるとこからすれば、Googleは対象空港関連だけでなく、きわめて広範囲にデータを収集しているこは間違いない。

ちなみに航空会社はたとえ遅延が予想される場合でも定刻にゲートで待つよう指示する。これは(特にハブ空港の場合)航空会社は別の機材に振替えを行う可能性があるからだ。

ただし私はニューアーク空港で真夜中までフライトを待たされたことが何度もある。遅延によって乗員が所定の勤務時間をオーバーしてしまい、別のクルーを手配するためにひどく時間がかかることがあるからだ。こういう場合はさすがのGoogleもまだ予測ができない。航空会社の不手際はGoogleアシスタントの通知の対象外だ。

画像:Michael H / Getty Images

原文へ

滑川海彦@Facebook Google+

「ヘイ、Siri, オーケー Google」でアシスタントを起動できる――ただしプライバシーには十分注意

AppleはライバルがSiriのショートカットをこんなふうに利用するとは予想していなかったに違いない。しかしiPhoneに「ヘイSiri, オーケーGoogle」と呼びかけることでGoogleアシスタントを起動できる。

ただし設定には多少手間がかかる。まずiOS版のGoogleアシスタントをアップデートして最新版にする。次に Google Assistant起動のためのSiriショートカットを作成する。

名前のとおりSiriショートカットを利用すればカスタム・フレーズを録音して音声で特定のアプリないし機能を起動することができる。またSiriのショートカットでプレイリストを再生させたり、誰かにメッセージを送ったりすることも可能だ。もしいくつかの動作を連続して実行させたい場合はAppleが提供するショートカットを使う。

Googleアシスタントの起動はデフォールトでOK Googleに設定されているが、ユーザーは自分の好みで「ねーGoogle」などに変えることができる。フレーズを設定してSiriに呼びかけるとGoogleアシスタントが立ち上がる。

最初のトライでiPhoneまたはiPadのiOSにアプリを開く許可を与える必要があるかもしれない。Googleアシスタントが起動されると自動的にコマンドの聞き取りモードで待機する。アプリが立ち上がってから聞き取り可能になるまでわずかに時間がかかるので、その後で呼びかける。

ここまで手間をかけるユーザーがどのくらいいるかはともかく、「ヘイSiri、オーケーGoogle」でGoogleアシスタントが起動するのはやはり面白い。

ちなみにGoogle Assistantはプライバシーの点からは最悪アプリの一つだ。このアプリは例の 「ウエブとアプリのアクティビティ」を有効にするよう求めてくる。この機能はあらゆるプライベートな情報を収集することで悪名高い。有効になっている場合、Googleは検索履歴、Chromeのブラウズ履歴、位置、クレジットカードの履歴その他ありとあらゆる履歴を集めることができる。.

もし有効にしていない場合、目立つ青いバナーがアプリの下に表示され、「ウェブとアプリのアクティビティを有効にするとアシスタントでさらに多くの機能をアンロックできる」と勧めてくる。心理的トリックでユーザーに特定の行動を取らせることを企むダーク・パターンUIの例だ

クリックするとキュートなアニメが表示されるが気を取られてはいけない。内容が肝心だ。表示されるボタンはMoreしかない。Moreボタンをクリックするといつの間にか「オンにする」に変わっている。たいていのユーザーは左の「今はしない」ボタンに気づかないだろう。

これは古典的なトリックだ。相手が常にイェスと答えるような質問をいくつか続ける。相手はいつの間にかイェスと答えるのに慣れてしまい、最後の質問にもイェスと答えてしまう。これが「スタート」だの「さらに詳しく」だのと表示されたボタンの意味だ。なんども「さらに詳しく」ボタンをクリックしていると最後のボタンの内容に納得していなくてもついクリックしてしまうことになる。もし「無効にする」ボタンを選択すると、「本当によいですか」とうるさく尋ねてくる。

無名のゲーム・アプリからAmazon、Googleまでユーザーを誘導するデザインをひんぱんに使っているので、ことプライバシーに関してユーザーは自分が何をしているのか十分に意識する必要がある。

〔日本版〕日本版iOSでも上記手順で設定できる。手持ちのiPadの場合、電源が接続されている場合は「ヘイSiri」と呼びかけるだけで起動される。接続されていない場合はホームボタンを押して「へいSiri」と呼びかける。Siriが起動した後、「オーケーGoogle」と呼びかけるとGoogleアシスタントが起動する。利用法はGoogle Home/Miniと同様だが、常に身近に置かれるモバイル・デバイスの場合は上記記事のようにプライバシーに注意する必要がある。

原文へ

滑川海彦@Facebook Google+

Googleアシスタントが日英バイリンガルになった――英独仏西伊日を自由に組み合わせ可能

Googleアシスタントがさらに賢くなってバイリンガルになった。今日公開されたアップデートではGoogle Homeアプリの設定から、たとえば英語とスペイン語、英語と日本語のように2つの言語を選べるようになった。Googleアシスタントはどちらの言語によるコマンドにも反応する。

今日のアップデートはある程度予想されていた。 Googleは今年2月のI/Oカンファレンスでアシスタントのバイリンガル機能を開発中だと明かしていた。次のI/Oまだまだだいぶ間がある今の時期に無事に新機能が公開できたのは何よりだ。

今のところアシスタントはバイリンガル、つまり2言語のみサポートする。英語、ドイツ語、フランス語、スペイン語、イタリア語、日本語の6ヶ国語から自由に2つの言語を選択できる。Googleでは他の言語への拡張にも取り組んでおり、また将来は3言語の利用をサポートする計画だという。

Googleは私の取材に答えて、この機能は一旦設定すればアシスタントがその言語をサポートしていさえすればあらゆるデバイスで有効になると述べた。つまりアシスタントを搭載したほぼすべてのスマートフォン、スマートスピーカーということだ。ただし最近発表されたスマートディスプレイはまだ英語しかサポートしていないので例外となる。

一見したところでは簡単なことに思えるかもしれないが、 Googleはこのようなバイリンガル化は完成までに何年もかかる複雑な作業だったと述べた。このようなシステムでは複数の言語をサポートをしているだけでなく、ユーザーが話す言葉がどの言語であるかを識別し、理解し、適切な言語で反応する必要がある。しかもこれを数秒以内に行わなければならない。

Googleのバイスプレイジデント、Johan Schalkwykとスピーチ認識のエンジニア、Lopez Morenoは今日の発表でこう書いている。

われわれの言語認識モデル(LangID)は2000種類の言語ペアを識別できる。次に、サポートされている言語による音声コマンドを適切に実行するシステムを開発した。ユーザーの発話が停止すると同時にシステムはそれが何語であるか決定するだけでなく、何が言われたのかを理解しなければならない。こうしたプロセスはそれ自体極めて高度なアーキテクチャーとなるが、不必要なレイテンシーを排除するためにさらに余分のコンピューティング資源を要した。

ドイツ、フランス、イギリスのユーザーはこれらの地域で今日から発売される大型の Google Home Maxでもバイリンガル機能を利用できる。

また今日の発表によれば、 Googleは近くバイリンガルのサポートをtado°のスマート・サーモスタットのようなデバイスにも広げるという(ただし、当然だが、AmazonのRing Alarmのような独自製品は対象とならない)。

〔日本版〕バイリンガル機能は日本でもすでに有効。新言語の追加はHomeアプリなどから「設定→カスタマイズ設定→アシスタントの言語」オプションを開く。タップすると追加できる言語のリストが表示されるが、地方別に言語の種類を指定する必要がある。英語の場合、アメリカ、イギリス、カナダ、オーストラリア、インド、シンガポールが用意されている。下のビデオでは日仏バイリンガルの例が登場する。

原文へ

滑川海彦@Facebook Google+

Googleアシスタントが音声通話で予約を取ってくれる――マンハッタンのレストランでDuplexのデモに参加してきた

I/Oでのセンセーショナルな発表からひと月後、Googleはさらに改良されたDuplexを少数のジャーナリスト向けにデモした。場所はマンハッタンのイーストサイドの大型タイ料理店。Googleが新しいプロダクトのデモをするにはいかにも不似合いな場所だ。

テーブルは片付けられ、3脚ずつ3列、あわせて9人分の椅子が明るいディスプレイに面し、サイドのデスクが即席のコントロールセンターで、Google社員4人が配置されていた。ここでGoogleはI/Oのキーノートで発表され賛否の議論を沸騰させた新しいプロダクトDuplexをデモした。

I/Oカンファレンスが行われた陽光輝くマウンテビューのショアラインアンフィシアターとは180度雰囲気が違うニューヨークの高級タイ・レストランが舞台となったのには、しかし、十分に理由があった。GoogleはいよいよAIを駆使した音声ベースの予約アプリをデモした――レストラン、Thep Thaiのオーナーは「われわれは毎日100件からの予約を受けているのでこうしたアプリが登場するのは願ってもないことだ」と称賛した(Googleによればアメリのスモールビジネスの6割はオンライン予約システムを備えていないという)。【略】

秘密主義で名高いGoogleとしては、進行中のプロジェクトのベールを一部なりと外すのは珍しい。しかしDuplexにとって情報の透明性は成功のカギとなる要素だ。自動運転車と同様、この種のシステムは現実の世界で繰り返しテストされ、可能なかぎりバグを潰しておく必要がある。

I/OのキーノートでCEOのスンダル・ピチャイは「これからGoogleアシスタントが本当のヘアサロンに電話して予約を取るところをお聞かせする」と述べた。

(Googleアシスタント)ハイ、クライアントの女性のヘアカット、1名予約をお願いします。えー、5月3日はどうでしょう?

(ヘアサロン)オーケー、ちょっと待ってください。

(Googleアシスタント)アーハー…

〔下のビデオでは1:08あたりから通話が再生される〕

ここでカンファレンスの聴衆はジョークだと思って笑った。それから本物だと気づいて喝采した。実際、意味がわかっても信じるのは難しい。電話しているのはAIベースの純然たるロボットだ。それが「えー」と口ごもったり、「アーハー」と頷いたりできるとは。

実はこうした無意味な音声は言語学では非流暢性(speech disfluencies)として知られ、現実の発言で頻繁にみられる重要な要素と考えられている。Duplexの発言が驚くほど自然に聞こえるのはこうした非流暢性を巧みに利用している点が大きい。

またDuplexが相手の返事をはっきり理解できなかった場合にも非流暢性は役立つ。受付担当者が電話の声を聞き取れなかったり聞き違えたりすることは普通にある。たとえば「4人のグループの予約をしたい」と求める場合、「えー、席を4人分です」と表現を変えて言い直すことができる。ここで「えー」は自然さを増し会話を円滑に進めるために効果がある。

こうした細部がDuplexを正しく作動させる秘密となっている。これは私の体験からそうだと言える。実は今回のデモで私はタイ・レストランの受付係の役でGoogleアシスタントの電話を受けたからだ。I/Oでアンフィシアターの巨大スクリーンに写し出された会話も本物だった。さらに興味深いのは、この電話はぶっつけ本番だっただけでなく、電話をかけているのがGoogleアシスタントだとはヘアサロンも知らなかったことだ。Googleがヘアサロンに知らせたのは電話の後だったという。【略】

ただしGoogle Duplexテクノロジーが実用化されるためには、情報の透明性が必要だ。つまり自分が人工知能であること、会話は録音されていることをまず最初に開示しておく必要がある

Googleはプロダクトを紹介したブログにこう書いている。

会話が快適に進められるよう、〔Duplex〕テクノロジーは自然に聞こえねばならない。ユーザーにとっても店舗にとってもサービスの使用体験が快適であることが重要だ。透明性はこの点でもカギとなる。われわれは、ビジネス側がコンテキストを正しく理解できるよう、電話の意図、性質をできるかぎり明確にするよう努める。具体的な手法については今後数ヶ月かけて実験していく。

Duplexの透明性に関するメディアでの議論を受けて、Googleの担当者は「Duplexは情報開示機能を組み込んだデザインとする。これにより受け手がシステムの性質を正しく認識できるようになる。われわれがI/Oで紹介したのは初期段階のテクノロジーのデモであり、今後は各方面からのフィードバックを取り入れながらプロダクトに仕上げていく」と付け加えている。

現在のDuplexの通話はこのような形式でスタートする。

ハイ、私はGoogleアシスタントです。クライアントに代わって予約の電話をしています。これは自動通話で録音されています。

Duplex自身はAIだと名乗っていないが、Googleアシスタントに馴染みがあればおそらくそう気づくだろう。ただし録音されていることは告げている。Googleでは音声、テキスト双方を記録し、品質の検証と今後の改善に役立てるとしている。

タイ・レストランでのデモでGoogleアシスタントの電話を受けたとき、最初の部分を繰り返させようとしてみた。騒々しいレストランなどで電話を取ったとき最初の情報開示部分を聞き落とすことは大いにあり得る。しかしアシスタントはかまわず予約内容に進んだ。つまり受け手が情報開示部分を聞き落とした場合、今のところ繰り返させる方法はない。ともあれ、現在の段階ではそのようだ。録音からオプトアウトしたい場合は電話を切るしかない。しかし常連客を増やすためにはあまり勧められない方法だ。

この点について、Googleのエンジニアリング担当アシスタント・バイスプレジデント、Scott Huffmanによれば「われわれは『オーケー、では録音しません』と言わせるメカニズムはもっている。ただ、具体的にどのようにすればよいか検討中だ。電話を切ればよいのか? 録音を破棄すればよいのか?」と説明した。

私も含めてデモに参加したジャーナリストはシステムをまごつかせようと全力を挙げた。アシスタントが午後6時の予約を取ろうしたので私は店が開くのは午後11時だと答えた。マンハッタンにはとんでもない営業時間の店がいくらもある。アシスタントは諦めて礼儀正しく電話を切った。

ここでDuplexの「聖杯」となるのは「予約のチューリングテスト」に合格することだ。Duplexが混乱すると Googleが用意した人間の担当者が引き継ぎ、いってみれば、飛行機を安全に着陸させる。人間の補助要員はDuplexのテストに常に付随する。Googleによれば誤解が手に負えないレベルに拡大しないよう、当分の間、Dupelxは人間が後見するという。この方式でどの程度の規模まで実験を拡大できるのか注目だ。

もっとも今回のデモではわれわれは誰もDuplexの後ろから人間の要員を引き出すことはできなかった。それでも現在のシステムの限界をいくつか知ることができた。たとえば、「最後の4桁を繰り返してください」と言うとアシスタントは電話番号を全部繰り返した。これは間違いではないが、やはり人間の会話の微妙なニュアンスを理解できていない。一方、メールアドレスを尋ねると、システムは「クライアントから〔メールアドレスを明かす〕許可を得ていません」と答えた。

GoogleによればDuplexは現在5件中4件は全自動でタスクを完了できるという。80%の成功率ならたいしたものだと思うが、Googleではさらに改良を進めている。【略】

DuplexはMacbookにオフィスの電話をつないだ間に合わせのシステムから始まって長い道を歩んできた。これはWaveNetオーディオと深層ニューラルネットワークの上で音声からテキスト、テキストから音声という変換を繰り返す複雑なプロセスだ。最初のデモはリアルタイムでこそなかったが本物だった。Duplexはさらに興味深いプロダクトに成長している。

好むと好まざるととに関わらず、Duplexは近々現実のものとなる。これを避けるには電話を使わないことしかないかもしれない。

[原文へ]

(翻訳:滑川海彦@Facebook Google+