Josh.aiが「ほとんど見えない」硬貨サイズのAmazon Echo対抗製品を発表

この数週間、スマートホーム用バーチャルアシスタントの世界では、ほぼすべてのメーカーから製品のリニューアルや拡大が発表されている。Apple(アップル)はHomePod Mini(ホームポッドミニ)を、Google(グーグル)は待ちに待ったGoogle Home(グーグルホーム)の最新モデルを発表し、Amazon(アマゾン)は、Alexa(アレクサ)を住まわせるスピーカーの種類をさらに増やしてきた。

そして米国時間11月10日、この分野で競合するスタートアップから新たな製品が追加された。Josh.ai(ジョシュ・エーアイ)は、専門業者が取り付けを行い、さまざまなスマートホーム製品を管理できるようにするスマートアシスタントというニッチな製品を開発しているが、11月10日午後に新製品を発表した。

このデバイスの名前はJosh Nano(ジョシュ・ナノ)。高級住宅向けというニッチ市場を狙ったもので、50セント硬貨よりわずかに大きい(直径3cmほど)、目立たない製品だ。本体はほとんどが壁の中に埋め込まれ、PoEにより電気配線を通じて中央ユニットに有線接続される。このデバイスにはマイクが4基付属している。スピーカーは内蔵されておらず、家庭のホームサウンドシステムに直接統合できるようになっている。Joshでは、Sonos(ソノズ)などの企業と提携しているが、その他にも主要なAVレシーバーのメーカーとの互換性を誇っている。その他は、光による視覚的なフィードバック、多目的タッチセンサー、心の落ち着きが欲しいときにマイクをオフにする物理スイッチといった程度で、多くの機能を持たない。

画像クレジット:Josh.ai

この新型ハードウェアの狙いは、業界標準の時代遅れなタッチスクーンから脱却して、家庭用のスマート機能を目立たなくすることにある。Josh.aiは、スマートホーム製品を基本機能だけに絞り込むことで、より多くのユーザーが、新製品が出ても現在使っている製品が古臭いつまらないものにはならないと安心して購入できるようにしたいと考えている。同スタートアップは、このデバイスの予約受付を行っている(色は黒と白の2種類)。出荷は2021年初頭を計画している。

このデバイスは、同社がJosh Core(ジョシュ・コア)と呼ぶ製品を必要とする。基本的に、ユーザーの住宅内でJoshが対話するあらゆるデバイスのハブとなる小型サーバーだ。これにより、スマートホーム製品同士が、外部への要求を最小限に抑えつつ確実にローカルで対話できるようなる。同スタートアップは、壁に埋め込まれたハードウェアに専用のスピーカーを統合する従来製品Josh Micro(ジョシュ・マイクロ)も引き続き販売する。

Josh.aiは、ハードウェアの取り付け事業者と直接提携するかたちを取っているが、ソフトウェア事業としての拡大も行ってきた。顧客に同社のテクノロジーを1年、5年、永久の各期間ごとにライセンスするというものだ。料金は、取り扱う住宅の規模に応じて異なる。「スモール」は、15部屋以下の住宅が対象となる。ハードウェアに関しては、費用はまちまちだとJosh.aiは話すが、最も多い事例で、平均的なコストは1部屋あたり500ドル(約5万3000円)前後だという。

大手テック企業は、当然のことながら大衆向けの製品を開発する。Josh.aiなどのスタートアップから見れば、この現実は、10億人のユーザー共通の需要に応える以外の製品を開発する道を示している。実際、同社のセールスポイントは、顧客の多くがグーグルやアマゾンやアップルのデバイスは購入せず、家の中のフィードバック用マイクを有線接続しているという事実から導かれたものだ。

同スタートアップの現在の事業は95%が住宅向けだが、商業的なシナリオでそのテクノロジーを活かす方向での拡大にも彼らは興味を示している。会議室や、エレベーターなども考えられると同社は話していた。

カテゴリー:ハードウェア
タグ:スマートスピーカースマートアシスタントスマートホームJosh.ai

原文へ

(翻訳:金井哲夫)

GoogleアシスタントからAndroidアプリを操作可能に

Google(グーグル)は米国時間10月8日、Googleアシスタント内から音声でAndroidアプリを操作できるようになったと発表した(Googleブログ)。「Ok Google」でアプリを起動しさらにいくつかの操作コマンドを送ることができる。この機能はGoogleアシスタントを搭載したあらゆるAndroid端末で利用できる。ユーザーは音声でアプリを起動した後、アプリ内での検索、料理の注文、音楽再生、ソーシャルメディアへの投稿、タクシーの配車依頼いくつかのタスクを実行可能だ。

例えば、「Ok Google、Etsyで快適な毛布を探して!」「Snapchatでセレナ・ゴメスを開いて!」「Nike Run Clubで記録を開始して!」「Twitterで最新のニュースを調べて!」などと命じることができる。

スタート時点ではまず英語の命令がサポートされるが、世界のGoogle Playの上位アプリ30種類で利用可能であり、今後さらに多数のアプリがサポートされるという。現在利用できるアプリは、Spotify、Snapchat、Twitter、Walmart、Discord、Etsy、MyFitnessPal、Mint、Nike Adapt、Nike Run Club、eBay、 Kroger、Postmates、Wayfairなどが含まれる。

またこの新しいバージョンでは普段使うボイスコマンドがユーザーにとって不自然な場合、そのコマンドを起動するための音声ショートカット作ることができる。例えば、ユーザーが自動的に靴紐を締めてくれるナイキのハイテクシューズを履いている場合、「Ok Google、Nike Adaptで靴紐を締めて」という代わりに「Ok Google、締めて」というだけでいい。つまりコマンドのフレーズをカスタマイズできるわけだ。ユーザーがショートカットを作りたいときは「Ok Google、私のショートカット」と命じれば設定画面が表示される。

これはApple(アップル)の iOSにおけるSiriの機能によく似ている。アップルは最新のSiriでiOSアプリを開きいくつかの操作を命じることができるようにしている。また命令フレーズのカスタマイズもできる。

グーグルの場合、アプリ内で音声に反応する仕組みはデベロッパーが作成するxlmファイルでユーザーの意図をアプリの動作にマッピングすることで実現している。この仕組みはApp Actionsと名付けられている(Google Develoverサイト)。ユーザーが音声でアプリを開く場合コマンドはApp Actionsに引き渡される。今回App Actionsの機能が強化され、単にアプリを開くだけではなく、アプリ内で検索を実行するなど各種のコマンドがサポートされるようになったわけだ。

同社によれば現在App Actionsのカタログには10分野60種類以上のユーザーアクションが登録されているという。具体的には、財務、配車、料理配達など既存の分野にソーシャルゲーム、旅行、ショッピング、近隣店舗、コミュニケーション、生産性ツールなどが追加されている。

ユーザーがこのApp Actions機能を適切に使えるよう、同社でははAndroidアプリに新しい仕組み設定している。例えば、ユーザーがアプリを指定せずに「テイラー・スウィフトを見せて」と命じた場合、グーグルはTwitterをトップとする検索結果を表示し、ユーザーが Twitter のテイラー・スウィフトアカウントに移動することを助ける 。

画像クレジット:Google

新機能に関連して同社は、スマートディスプレイ上でカスタムアプリを作るための支援ツール各種と新しい音声(英語)を2種類リリースした。

同社は米国時間10月8日に開催されたGoogle Assistant Developer Dayイベントで、いくつかの新しいプロダクトとアップグレードを発表した。これにはGoogle Duoへの画面共有やスパム通話防止のためのVerified Calls(認証済み通話)のサポートデバイスの拡大(Android 9以降が必要)などが含まれる。

Google Playの Movies&TVアプリは先週TechCrunchが報じたとおり、Google TVアプリへリニューアルされた。またアクセシビリティも強化された。音声通知機能を聴覚にハンディキャップがあるユーザーのためにカスタマイズできるようになった(Googleブログ)。さらには、脳性まひ、自閉症、失語症などの障がいをもつユーザーのアクセシビリティをAction Blocksアプリを利用して容易に改善できるようにした。新機能はすでに公開されている。

【Japan編集部追記】日本語サポートについてはGoogleアシスタントのサイトを参照してほしい。

カテゴリー:ソフトウェア
タグ:Goolge、Googleアシスタント

原文へ

(翻訳:滑川海彦@Facebook

CES 2020のGoogle発表は昨年同様、スマートアシスタント中心

CESが開幕した。Googleのスマートアシスタントもニュースを伝えるのにおおいそがしだ。そのGoogleは、2020年もやはり目立っていた。2019年のように遊園地をまるごと作るほどの派手な登場ではなかったものの、ラスベガス・コンベンション・センターの正面に巨大な2階建てのブースを設けており、ご覧のとおりすべり台もついている。

2019年と同様に、2020年もGoogleがCESで力を入れているのはAI利用のスマート音声デバイス、つまりGoogleアシスタントまわりだった。

それでは新しいプロダクトをみていこう。

  • ウェブページ読み上げ: 重要な記事を読まねばならないが、一日中スマートフォンとにらめっこしているヒマはないということがよくある。Androidデバイスのユーザーは「OK Google、このページを読み上げて」と命じることができるようになる。アシスタントはたちどころにニューラルネットワークで自然な音声を生成し、人間のような自然さで記事を読み上げてくれる。ページに無数に散らばっている「なんとかで共有」や「トップに戻る」といったボタンにわずらわされることはない。Googleによれば、やがてアシスタントは読んでいる箇所をハイライトし、自動的に表示のスクロールもするようになるという。ただしこの機能が実装されるのは読み上げ機能より後になるかもしれない。
        • 動作の予約: 1回限りの操作を予約できるようになる。「OK Google、午後6時に明かりを点けて」などと命じることができるとのことだが、、今までこれができなったのが驚きという気もする。
        • ふせん: ポストイットに何かメモして、手帳や冷蔵庫などの頻繁に目にする場所に貼ることは誰もやっているだろう。Googleはこれをスマートディスプレイでもできるようにする。「OK Google、 『荷造りを忘れるな』とメモを貼って」などと命じると、ロックスクリーンにそのメモがずっと表示される。

        • 短縮ダイヤル: こちらはベビーシッター向けにポストイットに重要な電話番号を書いて冷蔵庫に貼っておく、といった作業の代用を目指している。 スマートディスプレイに電話番号を登録し、ロックスクリーンに表示させておくことができる。誰でも番号をタップし、あるいは音声コマンドでその番号に電話ができる。
        • 通訳モード: 2019年のCESで発表された通訳モードだが、いよいよスマートディスプレイでも利用できるようになる。スマートディスプレイの前に2人の人物がそれぞれ異なった言語で話すとスマートアシスタントが音声で通訳してくれる。Googleは多くの企業がこの機能を利用するようになると期待しており、事実、HSBC銀行やその他の機関が利用を始めている。ラスベガス、サンフランシスコ、ロサンゼルス、日本、カタールにあるいくつかのホテルが利用を始めたということだ。我々もAmerican Airlinesの例を紹介している。こちらは英・西・中・日・独・韓・仏語を話すNestをラウンジで稼働させるためトレーニング中だ。
        • おっと、それからプライバシーだが、 Googleアシスタントは「OK Google」、「Hey Google」などのセンテンスで始まるコマンド類を除いて言われたことを一切記憶しないことになっているが、テレビから聞こえてくる会話などがアシスタントの録音機能を起動してしまうケースがたまにある。なにか会話していて突然アシスタントに「すみません、お役に立てそうもありません」と言われて驚いたことがある読者もいるだろう。これは会話中の何かがアシスタントの注意を引いたものだ。何か録音されていると感じたら「OK Google、今言ったことは忘れて」などと命じればよい(音声コマンドでアクティビティを削除する方法はこちら)。
        • 以上、いずれも便利そうな機能だが、Googleはロールアウトの正確なタイミングを発表しておらず、「近く」使えるようになるという。

          原文へ

          滑川海彦@Facebook

消費者の41%が音声アシスタントのプライバシーに不安、マイクロソフト調査

Microsoft(マイクロソフト)の新しいレポートによれば、音声アシスタントのユーザーの41%がデバイスが常時聞き取り状態にあることに関連してプライバシーやデータ保護の信頼性に不安を抱いているという。

Google、Amazon、Apple、 Samsung、Microsoftなどの有力企業が揃って消費者向け音声アシスタントデバイスのメインストリーム化に務めている現在、こうしたデバイスのデータ収集方法について懸念を抱くのは正しい態度だ。

しかし多くの消費者がこの点について正しい知識を持っていないように思える。Amazonのエンジニアが世界のユーザーがAlexaに入力した音声コマンドをモニターしているというBloomberg(ブルームバーグ)の最近の報道は消費者に懸念を抱かせた。しかもこうした人工知能を利用したスマートデバイスはメーカーやその外注企業の社員がモニターできるだけなく、入手した個人情報を違法に利用し、刑事事件にまで発展した例さえあった。電源がオンになっているかぎり聞き耳を立ているスマートスピーカーは笑いごとではすまないような重大なプライバシーの侵害を起こす可能性が充分ある。

米国時間4月25日、BloombergはAmazonのAlexaチームによるプライバシー侵害の危険性に関して次のように新たな報道を行った。

レポートによれば、Alexaが聞き取った音声データにアクセス可能なAmazon社員はデバイスの位置情報、場合によっては正確な住所も得られるという。これは音声データに緯度経度の座標が付属しているためだ。音声クリップをGoogleマップにペーストして簡単にデータが得られた場所を知ることができる。 Bloombergは「こうした位置情報を含むデータにアクセスできるAmazon社員の人数は不明」だとしている。

これは歴然たるプライバシーの侵害であり、我々がAmazon Echo、ひいては同種の音声アシスタントに対して抱く不信感を実証するものだ。

音声アシスタントのユーザーはバックエンド処理にどれほど人間が関与している正確に知ることはできない。しかしMicrosoftのレポートを読めば、デジタルアシスタント利用している消費者はデバイスが持つプライバシーの侵害やデータの不正利用などの危険性について強い不安を抱いていることがわかる。

例えば、Microsoftの調査対象の52%は入力された情報のセキュリティーに不安を感じている。24%は情報がどのよう利用されているのかわからないと考え、36%はどんな目的だろうと個人情報を一切利用して欲しくないと考えている。

こうした数字はデジタルアシスタントには個人情報の収集と利用から永続的にオプトアウトできる分かりやすい仕組みが必須だということを示している。 つまり1回クリックするだけで「デバイスが収集した個人情報が外に出ることはなく、かつ人間がアクセスすることはない」ように設定できなくてはいけない。

41%のユーザーは音声アシスタントがユーザーの音声に聞き耳を立て録音していることに不安を感じている。31%は収集された情報にプライバシーは保証されていないと考えている。

さらに14%はプライバシーやセキュリティーの点で音声アシスタント・サービスを信用していない。つまりAmazon、Google、その他の企業はこの点で信用されていないわけだ。Microsoftのレポートはこう警告している。

新しいテクノロジーデバイスに関する消費者からのフィードバックに不安に真剣に対応することはデベロッパーに課せられた責務だ。消費者が安心してデバイスと音声で対話できる未来を実現するために必要な信頼の基礎を今すぐ築き始めねばならない。

調査はプライバシーに関して音声アシスタントに消費者が不信感を抱いているものの、全員が音声アシスタントの利用に拒否反応を持っているわけではないことも示している。たとえばEchoに音声でAmazonの商品を注文する際、商品配送するために役立つなら住所データを利用するのは構わないと考えるユーザーも多い。確実にメリットがあるなら住所以外でも個人情報を提供していいと答えたユーザーも存在する。

消費者は全体としてはキーボードやタッチスクリーンより音声入力を好んでいる。音声アシスタントの普及はま だ初期段階だが、 57%のユーザーが(プライバシーなどの懸念はあるにせよ)、音声をお気に入りの入力方法だとしている。また37%は他の入力方法と併用して音声入力も用いると答えた。

「どちらかといえば」から「大いに」まで程度はさまざまだが、80%のユーザーがデジタルアシスタントに満足しており、「週に1度以上使う」ユーザーは66%、「毎日使う」は19%だった(これには音声以外のスマートアシスタント全般を含む)。

こうした高い満足度をみれば、音声を含むデジタルアシスタントが市場から消えるということは考えにくい。いかしプライバシーの侵害や不正利用の可能性は普及の大きな妨げになるだろうし、あるプロダクトの信頼性が高ければ、信頼性の低いブランドからの乗り換えを促すことも考えられる。

もしAmazonなどが社員が消費者の音声情報にアクセスすることを厳格に制限できず、Appleがリリースした製品がそれと同等の価格でプライバシーが良好に守られるとするなら、ここでもAppleが大きなシェアを得ることになるかもしれない。

音声アシスタントと音声認識テクノロジーのトレンドを含むMicrosoftのレポートの全文はこちら

原文へ

(翻訳:滑川海彦@Facebook

Googleの新音声認識はオフライン化されて高速に、Pixelで利用可能

音声認識は最近のスマートフォンの標準的機能だ。人工知能を利用した分析は驚くほど正確なこともあればひどい混乱に陥ることもある。しかし最大の問題は、Siri、Alexa、Googleアシスタントなどが返事を返してくるのが遅れることだ。Googleの最新の音声認識は完全にオフラインで動作するため遅延を完全に排除できる。ただし認識失敗はやはりときおり起きる。

遅延がなぜ起きるのかといえば、ユーザーの音声データはローカルデバイスからネットワークを通じてはるばる音声認識エンジンが存在するサーバーまで旅しなければならないからだ。データはそこで分析されてからユーザーに戻される。当然ながらこれには時間がかかる。応答を待つ時間はミリ秒単位ですむ場合もある。しかしまるまる数秒かかることあり、そうなればユーザーは苛立たしい思いをする。最悪の場合、経路の途中でデータの一部が行方不明になり、まるきり応答が返ってこないこともある。

それなら音声認識をローカルデバイス上で実行すればいいではないか?プロバイダーもそれが理想的な解決法だと考えている。しかし音声をミリ秒単位でテキストデータに変換する処理は膨大なコンピューティングパワーを食う。つまりマイクが拾うのは単なる「音」であって「発話」ではない。音声をテキスト化するためには言語と発話が行われたコンテキストに関する膨大な情報が必要だ。

もちろんローカルデバイス上で実行することはできる。しかしユーザーのデバイスの限られたリソースを考えるとクラウドに往復させるより速くはならなかった(しかもデバイスのバッテリーをひどく食う)。だがこれは急速に進歩を続けている分野であり、Googleはそれを可能にした。ただしPixelを持っている必要がある。

Googleの最新のテクノロジーについてはこちらの論文が詳しいが、簡単に要約すれば、Googleはこれまでの音声認識で蓄積された経験を生かして音声分析システムをスマートフォンで高速に作動するくらいいにコンパクト(正確には80MB)にまとめることに成功した。これによりユーザーはほとんd遅延を感じずに発話をテキスト化できるようになった。「their」と「there」などの同音異義表現も新しいシステムは発話終了を待たず、その場で判断できるという。

ただしテクノロジーには今のところ大きな制限がある。まずGoogleのPixelスマートフォン上のGboardアプリでしか作動しない。またサポートする言語は米英語に限られる。つまり実機によるベータテストに近い。Googleでは世界の各言語へのローカライゼーションの必要性を強調して次のように述べている。

ハードウェアコンポーネントの標準化とアルゴリズムの進歩という業界のトレンドを考えれば われわれが実現したテクノロジーが広く採用され、多くの言語、アプリが近くサポートされるようになるものと期待している。

しかし考えてみるとGoogleの他のアプリは大部分クラウド接続を必要とする。できた文書を共有したりメールで送信したりするのはもちろん、摂氏温度を華氏温度に換算するのでさえネットワーク接続が必要だ。接続状態が貧弱な場合オンラインでは音声認識が不可能な場合がある。またオフラインであればデータ伝送量を食わないですむ。こうした点は大進歩だ。

画像:Bryce Durbin/TechCrunch

原文へ

(翻訳:滑川海彦@Facebook Google+

Android新端末にはGoogleアシスタント起動ボタンがつくようになる

現在、AndroidスマートフォンGoogleアシスタントを起動するにはホームボタンを長押していた。今日(米国時間2/24)のバルセロナで開幕したMWCカンファレンスでは間もなくLG、Nokia、Xiaomi、TCL、Vivoが新製品を発表するが、各社の製品は専用のGoogleアシスタント起動ボタンを備える。これはSamsungのスマートフォンに以前から同社のアシスタント、Bixbyの起動ボタンが備えられていたのに似ている。

今週発売されるボタン付きの新しいスマートフォンは、LG G8 ThinQとK40、Nokia 3.2と4.2だ。近くXiaomi Mi Mix 3 5GとMi 9、Vivo(Vivo V15 Proを含む)、TCLにも専用のアシスタントボタンが装備される。Googleは1億台を超えるデバイスが近くアシスタント起動ボタンを備えるようになると期待している。

GoogleはAndroid OSに専用ボタンを利用する新機能を組み込むことができる。これにより現在数回タップしなければならない機能が簡単に利用できるようになるはずだ。

専用ボタンを1回タップするとアシスタントが表示さるのは(現在のスマートフォンでホームボタンを長押しするのと同じ効果)。ダブルタップすると、アシスタントの今日のスナップショット機能が表示される。天気、予定、予定、位置情報などユーザーのコンテキストに応じた情報が得られる。長押しすると「ウォーキートーキー機能」が呼び出される。これにより、アシスタントは長いセンテンスjを最後まで聞き取るようになるという。Googleでは「メールなど長いテキストを音声入力するのに最適」としている。

GoogleがこのボタンをAndroidスマートフォン自体に組み込んでいることは興味深い。Google自身の次期Pixelスマートフォンや、発表が期待されている低価格版のPixel 3にも組み込まれるだろう。アシスタントを発見しやすくなれば利用の頻度もアップするに違いない。すくなくともGoogleはそう期待しているはずだ。

原文へ

滑川海彦@Facebook Google+

Amazonのスーパーボウル広告が、Alexaを起動しない仕組み

アニメーションのサウスパークは、おなじみのウェイクワードを使ってEchoやGoogle Homeデバイスを起動させ、世間を騒がせたことで有名だ。しかしAmazon自身は、「音響指紋」という手法を使って、似たような状況でAlexaが反応しないようにすることができる。

スーパーボウルに向けての準備の中で、同社はなぜ有名人が沢山登場するこの広告が、Alexaを起動しないのかについての、(比較的)わかりやすい仕組みを説明した。その広告のために、同社は音響指紋を追加している。

Echoの容量には制限があるので、アシスタントがウェイクの前にクロスチェックができるように、追加の音響指紋はクラウド上にも保存されている。システムは大抵の場合うまく機能するが、例えば騒々しい環境ではうまく動作できない場合もある(まあスーパーボウルのパーティーは大概騒がしいものだが)。その場合は、判定のためにはより長いクリップが必要になる。

だがAmazon自身が広告を制作していない場合には、(サウスパークのファンが証言してくれるように)事態はもっと複雑になる。その場合には、システムは様々なユーザーからの音声をクロスチェックしているのだ。

「もし少なくとも2人以上の顧客から届いたリクエストの音響指紋が互いに一致した場合には、私たちはそれをメディアイベントとして扱います」と同社は説明する。「また、私たちは入力された音声を、そうしてリアルタイムに判定された音響指紋のキャッシュ(マッチしたと判定された音響指紋の平均値)とも比較します。このキャッシュのおかげで、Alexaは疑わしいウェイクワードを、次からは同時発生でなくても無視し続けることができるのです」。

[原文へ]
(翻訳:sako)

CES:LEDダウンライトにAlexaとJBLスピーカー内蔵――スマートホームのハブになる

一見するとなんでもない天井の照明だが、スマートホームを実現してくれる優れものだ。天井取付型のJuno AI ダウンライトはLEDランプの他にAmazon AlexaとJBLスピーカーを内蔵している。

Amazon Echoにテープルの一等地を占領させたりず、デバイスを視界の外に出してスマートホームを実現しようというアイディアだ。 このダウンライトは普段は目立たずに天井で待機しているが、呼びかけられると各種のデバイスの操作、音楽の再生などEchoができることをなんでもこなしてくれる。

Smart Home at CES 2019 - TechCrunch

Acuity Brands Lightingの副社長、住宅設備事業担当ジェネラル・マネージャーのJeff Spencerはプレスリリースで「いくつかのテクノロジーを統合することで、どんな家も多額の費用をかけず、簡単にスマートホームにできる。Juno AIは天井取付型なので目立たず、音声コマンドで各種コントロールが実行されるだけでなく内蔵のJBLスピーカーで優れたサウンド体験もできるようになった」と述べている。

こうしたデバイスはAmazonとGoogleがスマートアシスタントの機能とサードパーティーとの連携を強化するにつれて続々と登場するだろう。今年のCESを見るかぎり、AmazonもGoogleも単に自社のデバイスを売るよりもハードウェア・メーカーにテクノロジーをライセンスすることに力を入れているようだ。

CES 2019 coverage - TechCrunch

原文へ

滑川海彦@Facebook Google+

GoogleのCES 2019発表まとめ――すべてスマートアシスタントが関係

今朝(米国時間1/8)、、ラスベガスで開幕したCESでGoogleはコンシューマー向けプロダクトを多数発表した。いちいち詳しく調べているヒマがなくても心配無用だ。以下にまとめを用意した。

  • Googleは「音声対話型アシスタントが今月末までに10億台のデバイスに搭載される」と発表。
  • Googleは今日からiOSとAndroidの双方でGoogleマップでアシスタントが使えるアップデートを配信開始。Google自身でモバイルOSとの連携を最適化できるためAndoroid版の方がやや機能が豊富だ。しかしどちらのバージョンでも非常に便利な機能だ。
  • 近くアシスタンからSonosスピーカーを制御できると発表。これは1年前から予告されていたが、いよいよ実際にリリースされるのだろう。新しいSonos OneとSonos Beamの場合、マイクがビルトインされるようだが、最終的にはマイク内蔵でないSonosでもGoogle
    Home経由でも操作できるようになる。
  • 2019版Samsung TVはGoogleアシスタント互換となる。実現するのは今年後半。ユーザーがGoogle Homeまたはこの種のデバイスを持っていれば、 Samsung TVとペアリングし、電源のオン・オフ、音量調整、チャネル選択などの操作を音声でできるようになる。
  • 衛星放送のDishがアシスタントを導入する。 ng yDishが提供する音声対応リモコンからHopperセットトップボックスが操作できるようになる。
  • アシスタントからフライトのチェックインとホテルの予約ができるようになる。今日はUAのみだが、他のキャリヤにも順次対応する。コマンドは“Hey Google, check into my flight”だ。
  • Lenovoは 価格80ドルのアシスタント内蔵置き時計を開発。ベッドの枕元に好適。
  • アシスタントに新しく通訳モードが追加される。72カ国語でリアルタイム音声通訳が可能。
  • GoogleはAssistant Connectプログラムをスタート。デバイスなどのメーカーが既存のGoogle Homeデバイスとの連携し、その能力を簡単に利用できるようになる。 大きな処理能力を必要とする力技はGoogle Homeデバイスが受け持つ。 eインクの電子書籍リーダーが天気予報やカレンダーなどの情報を表示できるところがデモされた。デバイス自身はネットに接続していないが、Google Homeに接続させることで必要な情報を取得、表示することが可能になっていた。
  • GoogleはバッテリーのAnkerと提携した。Roav Boltシステムは自動車の12V電源(昔はシガーライターと呼ばれていたソケット)で利用でき、車内でのアシスタントの利用が容易になる。BluetoothまたはAUXで接続される。またGoogleはハイエンド・オーディオのJBLとも提携、スピーカーにノイズキャンセル機能が組み込まれ、エンジン音やロードノイズを低減する。またいちいちスマーフォンをアンロックせずに車内でアシスタントが利用できる。

Google Assistant

お気づきのように、今年のCESでGoogleはスマートアシスタントにもっとも力を入れている。発表のすべてになんらかの形でアシスタントが関わっていた。Googleはコンベンションセンターの会場の正面に2階建てのビルを建てたが、全館がアシスタントのショーケースだ。Googleがアシスタントを検索の次にくるエボリューションとみていることが明らかになった。

すくなくとも今後Googleの一般ユーザー向けサービス、プロダクトにはアシスタントが重要な役割を果たすことになるのは間違いない。

CES 2019 coverage - TechCrunch

原文へ

滑川海彦@Facebook Google+

CES 2019:Qualcomm、自動車用スマートコックピットを発表

CES 2019の開幕を控え、Qualcommはラスベガスでプレスカンファレンスを開催し、Snapdragon自動車コックピット・プラットフォームの第3世代を公開した。これは同社として最新のAIベースのスマート自動車コントロール・システムだ。伝統的なカーナビから未来的な音声コマンド操作まで幅広い機能がウルトラ・モダンなデザインのインターフェイスに統合されている。

このプラットフォームはパフォーマンス、プレミア、パラマウントという3つのレイヤーを持つ。これはそれぞれエントリーレベル、ミッドレベル、ハイエンドの層を意味するが、コアとなるテクノロジーは同一でSnapdragon 820Aプラットフォーム上に構築されている。820Aは同社のAIエンジン、信号プロセッサー、CPU、GPUなどハードウェアをすべて管理する。

Automotive at CES 2019 - TechCrunch

システムにはQualcommのHexagonプロセッサーが含まれる。これは自然言語処理や外界の対象の認識と分類、機械学習アルゴリズムをを動作させる。またQualcomm Visionカメラから得た画像データを処理するコンピューター・ビジョン・ハードウェアも搭載されている。

ただしこのコンピューター・ビジョンは自動運転のために用いられるわけではなく、「車線レベルの詳細なデータを得てクラウドソーシングでロードマップを作成するなど多様なユースケースに対応してドライバーの運転をサポートする」ものだという。つまり適切なコンテキストの下で社内外をモニターして安全性を高め、運転をサポートするドライビング・アシスタント・システムだ。【略】

自動車メーカーや関連企業は現在すでにこのプラットフォームおよびシステム開発ツールの利用が可能だ。

CES 2019 coverage - TechCrunch

原文へ

滑川海彦@Facebook Google+

Googleアシスタントでホーム・アローンも楽しい――大人になったマーコーレー・カルキンがCMに登場

クリスマスを控えて新しいGoogleアシスタントのCMが公開された。これは1990年にスマッシュヒットした映画、『ホーム・アローン』の設定を借りてアシスタントの多彩ぶりを紹介するもので、よくできている。

大人になったケビンを演じるのはなんとマコーレー・カルキン自身だ。家中のさまざまなデバイスをGoogleアシスタントで自由にコントロールできるところが披露される。健康上の問題を抱えていると報じられたこともあるカルキンだがたいへん好調そうだ。

公平のために言っておけば、AmazonあるいはAppleのスマートアシスタントでもだいたい同じことはできる。

〔日本版〕CM中のカルキンが使っている音声コマンドは、

Hey Google, what’s on my calendar today? 今日の予定を教えて。
Hey Google, add aftershave to my shopping list. ショッピングリストにアフターシェーブを追加して。
Hey Google, remind me to clean these sheets later. このシーツを洗濯することをリマインドして。
Hey Google, what do I owe you? いくら払えばいいのか教えて。
Hey Google, turn down the temperature 2 degrees.  室温を2度下げて。
Hey Google, begin Operation Kevin. ケビン作戦を実行して。

など。Operation Kevinはカスタム・コマンドらしく家中のデバイスが賑やかに作動する。ミニバンでやってきた泥棒は「見つからないうちに逃げよう」と退散する。アシスタントの機能と操作方法の一覧はこちら

原文へ

滑川海彦@Facebook Google+

国際宇宙ステーション(ISS)の新型ロボットは宇宙を浮遊するAlexaみたいでヤバイな

Cimonをご紹介しよう。3Dプリントで作ったこの浮遊するロボットは、AirbusがGerman Space Agency(ドイツ宇宙局)のために作ったものだ。彼は6月から国際宇宙ステーションのクルーだが、Gizmodoによれば、彼の活躍が一般公開されるのはこれが初めてだ。

実はこの、IBM Watsonで動いている浮遊する顔型ロボットは、宇宙における人間と機械の対話を研究する役目を担う、ものすごく高価なAmazon Echoを思わせる。下のビデオは主に、CimonとEuropean Space Agency(EU宇宙局, ESA)の宇宙飛行士Alexander Gerstとの対話を映している。

Gerstが彼の“好きな曲”をリクエストすると、CimonはKraftwerkの“Man Machine”をかける。すると宇宙飛行士は彼と‘握手’する。そしてロボットに、ビデオを撮るよう要求する。Cimonはそれにも成功するが、明らかに曲の中断にとまどっているようだ。二人の共同作業チームの、ちょっと荒っぽい出会いでした。

“彼の最初の出番には満足している。CimonのデベロッパーとAlexanderは二人とも、Cimonがまた仕事に戻ってくることを期待している”、とESAは言っている。“このHorizonsミッションの現段階では今後のセッションは予定されていないが、宇宙飛行士とロボットアシスタントとのすばらしいコラボレーションの始まりを告げたと言える。人工知能の、宇宙におけるあり方の好例だろう”。

次回は、ものごとがもっとスムーズにいくと良いね。絶対にやってはいけないのは、宇宙ロボットを怒らせることだぞ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

「ヘイ、Siri, オーケー Google」でアシスタントを起動できる――ただしプライバシーには十分注意

AppleはライバルがSiriのショートカットをこんなふうに利用するとは予想していなかったに違いない。しかしiPhoneに「ヘイSiri, オーケーGoogle」と呼びかけることでGoogleアシスタントを起動できる。

ただし設定には多少手間がかかる。まずiOS版のGoogleアシスタントをアップデートして最新版にする。次に Google Assistant起動のためのSiriショートカットを作成する。

名前のとおりSiriショートカットを利用すればカスタム・フレーズを録音して音声で特定のアプリないし機能を起動することができる。またSiriのショートカットでプレイリストを再生させたり、誰かにメッセージを送ったりすることも可能だ。もしいくつかの動作を連続して実行させたい場合はAppleが提供するショートカットを使う。

Googleアシスタントの起動はデフォールトでOK Googleに設定されているが、ユーザーは自分の好みで「ねーGoogle」などに変えることができる。フレーズを設定してSiriに呼びかけるとGoogleアシスタントが立ち上がる。

最初のトライでiPhoneまたはiPadのiOSにアプリを開く許可を与える必要があるかもしれない。Googleアシスタントが起動されると自動的にコマンドの聞き取りモードで待機する。アプリが立ち上がってから聞き取り可能になるまでわずかに時間がかかるので、その後で呼びかける。

ここまで手間をかけるユーザーがどのくらいいるかはともかく、「ヘイSiri、オーケーGoogle」でGoogleアシスタントが起動するのはやはり面白い。

ちなみにGoogle Assistantはプライバシーの点からは最悪アプリの一つだ。このアプリは例の 「ウエブとアプリのアクティビティ」を有効にするよう求めてくる。この機能はあらゆるプライベートな情報を収集することで悪名高い。有効になっている場合、Googleは検索履歴、Chromeのブラウズ履歴、位置、クレジットカードの履歴その他ありとあらゆる履歴を集めることができる。.

もし有効にしていない場合、目立つ青いバナーがアプリの下に表示され、「ウェブとアプリのアクティビティを有効にするとアシスタントでさらに多くの機能をアンロックできる」と勧めてくる。心理的トリックでユーザーに特定の行動を取らせることを企むダーク・パターンUIの例だ

クリックするとキュートなアニメが表示されるが気を取られてはいけない。内容が肝心だ。表示されるボタンはMoreしかない。Moreボタンをクリックするといつの間にか「オンにする」に変わっている。たいていのユーザーは左の「今はしない」ボタンに気づかないだろう。

これは古典的なトリックだ。相手が常にイェスと答えるような質問をいくつか続ける。相手はいつの間にかイェスと答えるのに慣れてしまい、最後の質問にもイェスと答えてしまう。これが「スタート」だの「さらに詳しく」だのと表示されたボタンの意味だ。なんども「さらに詳しく」ボタンをクリックしていると最後のボタンの内容に納得していなくてもついクリックしてしまうことになる。もし「無効にする」ボタンを選択すると、「本当によいですか」とうるさく尋ねてくる。

無名のゲーム・アプリからAmazon、Googleまでユーザーを誘導するデザインをひんぱんに使っているので、ことプライバシーに関してユーザーは自分が何をしているのか十分に意識する必要がある。

〔日本版〕日本版iOSでも上記手順で設定できる。手持ちのiPadの場合、電源が接続されている場合は「ヘイSiri」と呼びかけるだけで起動される。接続されていない場合はホームボタンを押して「へいSiri」と呼びかける。Siriが起動した後、「オーケーGoogle」と呼びかけるとGoogleアシスタントが起動する。利用法はGoogle Home/Miniと同様だが、常に身近に置かれるモバイル・デバイスの場合は上記記事のようにプライバシーに注意する必要がある。

原文へ

滑川海彦@Facebook Google+

「Pandora Premium」がAlexaにもやってきた

Pandora PremiumがEchoデバイスでも使えるようになった。今日(米国時間11/19)午前、ストリーミング音楽サービスのAlexaは、同社で最高レベルの有料サービスをAlexa対応デバイス向けに公開した。Amazon Echo、Echo Dot、Echo Show、およびPandoraに対応しているサードパーティー製Alexaデバイスでも利用できる。

Pandoraの無料広告付きサービスは以前からEchoデバイスで利用できるが、Premiumサービスは最近、Google HomeなどのGoogle Assistant対応デバイスのみに対応した。Echoでは今日までPermuimを利用できなかった。

機能を有効にすると、Pandora Premiumユーザーはお気に入りの曲やアルバムやプレイリストをAlexaのボイスコマンドを使って聴いたり、Pandoraが集めた特集プレイリストを再生することができる。

ただし、Pandoraが最近Premiumユーザー向けに公開したパーソナライズド・サウンドトラックという新機能は公開当初は利用できない。しかし、「近日公開」すると同社は言っている。

PandoraのAutoPlay機能にも対応していて、曲やアルバムやプレイリストが終わった後も音楽再生を続ける。

PandoraをAlexaデバイスで使うためには、”Alexa, play Pandora” あるいは “Alexa” に続けて曲やアルバムやジャンルの名前を言えばよい。

同サービスをデフォルトに設定することもできる——無料版のPandoraでも可能。

[原文へ]

(翻訳:Nob Takahashi / facebook

だめ!

だめ。だめ。だめ。だめ。Alexaをシャワールームに入れないで。だめ。

〔訳注: これは、シャワールームで使えるAlexaデバイスを某社が発売する(Kickstarter資金募集中)、という記事。そのジョーク・スタイル。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Alexaをささやき声で使えるようになった、夜のムードを壊したくない人に向いている

先月シアトルで行われたAmazonのAlexaイベントで、EchoなどAlexaデバイスの‘ささやきモード’が紹介された。そのとき見たささやきのデモでは、“子守唄をかけて”とささやくと、AlexaがEchoなど音声アシスタントデバイスにそれを命じる。そして今日(米国時間10/18)、そのWhisper Modeが正式に使えるようになった。

ただし今その機能が使えるのは、アメリカのユーザーのみ、そしてアメリカ英語のみだ。

この機能は、もっぱら静かにしていたい夜の時間とか、床(とこ)についてから寝るまでの時間には便利だ。また、寝ている子どもを起こさずにAlexaに命令したいときも。また一般的に、静かな声で対話をしたい人は、一日中このモードを使うかもしれない。

Whisper Modeは、Alexaにもっと状況(コンテキスト)理解力を持たせようとするAmazonの努力の一環だ。たとえば“play Hunger Games”(Hunger Gamesをかけて)とコマンドしたら、それが画面のあるデバイスだったら映画を、そしてEchoスピーカーならオーディオブックを再生してほしいのだ。

また、Amazonの9月のイベントでは、Echoデバイスにスマートホーム機能を持たせる“Alexa Guard.”が紹介された。これは、音や煙や一酸化炭素を検出し、たとえばガラスが割れる音にも反応する。

Alexa GuardもWhisper Modeも共に、“long short-term memory,”(長・短期記憶)と呼ばれる機械学習ネットワークを利用する、とAlexaの研究開発トップRohit Prasadが説明してくれた。〔参考記事(‘LSTM’で検索を)〕

入ってくるオーディオシグナルは、小さな断片に分割され、long short-term memoryのネットワークがそれらを順に処理していく。同社は9月に、そう説明した。そのシステムは、それまでの断片に関する判断も参考にしながら、その新しい断片が囁(ささや)きであるかアラームであるかを判断する。このようにしてそれは、時間上に並ぶオーディオシグナルの各部分間の構造的(〜意味的)な関係を学習できる、とAmazonは言っている。

同社は先月、Alexaの音声対話が“context carryover”(コンテキストの繰越)と呼ばれるものによって、より自然になった、とも言った。たとえば、“今日は雨が降る?”と尋ねたあとに、“明日はどう?”と問うと、「雨降りについての質問」というコンテキストが次へ繰り越されて、正しく明日の雨について答えてくれる。

そして、最近同社が特許を取った技術を使うと、Alexaがユーザーの健康状態を判断して薬を売ろうとする。たとえば咳止めドロップとか。このシステムは、喜び、怒り、悲しみなどの感情も検出する、とAmazonのレポートは言っている。

あなたのAlexaデバイスにWhisper Modeが来ているか知るためには、それを有効にしてみること。

Whisperは、アカウントの設定で有効/無効にするから、Alexa AccountからメニューをたどるとWhispered Responsesに行き着く。あるいは音声で“Alexa, turn on whisper mode”(Alexa、ささやきモードを有効にして)、と言ってもよい。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleのスマートディスプレイとスマートフォンのAssistantが多機能化

今週の初めに行われた例年のハードウェアイベントでGoogleは、同社の新しいスマートフォンPixel 3とスマートディスプレイHome Hubに搭載されるGoogle Assistantの新しい機能をいくつか発表した。でもしかし、Assistantに関してはそれがすべてではなかった。今日(米国時間10/11)はさらに新しい機能がいくつか発表され、また、Pixel 3用として発表された機能の、どれとどれがほかのスマートフォンにも載るか、が説明された。

お家(うち)にすでにLenovo Smart DisplayやJBL Link Viewがある方にとって嬉しいのは、Live Albumsと、ドアベルNest Helloのサポート、そしてすべてのスマートホームデバイスをコントロールするHome Viewが近く提供されることだ。またこのスマートディスプレイで最大の不満だったスピーカーグループのサポートの欠如も、解消する。LenovoとJBL の製品も、これでやっと、まともになるだろう。

また、すでに発表されていた、かかってきた電話を選り分ける…迷惑なセールスの電話か?…機能Call Screenと、レストランに予約の電話をかけてくれるDuplexが、年内にPixelに導入される。

その日のビジュアルなスナップショット機能も、AndroidスマートフォンのAssistantにやってくる。これは、重要なリマインダーや、最近のメモ、イベントの通知など、今日忘れてはいけないことをまとめて見せてくれる。Assistantを起動したら画面をスワイプするだけで、それが表示される。

Assistantをロック画面から使えるようになるので、スマートフォンをアンロックしなくてもその日のカレンダーを見たりできる。そのほかのGoogle Homeデバイスと同様、声でユーザーを識別するのだ。

また“Filters”機能では子どもたちに使わせたくないアプリをフィルターし、“downtime”機能でデバイスを使えない時間帯を設定できる。そしてもうすぐ、PixelのDigital Wellbeing機能をAssistantから…つまり音声で…使えるようになる (“Hey Google, 10時には電源切ってね”)。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google Home Hub vs. Amazon Echo Show 2 vs. Facebook Portal、それぞれの特長

カウンタートップを争う戦いが始まった。Google、Amazon、Facebookの3社がみな今月、スマートディスプレイの新製品を発表した。いずれも、IoT化される未来の家庭の中心に座ることをねらい、家族のコミュニケーションを担おうとしている。

149ドルのGoogle Home Hubは、安くてプライバシーが保てるスマートホームコントローラーだ。

229ドルのAmazon Echo Show 2は、Alexaを視覚化する。

そして199ドルのFacebook Portalと349ドルのPortal+は、Smart Lensによる自動的なズームイン/アウトでチャットの話者を画面中央に捉える。

消費者の最大の検討項目は、プライバシーの安全、ビデオチャット機能、今後のスマートホーム構想との相性、そしてお値段だ。

  • プライバシーが気になる人にとっては、GoogleのHome Hubが唯一、カメラがなくて149ドルとめちゃ安い。
  • プライバシーが気にならない人なら、FacebookのPortal+が画面がきれいでビデオチャットもできる。
  • チャット大好き人間なら、Amazon Echo Show 2がAlexaによるメッセージングとビデオチャットを提供している。電話もかけられるし、Skypeもできる。

ブランドを選り好みしないなら、Lenovo Smart Displayはどうだろう。そのスタイリッシュなハードウェアは、10インチ1080pバージョンが249ドル、8インチ720pバージョンが199ドルだ。

そしてオーディオファン向けには、199ドルのJBL Link Viewがある。

これら二つはGoogleの技術を利用し、本家Googleの製品よりも早く発売された。でも私見では、今後の製品改良のピッチは、本家の方が積極的ではないだろうか。それはAmazonやFacebookの、今後のサードパーティ製品についても言える。

下の表は、Google、Amazon、Facebookの計4製品(Facebookが2製品)の特長を詳細に比較している:

more Google Event 2018 coverage

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Pixel 3、これが注目の新機能だ

Googleは火曜日(米国時間10/9)の大ハードウェアイベントでGoogle Home HubやGoogle Pixel Slateなどいくつもの新製品を発表した。しかし新しいスマートフォン、Pixel 3が本物のスターだった。

Pixel 3には2つのサイズがあり、価格は799ドルから。カラーは3種類で12.2メガピクセルの背面カメラとデュアル前面カメラを搭載している。中は新しいアプリと機能でいっぱいだ。今日から予約受付を開始して発売は10月18日から。

Pixel 3の新機能、改訂機能の目玉をいくつか紹介する。

コールスクリーン

コールスクリーンは、かかってきた電話をあなたの代わってGoogle Assistantが取ってくれる機能だ。ユーザーはコールスクリーンボタンをタップするだけで、あとは端末が電話に答えて誰が何の用事でかけてきたかを聞いてくれる。

会話の内容はテキスト化されてリアルタイムで表示されるので、ユーザーは電話に出るかテキストで返信するかを選ぶことができる。

コールスクリーンはPixel 3では発売と同時に、他のPixel端末では11月から利用できる。

Google call screen

セキュリティー

Pixel 3には、GoogleがTitan Mと呼んでいる新しいセキュリティーチップが搭載されている。このカスタムチップは、端末のパスワードとオペレーティングシステムの安全性を高めるために使用される。

スピーカー

前面に向けられたスピーカーは従来のPixel機よりも40%大きく豊かな音になった。

YouTube Music

Pixel 3には、YouTube Musicのストリーミングアプリが搭載され、6ヶ月間の無料購読がついてくる。

Googleレンズ

Googleレンズは、AI機能内蔵カメラだ。画像をキャプチャーし、AIアルゴリズムが認識する。「スタイル検索」は画像に写った商品を識別して、ネットでその商品を見つけるのに役立つ。

Googleレンズは、ランドマークや植物、動物なども識別し、イベントをカレンダーに追加する。カメラをテイクアウトメニューに向ければ、電話番号をハイライトする。

Google Lens

グループセルフィーカメラ

Pixel 3にはデュアル前面カメラがあり、ワイドな自撮り撮影ができる。
電源ボタンをダブルタップしてカメラを立ち上げ、手首を2回フリックすれば自撮りモードになる。あとは、ズームアウトしてグループセルフィーを撮るだけだ。

トップショット

この撮影機能は、HDRで複数の画像を撮影し、最高の1枚をリコメンドする。
たとえば、子供がバースデーケーキのローソクの火を吹き消すところを取ろうとしたことがあるだろう。これまでなら、写し損ないは写し損ないだった。トップショットは、シャッターを切る前後の瞬間をキャプチャーして自動的に最高の1枚を推薦する。

もしほかに気に入ったものがあれば、それも選ぶことができる。

Google Pixel 3 Top Shot

プレイグラウンド

プレイグラウンドは、写真やビデオにリアクション・キャラクター(犬や踊るステレオなど)やキャプション、動くスタンプなどを追加できる機能だ。文字同志あるいはユーザーと反応し合うPlaymojiを使って写真に「命を吹き込む」こともできる。

オプションにはMarvel Cinematic UniverseのIron Manなどのキャラクターもある。Googleはドナルド・グローヴァーとのコラボレーションでプレイグラウンドにチャイルディッシュ・ガンビーノも連れてくる計画だ。

Google Playground Childish Gambino

フォトブースモード

そう、これもカメラ機能だ。この機能は被写体が面白い顔をしたり笑ったりすると自動的にシャッターを切る。。

more Google Event 2018 coverage

[原文へ]

(翻訳:Nob Takahashi / facebook

リニューアルされたGoogleアシスタントからUber、Lyftが音声で呼べる

Googleアシスタントを使ったことがあれば、音声でUberやLyftのタクシーが呼べればいいのに、と思ったことがあるだろう。今日(米国時間10/4)からそれが可能になる。ユーザーはGoogleのスマートアシスタントから音声でUber、Lyft、Ola、Grab、GO-JEKなどの配車サービスを利用することができる。

新機能が使えるのはGoogleアシスタントが利用できるスマートフォンとスマートスピーカーだ。ユーザーは特定のサービスを指定することもできるが、“Hey Google, book a car to SFX”(ねえ、Google、サンフランシスコ国際空港まで車を1台予約」などと単に行き先を告げるだけでもよい。この場合Googleアシスタントはその地域をカバーしている配車サービスとそれぞれの料金を表示してくれる。

実際に配車を予約することになると、アシスタントはそれぞれの会社のモバイル・アプリを起動する。

アシスタントが自分で予約まで実行するわけではないとはいえ、その経路で使えるサービスと料金を即座に教えてくれるのは便利な機能だ。とくに旅行に出発する時間が迫っていて荷造りに追われている中でタクシーを呼びたいようなときにはありがたい。

Googleのアシスタント事業のディレクター、Lilian Rinconは私の取材に対して、「ほぼ同様の機能はすでにGoogleマップにあるが、アシスタントから使えればユーザーにとってさらに便利になる」として次のように答えた。

私たちはGoogleアシスタントはGoogleの最良の部分を代表するショーケースと考えている。アシスタントのチームはライドシェアリング利用機能をサポートするためにGoogleマップのチームと密接に協力してきた。

昨日Googleはアシスタントのビジュアルをリニューアルした。新機能はこのアップデートの一部ではないようだが、ライドシェアリング各社の料金を教えてくれるだけでなく、経路のマップが表示されるようになったのは、Googleがアシスタントをサービスの中心に置き、ビジュアル化をいっそう進める努力をしていることの一環だろう。

新機能は順次、世界にリリースされているところだ。当面は英語版だが、今後サポートする言語は拡大される。

画像:TechCrunch

原文へ

滑川海彦@Facebook Google+