AndroidのGoogleアシスタントにページ全体の読み上げ、翻訳機能が加わる

数週間前にCESでGoogleは、Androidでウェブページ全体を読み上げられるようにする機能をデモしてみせた。指定した記事を全部を読み上げてくれるので読みたいが手がふさがっていてスクロールできないときやスマホの画面をずっと見ていたくないとき、運転中などに理想的だ。Androidデバイスに 「OK, Google, read this page」(このページを読んで)と命ずると、Googleアシスタントのニューラルネットワークが起動し、即座に読み上げてくれる。

ページまるごと読み上げ機能は米国時間3月4日、Androidの全ユーザーに公開された。

注目点

  • 読み上げているテキストが強調表示され、ページが自動スクロールされる。記事のどこを読み上げているのかがひと目で分かる。以前Googleはこういう機能を追加する可能性があると言っていたが一般公開の時期などは不明だった。さいわい準備が整ったようだ。
  • 読み上げ速度を調整できる。ポッドキャストを3倍速で聴きたいといったせっかちな人間には便利な機能だろう。
  • 翻訳機能もある。Googleアシスタントのデフォルト以外の言語を読み上げさせようとする場合、ユーザーが選択した40以上の言語に翻訳が可能。
  • ページの管理者はGoogleアシスタントが読み上げないよう設定できる。なんらかの理由でGoogleアシスタントに音声でページを読み上げられたくない場合(個人情報などが含まれていて、読み上げ機能が誤って起動されると困るような場合)、HTMLメタタグで無効化できる。これはページ単位で設定しておく必要がある。

Googleによれば近年公開されたAndroid(Android 5、Lollipop以降)が作動するほとんどのスマートフォンで利用可能だという。

【Japan編集部追記】速度調整は読み上げ画面の下部をタップする。0.5倍から3倍まで調整できる。現在の訳者の環境(Android 10)では「OK, Google, read this page」でTechCrunch Japanの記事を日本語で読み上げたが、日本語で「OK Google、このページを読んで」では読み上げは実行されなかった。

原文へ

(翻訳:滑川海彦@Facebook

Googleアシスタントが忘れ物防止タグ「Tile」と統合、なくした物を声で見つけてくれる

Googleアシスタントが米国時間2月3日から、TileのBluetoothトラッカーをサポートし、鍵や財布やリモコンなど、どこかに置き忘れた物を見つけてくれる。今回の統合でGoogleアシスタントのユーザーは、Nestデバイスに「Hey Google, where is my purse?」(ねえグーグル、財布の場所を教えて)などと質問できる。音を鳴らせたかったら、「Hey Google, make my backpack ring」(ねえグーグル、バックパックを鳴らして)などと言えばいい。

関連記事
Tile|Googleアシスタント
TileとGoogleアシスタントの統合で忘れ物を探せるようになる

コマンドは「Where is」や「Make ring」のほかに、「Hey Google, find my〜」や「Hey Google, ring my〜」でもいい。

アイテムの場所を尋ねることもできる。それが家の中にあれば、アシスタントはTileのBluetooth機能を使って正しい場所を返す。例えば、「Your keys were last seen today at 9 PM near the Kitchen speaker」(鍵は午後9時にキッチンのスピーカーのそばにあった)のように。Bluetoothの圏外なら、Tileの位置サービスを使ってその品物が最後にあった場所を返す。

Tileは専用アプリのユーザーの大きなネットワークをクラウドファインディングのプラットホームとして利用してアイテムを見つける。Google(グーグル)によると、現在、Tileデバイスは全世界で2200万あまり売れていて、230か国で1日に500万以上のアイテムを見つけている。

グーグルとTileがパートナーになったのは去年9月で、そのときこの機能は年内(2019年)にローンチすると発表された。そのパートナーシップは、Tileのビジネスにとって重要な時期に締結された。Apple(アップル)はTileと競合するAirTagsという機能を、iOSに統合された形でローンチすると言われている。著名なアップルアナリストMing-Chi Kuo(ミンーチ・クオ)氏の最近の予測によると、その機能は2020年の前半に導入されるそうだ。ただしそれはTileと違って帯域がとても大きいタグで、Bluetooth LEやWi-Fiよりも高い精度が約束されている。

アップルのそのタグの証拠は、iOS 13のコードにすでに見つかっている。アップルがTileの事業に参入する計画は、同社の反競争的行為をめぐる最近の議会のヒアリングでも、そんな行為の1つの例として取り上げられた。そのヒアリングでは、Tileの法務部長であるKirsten Daru(クリステン・ダル)氏が「アップルとの競合は極めてて厳しい」とコメントした。

「自分のチームがどれだけ最強でも、相手は競技場とボールとスタジアムと、そしてリーグ全体のオーナーだ。だからゲームのルールをいつでも好きなように変えられる」と同氏は述べた。

だからTileがGoogleとパートナーにしたのは、自分の事業の拡張ではなく、むしろ自衛行為だ。この新しい機能を使うには、TileとGoogle Homeアプリとの同期をセットアップする必要がある。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

CES 2020のGoogle発表は昨年同様、スマートアシスタント中心

CESが開幕した。Googleのスマートアシスタントもニュースを伝えるのにおおいそがしだ。そのGoogleは、2020年もやはり目立っていた。2019年のように遊園地をまるごと作るほどの派手な登場ではなかったものの、ラスベガス・コンベンション・センターの正面に巨大な2階建てのブースを設けており、ご覧のとおりすべり台もついている。

2019年と同様に、2020年もGoogleがCESで力を入れているのはAI利用のスマート音声デバイス、つまりGoogleアシスタントまわりだった。

それでは新しいプロダクトをみていこう。

  • ウェブページ読み上げ: 重要な記事を読まねばならないが、一日中スマートフォンとにらめっこしているヒマはないということがよくある。Androidデバイスのユーザーは「OK Google、このページを読み上げて」と命じることができるようになる。アシスタントはたちどころにニューラルネットワークで自然な音声を生成し、人間のような自然さで記事を読み上げてくれる。ページに無数に散らばっている「なんとかで共有」や「トップに戻る」といったボタンにわずらわされることはない。Googleによれば、やがてアシスタントは読んでいる箇所をハイライトし、自動的に表示のスクロールもするようになるという。ただしこの機能が実装されるのは読み上げ機能より後になるかもしれない。
        • 動作の予約: 1回限りの操作を予約できるようになる。「OK Google、午後6時に明かりを点けて」などと命じることができるとのことだが、、今までこれができなったのが驚きという気もする。
        • ふせん: ポストイットに何かメモして、手帳や冷蔵庫などの頻繁に目にする場所に貼ることは誰もやっているだろう。Googleはこれをスマートディスプレイでもできるようにする。「OK Google、 『荷造りを忘れるな』とメモを貼って」などと命じると、ロックスクリーンにそのメモがずっと表示される。

        • 短縮ダイヤル: こちらはベビーシッター向けにポストイットに重要な電話番号を書いて冷蔵庫に貼っておく、といった作業の代用を目指している。 スマートディスプレイに電話番号を登録し、ロックスクリーンに表示させておくことができる。誰でも番号をタップし、あるいは音声コマンドでその番号に電話ができる。
        • 通訳モード: 2019年のCESで発表された通訳モードだが、いよいよスマートディスプレイでも利用できるようになる。スマートディスプレイの前に2人の人物がそれぞれ異なった言語で話すとスマートアシスタントが音声で通訳してくれる。Googleは多くの企業がこの機能を利用するようになると期待しており、事実、HSBC銀行やその他の機関が利用を始めている。ラスベガス、サンフランシスコ、ロサンゼルス、日本、カタールにあるいくつかのホテルが利用を始めたということだ。我々もAmerican Airlinesの例を紹介している。こちらは英・西・中・日・独・韓・仏語を話すNestをラウンジで稼働させるためトレーニング中だ。
        • おっと、それからプライバシーだが、 Googleアシスタントは「OK Google」、「Hey Google」などのセンテンスで始まるコマンド類を除いて言われたことを一切記憶しないことになっているが、テレビから聞こえてくる会話などがアシスタントの録音機能を起動してしまうケースがたまにある。なにか会話していて突然アシスタントに「すみません、お役に立てそうもありません」と言われて驚いたことがある読者もいるだろう。これは会話中の何かがアシスタントの注意を引いたものだ。何か録音されていると感じたら「OK Google、今言ったことは忘れて」などと命じればよい(音声コマンドでアクティビティを削除する方法はこちら)。
        • 以上、いずれも便利そうな機能だが、Googleはロールアウトの正確なタイミングを発表しておらず、「近く」使えるようになるという。

          原文へ

          滑川海彦@Facebook

Googleがスピーカーやスクリーン間で動画や音楽の移動を容易にする機能を発表

Google(グーグル)は米国時間10月8日、Google アシスタントとスマートホームデバイス間で、いろいろな部屋を歩き回りながら音楽や動画を簡単に持ち運べる、細かいが気のきいた機能を発表した。

Stream transferでは、Google アシスタントに音楽を別のスピーカーに移動させるように指示したり、 スピーカーグループが適切に設定されていれば、そのスピーカーとテレビへと移動させられる。使い方は「ヘイグーグル、寝室のスピーカーに音楽を移動させてくれ」というだけだ。またボイスコマンドのほかにも、Google HomeのアプリやNest Home Hubのタッチスクリーンも利用できる。

これは、Chromecast対応のスピーカーやディスプレイで再生できる、あらゆるメディアで動作する。

Googleがこのような機能を導入するのに、これほど時間がかかったのは驚きだ。しかし、同社は家庭に十分なデバイスが存在するのを待つ必要があったのかもしれない。「たくさんのユーザーが複数のテレビ、スマートスピーカー、およびスマートディスプレイを所有しているので、部屋から部屋へ移動する際にメディアを簡単にコントロールできるようにしたいと考えていた」と、Googleは発表の中で伝えている。

[原文へ]

(翻訳:塚本直樹 Twitter

GoogleアシスタントでXbox Oneをコントロールできる、次はWindows 10か

Microsoft(マイクロソフト)が同社のデジタルアシスタントCortana(コルタナ)に執着していたのは、そんなに昔の話ではない。でもそれは勝てる賭けではなかった。しかし、いわゆる新しいマイクロソフトの真骨頂は、自分が勝てなければすでにユーザーが実際に使ってるものを何でも統合するところにある。今日同社は、Xbox OneをGoogleアシスタントからコントロールできると発表した。まだそれはベータだが、今秋中には正式のローンチになるようだ。

ただしそれは、Xbox OneからGoogleアシスタントを使えるという話ではなくて、GoogleアシスタントからXboxのゲームを立ち上げたり、ポーズしたり、ボリュームを上げたりできるのだ。(今は英語のみ。「Hey Google, turn off Xbox」とか。

使えるコマンドのリストが、このページを参照してほしい。

a9nfhgsxpxo31

デバイスはiOSやAndroidのスマートフォンなど、アシスタント対応デバイスなら何でもいい。最初はAndroidやiOSのGoogle HomeアプリでXboxをセットアップする。これでXbox Oneがアシスタントのエコシステムの一員になる。つまり、アシスタントからコントロールできる。

なお、消費者市場でCortanaをギブアップしたマイクロソフトはAmazon(アマゾン)とも協働してAlexaをWindowsから使えるようにした。つまりマイクロソフトにとって重要なのはユーザーが同社のデバイスやWindows 10を使っていることであり、それを何でコントロールしているかはどうでもいい。だからXboxに次いでPCにもGoogleアシスタントが来るのは時間の問題だ。Windows 10がGoogleアシスタントを完全にサポートするかもしれない。

関連記事: AmazonがAlexaイベントで発表したものたち

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

手持ちのステレオをSonosとAirPlay 2対応にするSonos Port

Sonos(ソノス)は、ユーザーの手持ちのステレオやAV機器に接続して使える新製品を発表した。アップルのAirPlay 2の機能を、アンプを通して既存のスピーカーシステムで利用できる。それが399ドル(約4万2700円)のSonos Portだ。これまでにもSonosシリーズにあったSonos Connectと同様の機能だが、仕様を一新し、かなり小さなボディで実現した。

Sonos Portの本体は、つや消し黒の小さな箱だ。出力ポートとしては、アナログRCAと同軸デジタルを備える。それらを家庭にあるステレオやホームシアターに接続して、音を鳴らすことができる。また音声入力ポートとしては、アナログRCAを用意する。これにより、レコードプレーヤー、プロジェクター、あるいは一般的なAVデバイスから音声を入力できる。たとえば、デジタル入力しかないSonos Beamのような製品には接続しにくいものにも対応できる。

Sonos Portは、デジタルからアナログに変換するコンバーター(DAC)を内蔵している。インターネット経由で流れてくるメディアを、既存のシステムに接続したいと考えている人で、特に音質にこだわるマニアックな人にも魅力的な製品と言える。そして、Sonos Portをアンプに接続すれば、どんなスピーカーでも自動的にAirPlay 2対応となる。さらに、AlexaやGoogle Assistantに対応したこれまでのSonos製品と組み合わせて使うこともできる。つまり、マイク内蔵のSonosやAlexaを持っていれば、ボイスコマンドによってSonos Portの再生をコントロールできるのだ。

さらにSonos Portは、10/100Mbps対応の2つのイーサネットポートも装備している。ルーターに直接接続することで、より信頼性の高い通信が確保できる。12Vの電源トリガー出力も備えているので、スタンバイモードから復帰した際などに、接続したステレオやレシーバーの電源を自動的にオンにすることも可能だ。

Sonos Portの仕様の多くは、現行の同Connectと類似している。それが、よりコンパクトな、つや消し黒のパッケージに収められたというもの。その結果、既存のシステムに、目立つことなく組み込むことが可能となった。基本的には接続性を向上させるためのアクセサリなので、定価は少し高く感じられるかもしれない。しかしSonos Connectを導入すれば、基本的にDACというものが不要となる。DACは、単体では、かなり値が張る製品だ。もちろん、Sonosならではの接続性とストリーミング機能も実現できる。

Sonos Portの予約注文は、米国では9月5日から開始され、9月12日から出荷される。世界的な展開は、来年初めからとなりそうだ。

原文へ

(翻訳:Fumihiko Shibata)

SonosのBluetooth対応バッテリー駆動スピーカーが公式発表前にリーク

Sonos(ソノス)は今月末に、何らかの新製品を発表するイベントを開催することになっている。しかし、そのイベントのハイライトだと思われるものが、リークによって暴露されてしまった。Bluetoothスピーカーの新製品だ。ポータブルとしても使えるよう、バッテリーも内蔵している。

そのスピーカーについて最初にリークされたのは、今月初めだった。デイブ・ザッツ(Dave Zatz)氏が、いかにも公式っぽく見える写真を公開したのに加え、The Vergeは、BluetoothとWi-Fiモードを切り替えるためのトグルスイッチ、充電用のUSB-Cポートなどの写真や、だいたいの寸法を示す数字をレポートした。それによると、現在のSonos Oneよりも、若干大きめとなるようだ。

画像ソース:WinFuture

そして、WinFutureからの新たなリークにより、公式っぽく見える別の写真も公開されている。充電用のスタンドともなるドックと思われるものに接続した写真も含まれる。そのサイトは、新しいスピーカーはSonos Moveという名前になるだろうとも表明している。あちこち持ち運んで使っても、すべての機能を維持できるポータブル型であることを考えると、十分うなずける話だ。

画像ソース:WinFuture

これまでのリークによって明らかになったことをまとめると、以下のようになる。

  • Wi-Fi(他のSonosスピーカーと同様、Sonosネットワークで動作する)またはBluetooth(デバイスとの直接ペアリングが可能)経由でストリーミング再生が可能。Bluetooth LEによってセットアップも容易
  • 電源用のUSB-Cポートと通信用のイーサネットポートを備える
  • Sonos Oneにも似たデザインだが、角はより丸まっていて、幅は広く、背も高い(内蔵バッテリーの容積確保のためか)
  • 背面にハンドルを内蔵して持ち運びがしやすい
  • ドッキングして充電するため底部に電極がある(USB-C接続でも充電可)
  • AlexaとGoogle Assistantをサポートしマイクも内蔵(Bluetoothモードではどちらも利用不可)
  • AirPlay 2もサポート
  • 内蔵マイクを利用してユーザーの居場所に合わせたスピーカー音声の自動調整を実現するAuto Trueplay機能をサポート

公式には、発売時期や価格などは、まだ何も発表されていない。しかし、8月末に公式発表があれば、この秋ごろには市場に登場することが期待できそうだ。

画像クレジット:WinFuture

原文へ

(翻訳:Fumihiko Shibata)

Google アシスタントで家族へのリマインダーが設定可能に

月曜日の夜にゴミを出すようになど、家族にメッセージ(小言)を伝えなければならないこともあるだろう。そして現在、より攻撃的でない方法として、本人ではなくGoogle アシスタントを通じてリマインダーを送ることが可能になった。

必要なのは「ねえ、グーグル、アレックスに午後8時にゴミを出すようにいってくれ」というだけだ。家族(またはGoogleのファミリーグループに追加したルームメイト)はスマートフォンやスマートディスプレイから通知を受けることになる。

「Google アシスタントの通知機能を使えば、家族や同居人との家や外出先での作業や整理が簡単になります」とGoogleは説明している。「つまり、パートナーやルームメイトに、食料品を受け取ったり、定期的な支払いをしてもらったり、犬を散歩させたり、励ましのメッセージ(Google、マリーに明日の試験がうまくいくように伝えてくれ)が送れるのだ」。

Maryは直接この励ましを伝えてもらった方がうれしいのは間違いないが、ときにはGoogle アシスタントを使わなければならないこともあるだろう。

 

 

技術的には、リマインダーを送信する相手は連絡先リストとGoogle Familyグループに登録されている必要がある。また、スマートディスプレイやスマートスピーカーで利用するには、Voice Matchを設定する必要がある。13歳未満の子供なら「Family Link」 で親がアカウントを設定できる。

この新機能は、米国、英国、オーストラリアにて英語言語かつスマートフォン、スマートスピーカー、スマートディスプレイで利用できるようになる。また他のGoogleのリマインダーと同様、メッセージが表示される時間と場所を設定できる。

なお、ありがたいことに 「Assistant Settings」のメニューに他人からのリマインダーをブロックする機能も新たに追加されている。

 

[原文へ]

(翻訳:塚本直樹 Twitter

Googleアシスタントがニューヨーク地下鉄の到着時間通知に対応

ニューヨーク市のメトロ交通局は来週、Google Payによるコンタクトレス支払いへの対応を追加する。それにあたり、Google(グーグル)はAndroidに交通関連の機能を追加する。

米国時間5月23日より、ニューヨーク市の通勤客はGoogle アシスタントにて次の電車の到着予測時間を知ることができる。「へイグーグル、次の4系統の電車はいつくる?」あるいは「へイグーグル、次の電車はいつくる?」と呼びかければ、それぞれの方向の電車の予測到着時間や、最寄り駅への道案内が表示される。

ニューヨーク市に住んでいれば、4/5/6系統にてコンタクトレス支払いが設置されているのを見たことがある人もいるだろう。来週より、マンハッタンのGrand CentralとブルックリンのAvenue-Barclays Centerの間にて、スマートフォンによる決済の実証実験が行われる。

現在のところ、スマートフォンによる決済は1回の乗車(1日/1週間/月間カードではなく)に限られており、MTAは詳細を詰めている。Google Payに対応する駅は、数週間のうちに地図にくわえられる予定だ。Androidユーザーは、アプリ経由でクレジットカードやデビットカードを追加できる。また、この機能はメルボルンやロンドンにも展開される予定だ。

[原文へ]

(翻訳:塚本直樹 Twitter

BoseもGoogleアシスタント対応でAlexaと2本立て

Sonosが2つのスピーカーに、前から言っていたGoogleアシスタントの統合をやってから1週間後、今度はBoseが同じことをした。同社は人気者のスマートホームAIすなわちGoogleアシスタントを3機種、Home Speaker 500とSoundbar 500および700に載せる。小型のHome Speaker 300はGA内蔵で市販される。

Sonosと同様に、音楽の再生やChromecast TVのコントロール、スマート照明などコネクテッドホームの各種機能のコントロールなど、GAの標準的なコマンドを使える。これらへのアクセスはすべて、内蔵のスピーカー配列から行われる。さらにSonosと同様に、Amazon Alexaとの互換性もある。

サードパーティのメーカーとしては、片方だけの味方をしないほうが得だ。そこでGoogleとAmazonにとっては、そのスマートホームエコシステムがどちらも、二つの尊敬されているブランドに載ることになる。これまたSonosと同じく、セットアップは同社の音楽アプリで行われるから、GoogleのHomeのスピーカーのような細かいセットアップオプションは揃っていない。

アップグレードは米国時間5月22日から始まる。ニュースやポッドキャストなど、そのほかの機能は夏にお目見えする。上述のHome Speaker 300も発売は夏だ。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Google アシスタント対応ヘッドホンの開発キット、GoogleとQualcommがローンチ

Qualcomm(クアルコム)は米国時間5月9日、Google(グーグル)と提携し、Google アシスタント対応Bluetoothヘッドフォンを開発するためのリファレンスデザインと開発キットを作成すると発表した。

従来、このようなヘッドフォンを作るのは簡単ではなく、多くのハードウェアやソフトウェアスタックを構成する必要があった。大手メーカーならいざしらず、そうでないヘッドフォンメーカーが自分のデバイスにボイスアシスタント機能を追加することを妨げていたのだ。

GoogleのTomer Amarilio氏はリリースにて「ヘッドフォンやイヤホンのようなワイヤレスBluetoothデバイスの人気が高まるにつれ、多くのヘッドセットで同じく素晴らしいアシスタントの経験を簡単に得られるようにする必要がある」と言及している。

「Qualcomm Smart Headset Development Kit」と名付けられたこの製品は、Qualcommの「QCC5100シリーズ」Bluetoothオーディオチップを搭載し、新しいヘッドセットを開発したり、Googleアシスタントとやり取りするための完全なリファレンスボードを提供する。

興味深く、またQualcommにしては珍しいことに、同社は完全なリファレンスデザインとして独自のBluetoothイヤホンも作っている。搭載機能では、例えばボリュームボタンなどをホールドしてGoogleアシスタントのセッションを開始できる。

本体にはUSBポートが搭載されかつ武骨で、通勤で使いたくなるようなスタイリッシュなヘッドフォンではない。しかし、メーカーが独自のデバイスを作るためのデザインを提供するのだ。

このリファレンスデザインは開発者がGoogle アシスタントを統合しやすくするだけでなく、GoogleのFast Pairテクノロジーにも対応している。新しいヘッドセットをAndroidスマートフォンに接続する際の、面倒な煩わしさを伴わない。

Qualcommでプロダクトマーケティングとボイスアンドミュージックを担当するシニアディレクターのChris Havell氏は、「外出先でのボイスコントロールとアシスタントの利用にたいする需要は、消費者市場全体で急速に高まっている」と述べた。

「Smart Headset Platformと組み合わせることで、このリファレンスデザインはGoogleのクラウドベースのサービスを利用し、大いに差別化されたユーザー体験を提供したいメーカーに柔軟性を提供するのだ」。

[原文へ]

(翻訳:塚本直樹 Twitter

Googleがスマートディスプレイをゲームプラットフォームとして一般開発者に開放

Googleは米国時間5月7日、デベロッパーカンファレンスのGoogle I/Oで、同社のスマートディスプレイプラットフォームを、一般開発者へ開放することを発表した。これまでは、開発者が(新しく名前を変更した)Nest Hubのようなデバイスをターゲットとするための、現実的な方法は存在していなかった。Google自身と直接取引を行っているサービスだけが、ディスプレイに対するフルアクセスを行うことができていた。だがこれからは、開発者たちはゲームを手はじめとして、Google Assistant用のアクションの開発を始めることができるようになる。

スマートディスプレイ上で、非常に複雑で高度にグラフィカルなゲームが提供されるとは思わないが、言葉遊びやそれに似たお手軽なゲームにとってはいいインターフェイスだ。いずれにせよ、ここで話題にしているのは比較的ローエンドのハードウェアだ。ゲームは、HTML、CSS、およびJavaScriptを使ったものになるという事実も、開発者がこのプラットフォームでできることに、ある程度の制限を課している。Google自身が、現在自社のFlutterマルチプラットフォームフレームワークを使用して、スマートディスプレイエクスペリエンスのいくつかを開発していることを考えると、一般の開発者たちが自身のゲームを同じような方法でデバイスに持ち込めるようになるシナリオは十分に考えられる。

こうしたことを可能にするために、Googleは新しいAPIであるInteractive Canvasを提供する。これは開発者がフルスクリーンエクスペリエンスを作成することを可能にするものだ。これは実際には、Androidとスマートディスプレイの両者で動作する。

将来的には、同社はスマートディスプレイプラットフォームを、他のサードパーティエクスペリエンスに対しても開放する予定だ。とはいえ、それがいつごろになるかは、まだはっきりしていない。Googleが唯一コミットしているタイミングは「間もなく」というものだけだ。

[原文へ]

(翻訳:sako)

Android上のGoogle Assistantのビジュアルな答が改良された

半年ぐらい前にGoogleは、スマートフォンのAssistantのルックスを一新した。そして米国時間4月6日、同社はそのフォローアップとして、Android上のAssistantのビジュアルな応答性を良くするための、小さいけどすてきな手直しを発表した。それによってアプリの使い心地は、Googleのそのほかのサービスと同じになるだろう。

たとえば、イベントをたずねたときの応答は、同じ質問をモバイルのブラウザー上でたずねたときとまったく同じだ。これまでは、Assistantのビジュアルな応答は、かなり簡略化されていた〔下図のそれぞれ左(Before)〕。

[イベント][株価][犬][猫]

  1. Events

  2. Stocks

  3. Dog

  4. Cats

また、これにはユーザーからの苦情もありそうだが、Assistantでは最適解がないのでWebサイトのリストを“その他の解”としてユーザーに見せるとき、二つのボックスを画面上に縦に並べた。それは、とっても見づらい。しかし今度からは、ふつうのGoogle検索のレイアウトと同じになる。

良いアイデアじゃないの。なんでそれに苦情が来るの? つまり、表示が通常のGoogle検索と同じになったことによって、検索広告も出るのだ。Assisitantが広告をユーザーに見せるのは、これが初めてだ。Webサイトのリストを答としてもらうような質問は、そんなに多くないから、まあいいじゃないか。でもユーザーが心配するのは、これをきっかけにAssistant上の広告が今後多くなることだ。

Googleによると、Assistantのユーザーに見せるその広告では、広告主は広告のターゲティングができない。そしてユーザーに関する情報を、捕捉しない。

今度のAssistantには、住宅ローンの計算や、カラーピッカー(画面から色を拾う)、チップの計算、水準器などの機能が加わった。また、株価を知りたいときは、完全な対話型のグラフでそれができる。今までのように、株価が表示されるだけではない。

これらの新しい機能は今のところ、アメリカのAndroidスマートフォンのみだ。例によって、あなたのお手元のスマホに現れるのはもうちょっとあとだね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleのレストラン電話予約サービスAI「Duplex」がiOS/Androidで使えるように

Googleは、DuplexのAI技術を利用した電話によるレストラン予約を行うGoogleアシスタント機能を、米国全土の英語版AndroidおよびiOS端末向けに提供開始すると発表した。今回初めてクロスプラットフォーム化したことで、広く利用されるための土台を作った。

昨年5月のGoogle I/Oデベロッパー・カンファレンスで披露された最初のデモで、Duplexのシステムがあまり人間そっくりにしゃべったために、AIボットはどこまで人間のように振る舞うべきか、相手に正体明かすべきかについて倫理的問題が直ちに持ち上がった 。デモがニセモノではないかと疑った人たちもいた。

当時明らかにされなかったのが、Duplexが現実世界の製品になるまでにどれだけ時間がかかるかだった。しかし、それは意外に早かった。

発表からわずか数カ月後、Duplexはニューヨーク、サンフランシスコなどの主要都市で公開テストに移行した。その後一年未満に米国43州でPixel 3ユーザー向けに公開された(ケンタッキー、ルイジアナ、ミネソタ、モンタナ、インディアナ、テキサス、およびネブラスカは 現地法の制約のために公開時は非対応だった)。

テクノロジーがコンセプトから運用へと進んだことで、Googleは通話のはじめにメッセージを追加してGoogleからの電話であることを伝え、なぜかかってきたかを説明するようにした。またGoogleは、レストランなどの店舗がこの種の自動発信を受け取るかどうかを選択(オプトアウト)できるようにした。

しかし、新技術を多くの消費者が利用するようになれば、興味を持った顧客を逃したくない店舗オーナーにとって、オプトアウトが現実的な選択肢であるのかどうか定かではない。

GoogleはTechCrunchに、Duplexを利用したGoogle Assistantのレストラン予約は、iOSおよびAndroid 5.0以上の端末の両方で先週配布が開始されたと伝えた。ニュースサイトの9to5Googleは、Googleのヘルプ画面の変更に気づき新機能公開について記事を書いた。

しかし、現時点ではすべての端末に新機能が届いているわけではないようだ。TechCrunchはGoogleに質問したが、配布が完了する時期については回答がなかった。

Duplexはその他の予約を行う機能も持っているが、現在はレストラン予約に絞っている。すでにGoogleと提携しているオンライン予約サービスを利用しているレストランでは、AssistantがReserve with Googleと直接連動して予約を確認する。

Assistantの予約を利用したい消費者は、Google Assistantアプリだけあればよい。Assistantは、予約時間、人数などの詳細を確認したあと、予約プロバイダーの1つを通じて予約する。Reserve with Googleには、数十社の提携プロバイダーがあり、さまざまな問い合わせに対応している。必要に応じてDuplexを使って自動発信を行うこともできる。

Duplexは、Google上で更新されていない営業時間などの店舗情報を確認するためにも利用できる。このデータは、店舗一覧の更新にも使われる、とGoogleは言っている。Googleによると、米国の残りの州にもDuplexを提供するべく準備中だ。

[原文へ]

(翻訳:Nob Takahashi / facebook

Lenovo、80ドルのGoogle Assitant対応アラームクロックを今春発売へ

AmazonのEcho Spot——枕元に置くフルカラーディスプレイ付き音声入力対応アシスタント——のアイデアは好きだが、AlexaよりもGoogle Assistantの方がいい、という人にとって選択肢は限られていた。

スマートフォンをドックに挿すことはできるが、同じとは言えない。Google Home Hubは、限られた場所に置くナイトスタンドとしてはちょっと大きすぎる。

Smart Home at CES 2019 - TechCrunch

そこに目をつけたLenovoがSmart Clockを作った——80ドルのGoogle Assistant内蔵ベッドサイド用デバイスだ。

前面の480×800タッチスクリーンには、時計のほか天気などの情報を表示できる。Googleカレンダーと同期させれば、ふだんの目覚まし時計の時刻を変更する必要があるとき事前に知らせてくれる。

音楽を聞くための小さなスピーカーを内蔵し、背面には他のデバイスを充電するためのUSBポートがある。全体はソフトなグレイの布地で覆われていて、どんなGoogle Homeデバイスともマッチするだけでなく、80ドルのデバイスとは思えないおしゃれな外観だ。

もちろんGoogle Assistantを中心に据えているので、音声制御オートメーションからテレビのリモコン操作までGoogle Homeでできることはなんでもこなす。

Echo Spotと異なり、Lenovoのクロックには内蔵カメラがない——ベッドルームで使うことを考えると、おそらく懸命な判断だ。

今春出荷予定だとGoogleは言っている。

CES 2019 coverage - TechCrunch

[原文へ]

(翻訳:Nob Takahashi / facebook

Googleアシスタント、オーストラリア英語とイギリス英語を米国内でも利用可能に

本日(米国時間12/13)Googleは、Assistantが米国在住ユーザーのために新たなアクセントでしゃべるようになったと発表した。

対応する端末の設定タブに行き、標準のアメリカ英語をオーストラリアまたはイギリスのアクセントに切り替えられる(オーストラリアは”Sydney Harbour Blue”、イギリスは “British Racing Green”を選択)。

Googleのブログ記事に詳細が、必然的にフィッシュ・アンド・チップスの店の例と共に書かれている。なぜアメリカにこの機能がやってきたのかの説明はないが、ポンドの為替レートが正しいアクセントで発音されるのを聞くのは悪くない。

「これらの声はDeepMindの音声合成モデルWaveNetで作られている。層の深いニューラルネットワークを使って原始的な音声波形を作ることで、Assistantの声がいっそうリアルで自然に聞こえるようになった」」とGoogleは言っている。

海外居住者だけでなく米国アクセント全般を耳障りに感じている人たちにとっては癒やしになるだろう。実際、私は生涯このように話してきた。 この人たちは、自分のデバイスが暗黙のうちにアメリカ英語に切り替わることに苛立っていたに違いない。音声はそれぞれの母国のものと同じだが、米国市場向けにローカライズされているとGoogleは言っている。

この機能がやってきたタイミングが、GalaxyのBixbyが英国アクセントを覚えた直後だというのも興味深い。これで二人のスマートアシスタントがいい感じにチャットできそうだ。

[原文へ]

(翻訳:Nob Takahashi / facebook

GoogleのスマートディスプレイとスマートフォンのAssistantが多機能化

今週の初めに行われた例年のハードウェアイベントでGoogleは、同社の新しいスマートフォンPixel 3とスマートディスプレイHome Hubに搭載されるGoogle Assistantの新しい機能をいくつか発表した。でもしかし、Assistantに関してはそれがすべてではなかった。今日(米国時間10/11)はさらに新しい機能がいくつか発表され、また、Pixel 3用として発表された機能の、どれとどれがほかのスマートフォンにも載るか、が説明された。

お家(うち)にすでにLenovo Smart DisplayやJBL Link Viewがある方にとって嬉しいのは、Live Albumsと、ドアベルNest Helloのサポート、そしてすべてのスマートホームデバイスをコントロールするHome Viewが近く提供されることだ。またこのスマートディスプレイで最大の不満だったスピーカーグループのサポートの欠如も、解消する。LenovoとJBL の製品も、これでやっと、まともになるだろう。

また、すでに発表されていた、かかってきた電話を選り分ける…迷惑なセールスの電話か?…機能Call Screenと、レストランに予約の電話をかけてくれるDuplexが、年内にPixelに導入される。

その日のビジュアルなスナップショット機能も、AndroidスマートフォンのAssistantにやってくる。これは、重要なリマインダーや、最近のメモ、イベントの通知など、今日忘れてはいけないことをまとめて見せてくれる。Assistantを起動したら画面をスワイプするだけで、それが表示される。

Assistantをロック画面から使えるようになるので、スマートフォンをアンロックしなくてもその日のカレンダーを見たりできる。そのほかのGoogle Homeデバイスと同様、声でユーザーを識別するのだ。

また“Filters”機能では子どもたちに使わせたくないアプリをフィルターし、“downtime”機能でデバイスを使えない時間帯を設定できる。そしてもうすぐ、PixelのDigital Wellbeing機能をAssistantから…つまり音声で…使えるようになる (“Hey Google, 10時には電源切ってね”)。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

リニューアルされたGoogleアシスタントからUber、Lyftが音声で呼べる

Googleアシスタントを使ったことがあれば、音声でUberやLyftのタクシーが呼べればいいのに、と思ったことがあるだろう。今日(米国時間10/4)からそれが可能になる。ユーザーはGoogleのスマートアシスタントから音声でUber、Lyft、Ola、Grab、GO-JEKなどの配車サービスを利用することができる。

新機能が使えるのはGoogleアシスタントが利用できるスマートフォンとスマートスピーカーだ。ユーザーは特定のサービスを指定することもできるが、“Hey Google, book a car to SFX”(ねえ、Google、サンフランシスコ国際空港まで車を1台予約」などと単に行き先を告げるだけでもよい。この場合Googleアシスタントはその地域をカバーしている配車サービスとそれぞれの料金を表示してくれる。

実際に配車を予約することになると、アシスタントはそれぞれの会社のモバイル・アプリを起動する。

アシスタントが自分で予約まで実行するわけではないとはいえ、その経路で使えるサービスと料金を即座に教えてくれるのは便利な機能だ。とくに旅行に出発する時間が迫っていて荷造りに追われている中でタクシーを呼びたいようなときにはありがたい。

Googleのアシスタント事業のディレクター、Lilian Rinconは私の取材に対して、「ほぼ同様の機能はすでにGoogleマップにあるが、アシスタントから使えればユーザーにとってさらに便利になる」として次のように答えた。

私たちはGoogleアシスタントはGoogleの最良の部分を代表するショーケースと考えている。アシスタントのチームはライドシェアリング利用機能をサポートするためにGoogleマップのチームと密接に協力してきた。

昨日Googleはアシスタントのビジュアルをリニューアルした。新機能はこのアップデートの一部ではないようだが、ライドシェアリング各社の料金を教えてくれるだけでなく、経路のマップが表示されるようになったのは、Googleがアシスタントをサービスの中心に置き、ビジュアル化をいっそう進める努力をしていることの一環だろう。

新機能は順次、世界にリリースされているところだ。当面は英語版だが、今後サポートする言語は拡大される。

画像:TechCrunch

原文へ

滑川海彦@Facebook Google+

Google Cloudが音声↔テキストAPIを大幅アップデート、WaveNetでより自然な音声を

Google CloudのText-to-SpeechSpeech-to-Text APIが今日(米国時間8/29)、大量のアップデートを行い、サポートする言語を増やし、いろんなスピーカーからの自動生成音声を聴きやすくし、スピーカーの音声認識ツールを改良してテキスト書き起こしの精度を上げる、などの機能向上を導入した。

このアップデートにより、Cloud Text-to-Speech APIが一般的に可利用になった。

多くのデベロッパーにとっていちばん魅力的なのは、17の新しいWaveNetベースの音声が複数の新しい言語でローンチしたことだろう。WaveNetはGoogle自身の技術で、機械学習を使ってテキスト読み上げのオーディオファイルを作る。その結果、より自然に聞こえる音声になった。

このアップデートで、Text-to-Speech API(テキスト読み上げAPI)は今や14の言語とそれらの変種をサポートし、標準音声30とWaveNetの音声26を揃えている。

ここへ行くと、今回加わった新しい音声も含め、自分のテキストでGoogleのデモを試すことができる。

新しい機能の中では、オーディオプロフィールもおもしろい。これは、再生するメディアに合わせてオーディオファイルを最適化する機能だ。たとえば、スマートフォンのスピーカーとテレビの下にあるサウンドバーでは、音が違うだろう。オーディオプロフィールを使うと、音声を、電話の通話やヘッドフォンやスピーカーなどなどに合わせて最適化できる。

[元の音声と最適化の結果]

Speech-to-Text(書き起こしAPI)の方では、複数のスピーカーからの音声をより正しく書き起こせるようになった。機械学習を使っていろんなスピーカーを認識し、ひとつひとつの語にスピーカー番号のタグをつける(スピーカーの数は人間が指定する)。たとえばスピーカー2つのステレオファイルなら、それぞれの言葉の出どころを区別できるし、怒った顧客がカスタマーサポートに電話をしている音声なら、やはり各語の話者を識別できる。

複数言語のサポートも、新しい。検索には前からあったが、これからはそれをデベロッパーが利用できる。この書き起こしAPIに対しては、最大で4つの言語を指定できる。するとAPIは、今どの言語が喋られているかを、自動的に聞き分ける。

さらに、Speech-to-Text APIは、単語のレベルでの自信点を返す。すでに個々の談話レベルの自信点はあったが、今度からはデベロッパーは単語レベルのアプリ構築ができる。たとえば、“please set up a meeting with John for tomorrow at 2PM”(明日の午後2時にジョンとのミーティングをセットアップしてくれ)に対して‘John’や‘2PM’の自信度が低ければ、ユーザーにそれらを二度繰り返させるアプリを書けばよい。‘please’の自信度が低くても、それは重要でない単語だから、そのままでよい。Googleのチームは、そう説明している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleの‘何でもAssistant’路線、今度はBang & Olufsenの高級スピーカーに取り付く

Google AssistantとAmazon Alexaはもはや、自社製の安価なスマートスピーカーだけが自分の世界ではない。中でもとくにGoogleは、サードパーティのハードウェアメーカーに積極的に働きかけて、同社の消費者向けAIを、できるかぎり多様な製品に載せようとしている。

Bang & OlufsenのBeoSound 1と2は間違いなく、この路線のハイエンドに位置するだろう。その高価なスピーカーは、Google Assistantが載る同社の初めての製品だが、しかしB&Oは前から、それを同社のすべての製品に載せる、と約束していた。今回の二つの機種は、そのために必要な技術を最初から装備しており、たとえばマイクロフォンは5つ搭載している。

また上部には4つのボタンがあり、それらに、天気予報、ニュースなどさまざまな機能を割り当てられる。このAssistant搭載の新機種は来月初めに、1が1750ドル、2が2250ドルで発売される。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa