【米国】Google Payによる駐車料金支払いを音声でできるようになった

筆者: Jaclyn Trop

米国のAndroidユーザーはこれで、これまでのように駐車違反切符を切られることがなくなるかもしれない。少なくともそれが、最新のアップデートでGoogleがユーザーに約束していることだ。

Googleは木曜日(米国時間03/10)に、その最新のソフトウェアアップデート新しい機能をたくさん発表したが、その中には、ParkMobileとのパートナーシップにより、音声で駐車料金を払える機能がある。これによって、寒すぎたり、会議が予定より長引いたり、カップ・ホールダーの小銭が少ないときにメーターで払う苦痛とおさらばできる。

このパートナーシップは、最近のGoogleが交通に力を入れていることの最新の例だ。これまでは、Googleマップに自転車やライドシェアを加えたり、デジタルキーを開発したり、自動車メーカーと共同でAndroidオペレーティングシステムを車に統合したり、などがあった。

消費者の日常生活を便利にしようとGoogleが志したとき、中でも駐車は同社にとって易しい問題だ。Parkmobileとのパートナーシップにはやや制限があるが、でも過去の例を見るかぎり、パートナーシップの拡大はすぐだろう。

音声による駐車機能は、読んで字のごとしの機能だ。どこかに駐車して「Hey Google, pay for parking」(ヘイ、グーグル、駐車料金を払って)と言うと、あとはGoogle Assistantのプロンプトに従うだけだ。その決済は、Google Payが処理する。

Googleのキャッチフレーズは、「硬貨と混乱にさようなら(No more coins, no more confusion)」だ。

混乱の原因は、ダウンロードして使える駐車アプリの不出来にもある。今回の駐車料金支払い機能は、使いづらいアプリを無視してデフォルトでParkMobileを使う。これは、米国の400以上の都市の駐車場に対応している、最上位のアプリだ。

そのアプリのAndroid用のアップグレードでは、残り時間をチェックしたり、時間を増やしたりが音声コマンドでできる。「Hey Google, parking status」とか、「Hey Google, extend parking」と言うだけだ。

これが重要なのは、Googleが車からユーザーの個人情報を知るためにも使えるからだ。たとえば、車の現在位置が分かる。そしてデータ収集に関しては、GoogleがAppleに勝ちとなる。

AppleやGoogleやAmazonにとって、ユーザーの車から得られるデータは、サブスクリプションサービスを売ったり、あるいはそのデータをサードパーティに売って広告の個人化に使わせたりすることに利用できる。そんなデータが多くなれば、テクノロジー大手の売り上げも増える。

昨年GoogleとParkMobileは路上駐車の支払いをGoogle Mapsからできるようにしたが、でも今回の音声による支払いはAndroidユーザーとGoogleとParkMobileにとって大きな進歩であり、さらに、ターゲティング用のデータに飢えているサードパーティの顧客にとっても、すごくありがたい。

(文:Jaclyn Trop、翻訳:Hiroshi Iwatani)
画像クレジット: Getty Images

[原文へ]

Androidに今夏導入される6つの新機能、安全性やアクセシビリティも向上

Android(アンドロイド)に2021年夏から導入される6つの新機能についての情報が、米国時間6月15日に公開された。それらの中には、テキストメッセージにスターを付けて後で簡単に探せるようになる機能や、入力中の言葉に応じて最適なEmoji Kitchen(絵文字キッチン)の候補を表示する機能など、単に「生活の質」を向上させるものもある。しかし、今回のアップデートにおけるそれ以外の面では、セキュリティ、安全性、アクセシビリティが強調されている。

関連記事
GoogleのGboardキーボードのEmoji Kitchenで絵文字のマッシュアップができる
グーグルがAndroidスマホを地震計にする技術を発表、世界最大の地震検知ネットワークを作り出す

2020年の夏、Google(グーグル)はAndroidに、スマートフォンを地震計として活用することで「世界最大の地震検知ネットワーク」を構築する機能を追加した。このシステムは無料で、カリフォルニアで試験運用が行われた後、ニュージーランドやギリシャにも導入されている。Googleは今回、この機能をトルコ、フィリピン、カザフスタン、キルギス共和国、タジキスタン、トルクメニスタン、ウズベキスタンでも提供を開始すると発表。同社によると、2021年は地震のリスクが高い国を優先して、この機能の拡大を続けていくという。

画像クレジット:Google

Googleは2020年、Google Assistant(Google アシスタント)の音声コマンドを各種Androidアプリに対応させるアップデートを導入したが、こちらも今回、さらに拡張される。最初のアップデートでは、Spotify(スポティファイ)、Snapchat(スナップチャット)、Twitter(ツイッター)、Walmart(ウォールマート)、Discord(ディスコード)、Etsy(エッツィ)、MyFitnessPal(マイフィットネスパル)、Mint(ミント)、Nike Adapt(ナイキ・アダプト)、Nike Run Club(ナイキ・ラン・クラブ)、Kroger(クローガー)、Postmates(ポストメイツ)、Wayfair(ウェイフェア)といったアプリがサポートされていたが、今回のアップデートでは、eBay(イーベイ)、Yahoo!Finance(ヤフーファイナンス)、Strava(ストラバ)、Capital One(キャピタル・ワン)などのアプリが言及されている。これは、Apple(アップル)のSiriでiOSアプリを起動させたり、タスクを実行したり、カスタムコマンドを記録したりできる機能と似たものだ。

関連記事:GoogleアシスタントからAndroidアプリを操作可能に

画像クレジット:Google

アクセシビリティの面では、現在ベータ版として提供されている視線検出機能が強化される。この視線検出機能によって、ユーザーは画面を見ているときだけVoice Access(ボイス・アクセス)が反応するように設定できるので、スマートフォンへの指示と友人との会話を自然に切り替えることができる。Voice Accessでは、パスワードの入力も強化される。パスワードの入力欄を自動検知すると、例えば「大文字のP」とか「ドル記号」ということで、文字や数字、記号を入力できるようになるので、ユーザーはこの機密情報をよりすばやく入力できる。2020年10月、Google アシスタントは視線操作デバイスで利用できるようになり、同月にGoogleの研究者は、ビデオ会議で手話を使う人を「アクティブスピーカー」として識別できるようにするデモを公開した。アップルは2017年にアイトラッキング企業のSensoMotoric Instruments(センソモトリック・インスツルメンツ)を買収したものの、まだこれに匹敵するような視線検出機能を普及させていない。Googleが改良を続けているように、アップルでも同様のアクセシビリティ機能が開発されていることを期待したいところだ。

関連記事
Googleアシスタントが視線操作のデバイスにも対応
グーグルの研究者がビデオ通話で手話を認識して画面を切り替える技術を披露

今回発表されたAndroidのアップデートでは、Android Auto(アンドロイド・オート)のユーザーがより多くのカスタマイズを行えるようになる。例えば、スマートフォンからAndroid Autoのランチャー画面を設定したり、ダークモードを手動で設定したり、A-Zスクロールバーや「トップに戻る」ボタンを使ってメディアアプリのコンテンツをより簡単に探せるようになった。また、WhatsAppやMessages(メッセージ)などのメッセージアプリが、ランチャー画面から直接アクセス可能になり、簡単に新しいメッセージを読んだり送信したりできるようになる……が、運転中に注意散漫にならないように気をつけて欲しい。さらに、EVの充電ステーション検索や駐車場予約、ナビゲーションなどのサードパーティ製アプリが、Android Autoで使用できるようにもなる。車載システムの操作性や利便性は大幅に向上するばずだ。

カテゴリー:ソフトウェア
タグ:GoogleAndroidGoogleアシスタントAndroid Autoアイトラッキング地震

画像クレジット:Google

原文へ

(文:Amanda Silberling、翻訳:Hirokazu Kusakabe)

ケンウッドがAmazon Alexa搭載完全ワイヤレスイヤフォンを1月中旬発売、Googleアシスタント版は2月上旬

ケンウッドがAmazon Alexa搭載完全ワイヤレスイヤフォンを1月中旬発売、Googleアシスタント版は2月上旬

JVCケンウッドは12月3日、ケンウッドブランドにおいて、完全ワイヤレスイヤフォン形状の音声アシスタント搭載スマートヘッドセット「WS-A1」、「WS-A1G」を発表した。発売はWS-Aが2021年1月中旬予定、WS-A1Gは2月上旬。店頭想定価格は、それぞれ税抜3万5000円前後。

WS-A1は音声アシスタントとして「Amazon Alexa」、またWS-A1Gは「Googleアシスタント」を搭載。音声アシスタントは「アレクサ」や「OK Google」などのウェイクワードを呼ぶことなく、本体左側のタッチパッドに触れることで呼び出せる。

ケンウッドがAmazon Alexa搭載完全ワイヤレスイヤフォンを1月中旬発売、Googleアシスタント版は2月上旬

Qualcomm cVcテクノロジーと高性能マイクの採用により、ノイズを抑えクリアなハンズフリー通話も可能。テレワーク時のリモート会議等の通話にも使用できる。重量は本体:9.6g×2個/ケース:92.5g。雨や水しぶきを気にせず使えるIPX4相当の生活防水もサポート。

バッテリー駆動時間は、本体のみで約8時間の連続再生(ノイズキャンセリング機能ON時)。充電ケースによるフル充電(約8時間×2回)を合わせて、最大約24時間の長時間再生を実現している。ノイズキャンセリング機能OFF時は、本体のみで約9時間としており、充電ケースとの合計で約27時間再生が行える。充電ケースは「Qi」対応のワイヤレス充電器で充電が可能。

ケンウッドがAmazon Alexa搭載完全ワイヤレスイヤフォンを1月中旬発売、Googleアシスタント版は2月上旬

WS-A1・WS-A1Gは、Bluetooth 5.2をサポート。スマートフォンとBluetooth接続し、片側3個(合計6個)のマイクで音声アシスタントに話しかけ操作することで、ニュース/天気予報/スケジュールの確認はじめ、ワンワードで複数の動作を行えるルーティン機能や、ナビ案内や翻訳、スマートホームの制御などが、スマートフォンを手に取ることなく可能となる。音声アシスタントからの通知やお知らせも音声で聞くことができる。

また、音声アシスタントをより活用しやすくするため、JVCケンウッド独自のアルゴリズム信号処理に加えて、音声や周囲音をコントロールする3つの機能を採用。

騒々しい環境下でもユーザーの声を音声アシスタントに正確に認識させる「トリプルマイクシステム」機能、周囲音の遮断・取り込みを切り替え可能な「アンビエント・サウンド・シームレス・コントロール」機能、人の声が明瞭に聞こえる「ボイス・エンハンスメント・モード」機能を利用できる。

新開発の「イヤーピロー」では、長時間使用しても快適な装着を実現。振動板に軽量かつ高剛性で、内部損失も良く、振動板に適した金属素材であるベリリウムを採用しており、音声アシスタントやハンズフリー通話時も相手の声をよりクリアに聞くことができる上、音楽再生時にはダイナミックで繊細なサウンドを楽しめる。

ケンウッドがAmazon Alexa搭載完全ワイヤレスイヤフォンを1月中旬発売、Googleアシスタント版は2月上旬

関連記事
深夜でも爆音サラウンドを楽しめる「Victor EXOFIELD THEATER XP-EXT1」
サムスンが新ワイヤレスイヤフォン「Galaxy Buds Live」を発表、2万円弱ででアクティブノイキャン搭載
グーグルのワイヤレスイヤフォン「Google Pixel Buds」が日本でも8月20日発売開始
違いのわかる大人の完全ワイヤレスイヤフォン「Technics EAH-AZ70W」
アップルがワイヤレスイヤフォンのAirPods Proを発表、ノイキャン機能搭載
Surfaceイベントでマイクロソフトが発表した製品まとめ

カテゴリー:ハードウェア
タグ:Amazon Alexa(製品・サービス)AirPods(製品・サービス)ガジェット(用語)Galaxy BudsGoogle Assistant(製品・サービス)Google Pixel Buds(製品・サービス)ヘッドフォン / イヤフォン(用語)日本(国・地域)

Googleマップに新型コロナ情報が追加、Googleアシスタントのドライビングモードがついに登場

米国時間11月17日、Google(グーグル)はGoogleマップのアップデートを発表し、新型コロナ関連の機能をいくつか追加した他、テイクアウトやデリバリーオーダーの状態を見られるようになり、待望のGoogleアシスタント・ドライビングモードがついにやってきた。

同社はGoogleマップの新たな統計情報も公開した。例えばGoogleはマップに毎日5000万件の改訂を加えている、ただしこれにはユーザーのレビュー、写真、レーティングなどのユーザー生成コンテンツも含まれている。また同社は、「popular times(訪問数の多い時間帯)」情報を世界2000万カ所で提供している。

画像クレジット:Google Maps

新型コロナウイルス感染症(COVID-19)関連の発表は2つ。まず、グーグルはiOS版GoogleマップのCOVID-19レイヤーを改訂し、地域の累積検出件数や地方自治体の新型コロナ情報へのリンクなどの新しい情報を加えた。次に、Googleマップは公共交通機関が現在どのくらい混雑しているかをリアルタイムで知らせられるようになり、ユーザーは混み合った電車やバスを避けることができるようになった。これはGoogleマップユーザーからのリアルタイムフィードバックに基づくもので、いまでもマップが店舗やレストランの混雑状況を表示しているのを知っている人なら想像できるだろう。

画像クレジット:Google Maps

ちなみに、パンデミック下でデリバリーサービスは結局のところ爆発的に伸びている(ただし未だに利益を上げるのには苦労している)。モバイル版Googleマップは、テイクアウトやデリバリー注文の配達状態をリアルタイムで表示できるようになった。現在米国、カナダ、ドイツ、オーストラリア、ブラジル、インドで利用できる。この機能を使うためには、AndroidまたはiOSのGoogleマップから注文する必要がある。

Android Auto対応の車を持っていないGoogleマップユーザーにとって、Googleアシスタントの新しいドライビングモードは待ちに待った機能だ。グーグルが初めてこの機能について話した(未訳記事)のは2019年5月のI/Oデベロッパー・カンファレンスだったが、よくあるように、I/Oで発表された機能は市場に出回るまで時間がかかる。当初は2019年夏に公開の予定だった。

画像クレジット:Google Maps

その目的は、ドライバーは電話があったことの通知を受け、テキストメッセージをGoogleアシスタントに読み上げさせ、音楽を制御する、このすべてをGoogleマップの中で行えるようになること。アシスタントを完璧に使いこなすことで、ドライバーの注意散漫を減らすことができる。現時点でこの新しいモードを利用できるのは米国のAndroidユーザーだけで、使える機能もまだ限られている。グーグルは今後機能を増やしていくことを約束しているが、このモードにどの機能が追加されるのかはわかっていない。

関連記事:Google Assistant is coming to Google Maps

カテゴリー:ネットサービス
タグ:GoogleGoogleマップ新型コロナウイルスGoogleアシスタント

画像クレジット:Fernando Trabanco Fotografía / Getty Images

原文へ

(翻訳:Nob Takahashi / facebook

GoogleアシスタントからAndroidアプリを操作可能に

Google(グーグル)は米国時間10月8日、Googleアシスタント内から音声でAndroidアプリを操作できるようになったと発表した(Googleブログ)。「Ok Google」でアプリを起動しさらにいくつかの操作コマンドを送ることができる。この機能はGoogleアシスタントを搭載したあらゆるAndroid端末で利用できる。ユーザーは音声でアプリを起動した後、アプリ内での検索、料理の注文、音楽再生、ソーシャルメディアへの投稿、タクシーの配車依頼いくつかのタスクを実行可能だ。

例えば、「Ok Google、Etsyで快適な毛布を探して!」「Snapchatでセレナ・ゴメスを開いて!」「Nike Run Clubで記録を開始して!」「Twitterで最新のニュースを調べて!」などと命じることができる。

スタート時点ではまず英語の命令がサポートされるが、世界のGoogle Playの上位アプリ30種類で利用可能であり、今後さらに多数のアプリがサポートされるという。現在利用できるアプリは、Spotify、Snapchat、Twitter、Walmart、Discord、Etsy、MyFitnessPal、Mint、Nike Adapt、Nike Run Club、eBay、 Kroger、Postmates、Wayfairなどが含まれる。

またこの新しいバージョンでは普段使うボイスコマンドがユーザーにとって不自然な場合、そのコマンドを起動するための音声ショートカット作ることができる。例えば、ユーザーが自動的に靴紐を締めてくれるナイキのハイテクシューズを履いている場合、「Ok Google、Nike Adaptで靴紐を締めて」という代わりに「Ok Google、締めて」というだけでいい。つまりコマンドのフレーズをカスタマイズできるわけだ。ユーザーがショートカットを作りたいときは「Ok Google、私のショートカット」と命じれば設定画面が表示される。

これはApple(アップル)の iOSにおけるSiriの機能によく似ている。アップルは最新のSiriでiOSアプリを開きいくつかの操作を命じることができるようにしている。また命令フレーズのカスタマイズもできる。

グーグルの場合、アプリ内で音声に反応する仕組みはデベロッパーが作成するxlmファイルでユーザーの意図をアプリの動作にマッピングすることで実現している。この仕組みはApp Actionsと名付けられている(Google Develoverサイト)。ユーザーが音声でアプリを開く場合コマンドはApp Actionsに引き渡される。今回App Actionsの機能が強化され、単にアプリを開くだけではなく、アプリ内で検索を実行するなど各種のコマンドがサポートされるようになったわけだ。

同社によれば現在App Actionsのカタログには10分野60種類以上のユーザーアクションが登録されているという。具体的には、財務、配車、料理配達など既存の分野にソーシャルゲーム、旅行、ショッピング、近隣店舗、コミュニケーション、生産性ツールなどが追加されている。

ユーザーがこのApp Actions機能を適切に使えるよう、同社でははAndroidアプリに新しい仕組み設定している。例えば、ユーザーがアプリを指定せずに「テイラー・スウィフトを見せて」と命じた場合、グーグルはTwitterをトップとする検索結果を表示し、ユーザーが Twitter のテイラー・スウィフトアカウントに移動することを助ける 。

画像クレジット:Google

新機能に関連して同社は、スマートディスプレイ上でカスタムアプリを作るための支援ツール各種と新しい音声(英語)を2種類リリースした。

同社は米国時間10月8日に開催されたGoogle Assistant Developer Dayイベントで、いくつかの新しいプロダクトとアップグレードを発表した。これにはGoogle Duoへの画面共有やスパム通話防止のためのVerified Calls(認証済み通話)のサポートデバイスの拡大(Android 9以降が必要)などが含まれる。

Google Playの Movies&TVアプリは先週TechCrunchが報じたとおり、Google TVアプリへリニューアルされた。またアクセシビリティも強化された。音声通知機能を聴覚にハンディキャップがあるユーザーのためにカスタマイズできるようになった(Googleブログ)。さらには、脳性まひ、自閉症、失語症などの障がいをもつユーザーのアクセシビリティをAction Blocksアプリを利用して容易に改善できるようにした。新機能はすでに公開されている。

【Japan編集部追記】日本語サポートについてはGoogleアシスタントのサイトを参照してほしい。

カテゴリー:ソフトウェア
タグ:Goolge、Googleアシスタント

原文へ

(翻訳:滑川海彦@Facebook

Googleアシスタントにゲストモードが加わる、履歴を残さずスマートスピーカーなどを操作可能に

Google(グーグル)は米国時間10月7日、新たなプライバシー機能をいくつか発表した。改定されたSafety Center(セーフティ・センター)を米国で公開し、近く全世界にも提供する。また、ユーザーのアカウントが不正使用されそうだと予測したときの警告をもっと目立つものにする。

最も興味深い新機能は、Googleブランド・デバイス上のGoogleアシスタントに追加されたゲストモードだ。これはGoogle Chromecast(クロームキャスト)などをゲストに使わせるための機能ではないので間違えないように。

このゲストモードはむしろブラウザーのシークレットモードに近い。「Hey Google, turn on guest mode」などと話しかけてゲストモードをオンにすると、アシスタントはパーソナライズされた応答をしなくなり、やり取りはアカウントに保存されない。ユーザーがオフにするまでこのモードは続く。

通常、Googleアシスタントは対話内容をすべてアカウントに保存する。もちろん、手動で削除したり、3、18、36カ月後に自動消去させることや、音声録音を一切保存させないこともできる。

ゲストモードは、スマートスピーカーやスマートディスプレイに近々実装される。

データの削除といえば同社は同日、近々Googleマップのタイムラインで位置履歴データを編集できるようにすると発表した。

もう1つの注目は「Is my Google Account secure」(私のグーグルアカウントは安全?)といった問い合わせをすると、グーグルがユーザーのセキュリティーとプライバシーの設定を表示してくれる機能。いまやこの手の設定がどこにあるのかわからいところまで複雑化していることを思うと、これは大きな前進と言えるだろう。

カテゴリー:ネットサービス
タグ:Google、Googleアシスタント、Google Home

画像クレジット:Google

[原文へ]

(翻訳:Nob Takahashi / facebook

Googleアシスタントが視線操作のデバイスにも対応

日常的にデバイスとのやりとりを視線追跡に頼っている人は強力なツールを手に入れることになった。Googleアシスタントだ。視線を音声ベースのインターフェイスに置き換えることで、アシスタントの複数の統合とコミュニケーションツールがTobii Dynavoxデバイスの機能を向上させる。

GoogleアシスタントはTobiiのアイトラッキングタブレットやモバイルアプリにタイルとして加えることができ、そこにはよく使うアイテムを並べた大きなカスタマイズ可能なグリッドが表示され、ユーザーはそれを見て起動する。これはGoogle(グーグル)がサポートしている他のソフトウェアやハードウェアのインターフェイスの仲介役として機能する。

例えば、スマート家電は特定の障害を持つ人にとっては非常に便利だが、一部の身体が不自由な人にとっては視線追跡デバイスのインターフェースに簡単にアクセスできない可能性があり、他の手段を必要としたり、ユーザーが実行できるアクションを制限したりすることもある。Googleアシスタントは多種類のそんなデバイスに、最初から対応しているのだ。

Tobii DynavoxのCEOであるFredrik Ruben(フレドリック・ルーベン)氏は「身の回りの物と『世界』をコントロールできることが、ユーザーにとって一番大切だ。Googleアシスタントのエコシステムにはほぼ無限の可能性がある」と語る。

Googleアシスタントのタイルに置かれるコマンドやアプリはユーザーがセットアップでき、「今日はカレンダーに何がある?」のような質問も自動化できる。セットアップにはGoogleのアカウントが必要なだけで、Google Homeアプリへ最初にTobii DynavoxのSnap Core Firstという不思議な名前の視線追跡デバイスをスマートスピーカーもしくはディスプレイとして登録する。するとAssistantのタイルを加えられるようになり、話し言葉でコマンドをカスタマイズする。

画像クレジット:Google / Tobii Dynavox

ルーベン氏によると、Googleのソフトウェアの統合は「技術的には簡単で」「私たちのソフトウェア自体がすでに多様なアクセスニーズをサポートしており、サードパーティのサービスもローンチできるため、Googleアシスタントのサービスとも相性が良い」とのことだ。

Tobiiが提供しているアイコンのライブラリ(点灯する矢印、開いたドア、閉じたドアなど)を、簡単にGoogleアシスタントのショートカットとして使うこともできる。

これはグーグルにとって同社が開発した一連の興味深いアクセシビリティーサービスの最新のものだ。その他にもリアルタイムの書き起こしや、グループビデオ通話で手話が使われたときの検出、標準的でない発音に対する音声認識などがある。まだウェブの多くが離れた場所からはアクセスできないが、少なくとも大手テクノロジー企業は時折、良い仕事をしている。

関連記事
GoogleがProject Euphoniaの包括的な音声認識を支えるAIの詳細を発表
グーグルの研究者がビデオ通話で手話を認識して画面を切り替える技術を披露

カテゴリー:ヘルステック
タグ:GoogleGoogleアシスタントアクセシビリティ

画像クレジット:Google / Tobii Dynavox

原文へ

(翻訳:iwatani、a.k.a. hiwa

Google Assistantアプリがユーザーの検索履歴を使っておすすめをパーソナライズ

Google(グーグル)は、iOSおよびAndroid版Google Assistant(アシスタント)の “Snapshot”(スナップショット)機能を改訂する。同社は2年前の2018年に初めてGoogle Assistant Snapshotを公開し、予定、リマインダー、通勤時間、株価、荷物の追跡などのタイムリーな情報を表示することで、ユーザーが1日を把握できるようにした。今日(米国時間8月27日)同社はこの機能をもっと便利でパーソナルにする新機能を追加した。タスク、誕生日のプッシュ通知、その他ポッドキャスト、レストラン、レシピなど、ユーザーがやってみたいだろうとGoogleが考えたことのおすすめまでする。

後者の機能はユーザーデータを利用している。具体的には検索履歴で、Google Assistantで行った検索だけでなく、ほかのスマートデバイスで行ったものも含まれる。

画像クレジット:Google

このアップデートで、Google Assistantはユーザーが作りたいであろう料理のレシピや聞いてみたいポッドキャスト、近所のデリバリーを頼めるレストランなどをおすすめできるようになる。おすすめ内容は1日の間に変わることもある。例えば、夜には夕食のレシピが提案されるかもしれない。

さらにSnapshotは、大切な仕事の概要を画面のトップに表示するようになる。誰かの誕生日が近づくとプッシュ通知が送られてきて、電話、メッセージ、パーソナライズされたバースデーソングなど、次にとるべきさまざまな行動を推奨するカードか提示される。誕生日通知機能は英語圏地域から提供開始する、とGoogleは言っている。

Google Assitantアプリは、フライトやイベントの最新情報、請求書や締切日などの通知も送る。

Google Snapshot自身の機能も改訂され、時刻やユーザーのGoogle Assistantとのやりとりに応じて表示内容か変わるようになる。

たとえば午前中には、通勤時間やその日の天気、ニュースの見出しやTO-DOリストなどを表示する。午後になると、ユーザーの日頃の行動やGoogle Assitantアプリやスマートデバイスで検索した内容に合わせた情報に変わる。

さらにGoogleは、 “Hey Google, show me my day”と言ってSnapshotを見られるようにした。以前はGoogle Assistantアプリの左下のアイコンをタップして起動していた。この音声起動機能はデフォルト言語を “English”に設定しているユーザーで今日から有効になるが、Googleは今後数ヶ月のうちに他の言語でも音声対応する計画だ。

本アップデートは、iOSおよびAndroid版Google Assitantアプリで実施される。

画像クレジット:Google

[原文へ]

(翻訳:Nob Takahashi / facebook