Googleアシスタントが視線操作のデバイスにも対応

日常的にデバイスとのやりとりを視線追跡に頼っている人は強力なツールを手に入れることになった。Googleアシスタントだ。視線を音声ベースのインターフェイスに置き換えることで、アシスタントの複数の統合とコミュニケーションツールがTobii Dynavoxデバイスの機能を向上させる。

GoogleアシスタントはTobiiのアイトラッキングタブレットやモバイルアプリにタイルとして加えることができ、そこにはよく使うアイテムを並べた大きなカスタマイズ可能なグリッドが表示され、ユーザーはそれを見て起動する。これはGoogle(グーグル)がサポートしている他のソフトウェアやハードウェアのインターフェイスの仲介役として機能する。

例えば、スマート家電は特定の障害を持つ人にとっては非常に便利だが、一部の身体が不自由な人にとっては視線追跡デバイスのインターフェースに簡単にアクセスできない可能性があり、他の手段を必要としたり、ユーザーが実行できるアクションを制限したりすることもある。Googleアシスタントは多種類のそんなデバイスに、最初から対応しているのだ。

Tobii DynavoxのCEOであるFredrik Ruben(フレドリック・ルーベン)氏は「身の回りの物と『世界』をコントロールできることが、ユーザーにとって一番大切だ。Googleアシスタントのエコシステムにはほぼ無限の可能性がある」と語る。

Googleアシスタントのタイルに置かれるコマンドやアプリはユーザーがセットアップでき、「今日はカレンダーに何がある?」のような質問も自動化できる。セットアップにはGoogleのアカウントが必要なだけで、Google Homeアプリへ最初にTobii DynavoxのSnap Core Firstという不思議な名前の視線追跡デバイスをスマートスピーカーもしくはディスプレイとして登録する。するとAssistantのタイルを加えられるようになり、話し言葉でコマンドをカスタマイズする。

画像クレジット:Google / Tobii Dynavox

ルーベン氏によると、Googleのソフトウェアの統合は「技術的には簡単で」「私たちのソフトウェア自体がすでに多様なアクセスニーズをサポートしており、サードパーティのサービスもローンチできるため、Googleアシスタントのサービスとも相性が良い」とのことだ。

Tobiiが提供しているアイコンのライブラリ(点灯する矢印、開いたドア、閉じたドアなど)を、簡単にGoogleアシスタントのショートカットとして使うこともできる。

これはグーグルにとって同社が開発した一連の興味深いアクセシビリティーサービスの最新のものだ。その他にもリアルタイムの書き起こしや、グループビデオ通話で手話が使われたときの検出、標準的でない発音に対する音声認識などがある。まだウェブの多くが離れた場所からはアクセスできないが、少なくとも大手テクノロジー企業は時折、良い仕事をしている。

関連記事
GoogleがProject Euphoniaの包括的な音声認識を支えるAIの詳細を発表
グーグルの研究者がビデオ通話で手話を認識して画面を切り替える技術を披露

カテゴリー:ヘルステック
タグ:GoogleGoogleアシスタントアクセシビリティ

画像クレジット:Google / Tobii Dynavox

原文へ

(翻訳:iwatani、a.k.a. hiwa

投稿者:

TechCrunch Japan

TechCrunchは2005年にシリコンバレーでスタートし、スタートアップ企業の紹介やインターネットの新しいプロダクトのレビュー、そして業界の重要なニュースを扱うテクノロジーメディアとして成長してきました。現在、米国を始め、欧州、アジア地域のテクノロジー業界の話題をカバーしています。そして、米国では2010年9月に世界的なオンラインメディア企業のAOLの傘下となりその運営が続けられています。 日本では2006年6月から翻訳版となるTechCrunch Japanが産声を上げてスタートしています。その後、日本でのオリジナル記事の投稿やイベントなどを開催しています。なお、TechCrunch Japanも2011年4月1日より米国と同様に米AOLの日本法人AOLオンライン・ジャパンにより運営されています。