アップルの音声コントロールはアクセシビリティをOSレベルで強化する

Apple(アップル)は、なめらかで直感的なユーザインタフェースをお家芸としている。しかし、もしユーザーがクリック、タップ、ドラッグといった操作のための指を持っていなければ、そんなものは何の役にも立たない。障がいを持つユーザーのために、Appleは強力な「音声コントロール」を装備し、音声ベースのアクセシビリティ機能の強化に本気で取り組んでいる。Mac、iPad、iOSデバイスで利用できる。

多くのデバイスが、すでに優秀な音声入力機能を備えている。そしてもちろん、Apple製のスマホやパソコンにも、もうかなり前から音声ベースのコマンド機能が備わっていた。古くはMacintosh Quadraにさえ、そのためのマイクが標準装備されていた。しかし今回の音声コントロールは、これまでにないほどの大きな進化だ。声による操作を、誰でも使える万能なものに近付ける。そして、すべてオフラインでも機能する。

基本的に音声コントロールでは、ユーザーはセットコマンドと、コンテキストに固有のコマンドの両方が使える。セットコマンドとは、「Garage Bandを起動」とか、「ファイルメニュー」とか、「タップして」などといったもの。もちろん、ユーザーが命令しようとしているのか、文章を入力しようとしているのかを区別するだけのインテリジェンスは備えている。

しかし、こうしたコマンドは、多くのボタンや入力フィールド、ラベルなどが1画面に混在しているようなインターフェースでは、うまく動かない。もし、すべてのボタンやメニュー項目に名前が付いていたとしても、いちいちすべての名前を端から読み上げて選択を促すのは時間もかかり、現実的ではない。

この問題を解決するため、Appleは表示されているすべてのUI項目に単純に番号を付けた。ユーザーが「番号を表示」と言えば表示する。そこでユーザーは、単に番号を発音するか、たとえば「22をタップ」のように、操作の種類も合わせて指示できる。基本的なワークフローは、下のGIF動画に示されている。ただ、音声がないので、伝わりにくい部分があるかもしれない。

こうした数字なら、声を出しにくい人、あるいはまったく出せない人にとっても、比較的簡単に指示できることは重要なポイントだ。たとえば、ダイアルや息を吹き込むチューブといったような、単純な入力デバイスでも選択できるのだ。視線を追跡するのも優れた入力方法だが、それなりの限界もある。数字を使う方法は、それを補うことができるだろう。

たとえば地図のように、どこでもクリックしたくなる可能性があるような画面用には、グリッドシステムを用意している。それによって拡大したり、クリックしたい場所を指定する。まさにブレードランナーのようだ。スクロールやドラッグといったジェスチャーに対応する機能もサポートしている。

テキストの音声入力は、ちょっと前から使えるようになっていたが、それについても進化した。あるフレーズだけを選択して置き換える、といったことも声で指示できるようになった。たとえば、「”be right back”の部分を”on my way”に置き換えて」のように言えばいい。他にも細かな改良点があるが、この機能を頻繁に使用する人なら、その変化に気付き、きっと気に入るはずだ。

音声の解析などの処理は、すべてオフラインで行われる。そのため応答も早く、ネットワークとの接続状態に影響されない確実な動作が可能。データ通信が困難な外国に出かけている場合も安心だ。また、Siriに組み込まれたインテリジェンスによって、基本的な語彙に含まれない名前や、特定のコンテキストに固有の単語なども認識できる。音声入力の進歩により、絵文字を選択したり、辞書に項目を追加したりすることも、簡単にできるようになった。

現状では、すべてのApple純正アプリが音声コントロールをサポートする。またAppleのアクセシビリティAPIを使用しているサードパーティ製アプリなら、簡単にそのメリットを享受できるはずだ。さらに、特に対応していないアプリでも、数字とグリッドによるインターフェースは機能するはずだ。というのも、OS自体が、アプリが表示しているUI項目の位置を把握しているからだ。このように進化したアクセシビリティ機能は、デバイスをiOS 13またはCatalinaにアップデートするだけで、すぐに利用できるようになるだろう。

原文へ

(翻訳:Fumihiko Shibata)