iOS 14は犬の鳴き声を認識して聴覚障害者に通知するアクセシビリティ機能などを強化

iOSの最新バージョンには、聴覚や視覚の不自由な人たちのための機能がいくつか追加されているが、誰にとっても役に立つものもある。

おそらく最も感動的な新機能は、Sound Recognition(音認識)だろう。ユーザーが気づきたい音(ノイズ)のリストに載っている音を検出すると、iPhoneがユーザーに通知する。サイレン、犬の鳴き声、煙検知器、車のクラクション、ドアチャイム、水の流れる音、家電のブザー、などなどリストは非常に長い。Furenexoという会社がこれを実現するデバイスを数年前に作っているが、iOSに内蔵されるのはうれしい。

Apple Watchに通知を送ることもできて、オーブンが設定温度になったのを知るためにiPhoneをチェックしたくない人には便利だ。アップルは人間や動物の音を追加する作業を進めているので、システムはまだ成長するようだ。

これが聴覚障害者の役にたつのは当然だが、音楽やポッドキャストに聞き入っていて、犬の散歩や荷物を届くことを忘れがちの人にもうれしい機能だ。

オーディオ部門の新機能はほかにも、同社が「personal audiogram」と呼ぶものがあり、異なる周波数をどのくらい聞き分けられるかに基づいてEQ(イコライザー)をカスタマイズする。これは医療機器ではなく難聴などを診断するものでもないが、さまざまなオーディオテストによって、特定の周波数を強めたり弱めたりする必要があるかどうかを判断できる。残念なことにこの機能は、アップルブランドのヘッドフォンでしか利用できない。

関連記事:本日開催のWWDC20発表まとめ

Real Time Text(リアルタイムテキスト)による会話は、アクセシビリティ標準のひとつで、基本的にテキストによるチャットをビデオ通話プロトコルに乗せて送ることによって、スムーズな会話や緊急サービスの利用を非言語的な方法で可能にする。iPhoneでは以前からサポートされているが、これからはそのためにアプリを開く必要がなくなる。ゲームをしたりビデオを見ている最中に通話すれば会話がテキストで通知される。

最後に紹介する聴覚障害者向け機能は、グループFaceTime通話の隠れた変更だ。ふつうビデオは話している人に自動的に切り替わるが、手話は当然音を出さないので、話者はハイライトされない。iOS 14では、動きを手話である程度認識して(ただし内容は認識しない)その参加者のビデオ表示がハイライトされる。

Voice Overの大改造

アップルの視覚障害者向けのアクセシビリティ機能は充実しているが、改善の余地は常にある。Voice Overは10年以上使われているスマート画面読み上げシステムだが、これまで以上のUI操作を認識する機械学習モデルを採用したことで、適切なラベルのついていない項目や、サードパーティ製アプリやコンテンツも認識するようになった。これはデスクトップでも採用されるが、まだ十分ではない。

iOSの分類能力もアップグレードされ、写真の被写体を分析して高度な関係づけを行うようになった。例えば「two people sitting」(二人の人が座っている)の代わりに「two people sitting at a bar having a drink」(二人の人がバーで飲んでいる)と言ったり、「dog in a field」(広場に犬がいる)ではなく「a golden retriever playing in field on a sunny day」(晴れた日にゴールデンリトリバーが広場で遊んでいる)などと言うようになる。まあ100%正しく犬種を言い当てるかどうかはわからないが雰囲気はわかる。

拡大鏡とローターも拡張され、広い範囲の点字は自動でスクロールするようになった。

視覚障害のあるデベロッパーは、Swift(スウィフト)とXcodeに多くのVoice Over機能が追加され、コード補完やナビゲーションなどのよく使う作業の確認もアクセシビリティ対応になった。

バックタップ

「back tap」(バックタップ)は、アップルデバイスでは初めてだが、Google PixelなどのAndroid端末ユーザーにとってはなじみのある機能だ。端末の裏側を2、3回タップすることでショートカットを起動できるもので、犬のリードや紅茶のカップを持っている時に、もう片方の手で画面読み上げを起動するのにすごく便利だ。

容易に想像できるようにこれはどんな人にとっても便利で、あらゆるショートカットやタスクを実行するようにカスタマイズできる。残念ながら、この機能は今のところFace ID(顔認識機能)のある機種に限られるため、iPhone 8やSEなどのユーザーはおいてきぼりだ。秘密のタップ検出ハードウェアが使われているとは考えにくいので、iPhoneに当初から内蔵されている加速度センサーを利用していることはほぼ間違いない。

アップルが特定の機能をさしたる理由もなく人質にとるのは珍しいことではない。例えば、拡張された通知機能は、iPhone SEのような最新機種でも利用できない。しかし、アクセシビリティ機能でこれをやるのは普通ではない。アップルはボタンを有する端末でバックタップが利用できるようになる可能性を排除しなかったが、約束もしていない。この便利な機能がもっと広く利用できるようになることを願うばかりだが、時を待つほかはない。

[原文へ]

(翻訳:Nob Takahashi / facebook

投稿者:

TechCrunch Japan

TechCrunchは2005年にシリコンバレーでスタートし、スタートアップ企業の紹介やインターネットの新しいプロダクトのレビュー、そして業界の重要なニュースを扱うテクノロジーメディアとして成長してきました。現在、米国を始め、欧州、アジア地域のテクノロジー業界の話題をカバーしています。そして、米国では2010年9月に世界的なオンラインメディア企業のAOLの傘下となりその運営が続けられています。 日本では2006年6月から翻訳版となるTechCrunch Japanが産声を上げてスタートしています。その後、日本でのオリジナル記事の投稿やイベントなどを開催しています。なお、TechCrunch Japanも2011年4月1日より米国と同様に米AOLの日本法人AOLオンライン・ジャパンにより運営されています。