Birdがニューヨークで電動車いす用アタッチメントをテスト

共有型マイクロモビリティ企業であるBird(バード)は、障がい者がアクセスできるモビリティを増やすために、車いす用バッテリー駆動アタッチメントの試験的導入を限定的に開始する。

この新しい「adaptive program(アダプティブ・プログラム)」は、この夏に拡張されるニューヨーク市ブロンクスのeスクーター試験走行の一部となる。試験地域の個人はこのプログラムに申し込むことができ、参加資格があれば、Birdのチームが直接アタッチメントを届け、セットアップと使用方法を教える。

「セットアップは、Birdの技術者により30分から1時間かかります。最初に取り付けた後は、デバイスは数秒で車いすにラッチオン / オフするはずです」と、Birdの広報担当者はいう。

このプログラムは、Birdが、障がい者がアクセシブルなクルマを探して予約し、支払うことができるようにしたScootaround(スクータアラウンド)というオンデマンドのアクセシブルモビリティプログラムを拡大した数カ月後に登場した。

競合のLime(ライム)は、Lime Able(ライム・エイブル)という同様のアクセシビリティプログラムを行っており、Limeが障がい者や標準的なスクーターでは自信がない人に、3輪スクーターや座席付きスクーターなどの適応型車両を宅配(24時間レンタル)している。

Birdによると、同社の車いす用アタッチメントは、350ワットのモーター、軽量で取り外し可能なリチウムイオンバッテリー、前進と後退の別々のスロットルを備えており、利用者が時速12マイルまで進むことができる。同社は、このアタッチメントが、ライダーの傾斜地の移動や市街地の長距離移動をより容易にするという。

「Birdのadaptive programは、すでに私がより速く移動し、より多くのことを達成するのに役立っています」と、最初のプログラム参加者の1人であるブロンクス在住のEduardo Hernandez(エドゥアルド・ヘルナンデス)氏は声明の中で述べている。「新しいスピードは最高です。スーパーマーケットやその他の用事が非常に楽になりましたし、通常であれば非常に疲れる上り坂でも、信じられないほど役に立っています」。

多くの車いすは保険で賄われているため、このようなアタッチメントが保証を無効にするか、保険の規定に反するかどうかは不明で、Birdはこの件に関する説明に回答しなかった。しかし、Birdは、同社がニューヨーク市交通局、ニューヨーク市長室障がい者課、地元のニューヨーク市障がい者支援団体と協力して、参加者を探していることを明らかにした。

このサービスは現在、ブロンクス区の参加者に無料で提供されている。

画像クレジット:Bird

原文へ

(文:Rebecca Bellan、翻訳:Yuta Kaminishi)

マイクロソフトの「PeopleLens」プロジェクトは視覚に障がいをもつ子どもが社交的ヒントを学ぶ手助けをする

視覚障がいがある成人にとって困難なことの1つに、目が見える人たちの社交、会話に使われるボディランゲージを理解して参加することがある。PeopleLens(ピープルレンズ)はMicrosoft(マイクロソフト)の研究プロジェクトで、ユーザーに周囲にいる人たちの位置と名前を知らせて、会話をより豊かで自然なものにすることが目的だ。

晴眼者は部屋で周囲を見渡すだけで、どこに誰がいて誰が誰と話しているかなど、社交的な手がかりや行動に役立つ数多くの基本的情報を瞬時に得ることができる。しかし視覚障がい者は、現在、誰が部屋に入ってきたのか、誰かがその人を見て会話を促したのかどうか、必ずしも知ることができない。これは、集団への参加を避けるなど孤立や非社交的行動につながる。

Microsoftの研究者たちは、視覚障がいをもって生まれた子どもがその情報を得て有効に活用するために、テクノロジーをどう役立てられるかを知りたかった。そして作ったのがPeopleLens、ARメガネで動作する高度なソフトウェア群だ。

メガネに内蔵されたセンサーを使って、ソフトウェアは知っている顔を認識し、その人のいる場所と距離を音声によるヒントで示す。クリック、チャイム、名前の読み上げなどだ。例えばユーザーの頭が誰かに向くと小さなぶつかる音が鳴り、その人が3メートル以内にいれば続けて名前が読まれる。その後高くなっていく音によってユーザーがその人物の顔に注意を向ける手助けをする。他にも、近くにいる誰かがユーザーを見たときにも通知音が鳴るなどの機能がある。

PeopleLensソフトウェアとその3D表示(画像クレジット:Microsoft Research)

これは、この種のデバイスを一生身につけるということではなく、さまざまなヒントに気づき、社交的な反応を見せる能力を向上するための支援ツールとして使うことが目的だ。他の子どもたちが視覚を利用して学習する非言語的スキルを身につけるためにも役立つ。

現在のPeopleLensはまだまだ実験に過ぎないが、これまでに研究チームはかなりの年月を費やしてきている。次のステップは、英国内で5~11歳の長期間デバイスをテストできる子どもたちを集め、同世代分析を行うことだ。自分の子どもがあてはまると思う人は、MicrosoftのパートナーであるUniversity of Bristol(ブリストル大学)の研究ページで申し込みができる。

画像クレジット:Microsoft Research

原文へ

(文:Devin Coldewey、翻訳:Nob Takahashi / facebook

視覚障がい者向けの触覚ディスプレイ「Dot Pad」

点字は視覚障がい者に広く利用されているが、ウェブやスマートデバイスのアクセシビリティが幅広く向上しているにもかかわらず、点字読書器のハードウェアの技術革新は基本的に滞っている。今回Dot(ドット)が開発したスマート点字デバイスは、文字を表示するだけでなく、画像を触覚で表現することができる。このことは教育や利用できるコンテンツにまったく新しい層を開く可能性がある。

同社のDot Pad(ドットパッド)2400本のピンが画素のように並んでおり、それらをすばやく上下させることで、点字文字や識別しやすい図形をかたち作ることができる。300文字分の点字表示領域を持ち、下部には20文字が表示できる従来のような直線領域がある。重要なことは、このデバイスがApple(アップル)の画面読み上げ機能VoiceOver(ボイスオーバー)に直接統合されていることで、この結果テキストやアイコンラベル、さらにはグラフや単純な画像をタップするだけで読み上げられるようになっていることだ。

韓国を拠点とする同社は、共同創業者のKi Kwang Sung(キ・クワン・ソン)氏とEric Ju Yoon Kim(エリック・ジュー・ユン・キム)氏によって創業された。彼らはコンピューターやインターフェースがこれだけ進化しているにもかかわらず、学習や読書のための選択肢がないことにうんざりしていたのだ。

デジタル点字ディスプレイはこれが初めてではない。このようなデバイスは何十年も前から存在していたが、その台数も機能も明らかに限られていた。デジタル文字を読むための点字ディスプレイが一般的だが、これは長年変わっていない古くさく不格好な1行表示機械で、他のやはり古くさいソフトウェアやハードウェアに依存したものであることが多い。

また、一般にこれらの機器は、子どもや学習を意識して作られていない。視覚障がいのある子どもたちは、教科書がなかったり、視覚障がいを考慮した活動が行われていないなどの、多くの社会的ハンディキャップに晒されている。そのため、ある子どもの両親は、幼児レベルで点字を教えることができる玩具BecDot(ベックドット)を開発した

ソン氏は「21世紀にもなって、視覚障がい者がグラフィカルな情報にデジタルな手段でアクセスできないのはおかしなことです」という。「教育、仕事、ソーシャルネットワークサービスなど、あらゆる業界でさまざまなイノベーションが起こり、グラフィック情報の要求が高くなっています。しかしそれが意味していることは視覚障がい者の切り捨てです。パンデミックの状況でも、障がい者のためのリモートワークや教育手段は必須だったのですが……そのためのソリューションがなかったのです」。

そこで2人は、一般人が当たり前のように使っているピクセルベースの画像や表現に、視覚障がい者がアクセスし、操作できるようなモニターを作ろうと考えたのだ。

画像クレジット:Dot

点字リーダーは一般に、ピンを必要に応じて上下させるために何百もの小さなヒンジとギアに依存しているので、非常に複雑な機械だ。また、継続的に触れることによる圧力に耐えられるような頑丈さも必要だ。これまでにも、権威ある研究機関からさまざまなイノベーションが生まれていたものの、実際に市場に出たものはなかった。Dotは、より優れた高性能のハードウェアを提供するだけでなく、スマートフォンやタブレット端末とのより深い連携によって、すべてを変革しようとしている。

Dot Padの革新性の核となるのは、やはり「ドット」そのものだ。この小さなピン(点字1文字につき6本)を何十本、何百本と、いかに確実に、すばやく(大きな音を立てずに)伸縮させるかにに対して、さまざまな解決策が生み出されてきたが、Dotのものはまったく新しい解だ。

画像クレジット:Dot

ソン氏は「スピーカーのメカニズムから発想しました」と説明する。彼らは、スマートフォンのスピーカーを振動させている小さな電磁アクチュエーターを、ピンの上下に利用することした。上下の位置で簡単にロックでき、すばやくロックを解除して引っ込めることができる磁気ボールローターを採用している。全体の大きさは、これまでの機構の数分の一で「既存の圧電点字アクチュエーターに比べて、10分の1ほどです」とソン氏はいう(Dotは、その仕組みを示す概略図やピンの断面図を私には見せてくれたが、それらを一般に公開することは拒否した)。

つまり、文字として読める大きさでありながら、画像を表すパターンを形成するのに十分な密度を持つピンを、わずかな間隔で何千本も並べたグリッドを作ることができたのだ。ドットパッドの下部には、伝統的な点字のための専用セクションがあるものの、メインのグリッド側は何よりも「触覚ディスプレイ」と表現した方がよいだろう。

私は量産前の試作機で遊ぶことができたが、それは非常にうまく機能し、画面全体を上から下へと約1秒でリフレッシュし(これも現在改善されていて、アニメーションも可能になりつつある)、ユーザーの手で容易にスキャンできるように思えた。どちらのディスプレイも、ピンの保護スクリーンを採用していて、簡単に交換することができる。ピンユニットそのものも簡単に交換できる。

Dotのもう1つの大きなアドバンテージは、Appleとの協力だ。Dot Padは、ジェスチャーで起動することが可能で、ハイライトされたものを瞬時にディスプレイ上に表示することができる。以下の動画で、その様子を見ることができる。

そして、iOS 15.2には開発者向けの新しい「触覚グラフィックスAPI」が用意されていて、アプリはこの機能を取り入れたり微調整したりできるようになっている(私はこのAPIについてAppleにコメントを求めたので、もし返信があればこの記事を更新する)。

キム氏は「世界中の多くの視覚障がい者がiPhoneやiPadを利用していますが、これは業界をリードする画面読み上げソフトVoiceOverのおかげです」という。「Dotの触覚技術がVoiceOverに最適化されたことで、デジタルアクセシビリティが拡大することを大変うれしく思っています。音声や文字として点字を超えて、ユーザーのみなさんが映像を感じ、理解を高めることができるようになりました」。

もちろん忠実度という意味では制約されているものの、アイコンや線画、グラフなどをうまく表示することができる。例えば、株の記事の中のグラフを想像して欲しい。目の見える人なら一目で理解できるが、そうでない人は、VoiceOverに組み込まれた、グラフを上昇と下降の音で表現するような、別の方法を見つけなければならない。ないよりはましだが、理想的でないことは確かだ。Dot Padは、VoiceOverと独自の画像解析アルゴリズムにより、ディスプレイ上の任意の画面領域や要素を表現しようとする。

文字も、1ページ分の点字(通常のように間隔をあけて並べる)か、文字そのものの形で表現することができる。これにより、ロゴの書体などをよりよく理解することができる(点字には当然セリフ[文字の端にある小さな飾り]はない)。実際、大型の活字を触感を使って体験するというのは、なかなか面白そうだ。

画像クレジット:Dot

さらに大切なのは、子どもたちにとってすばらしい材料となることだ。視覚障がいのある子どもは多くのことを見落としているが、Dot Padを使えば他の人たちが当たり前と思っている家や猫などの文字や形、単純なイメージなどを簡単に描くことができるようになる……視覚障がい者のコミュニティにおけるK-12教育(幼稚園から高校までの教育過程)に新たな変革が加わる可能性があるのだ。

これはもちろん、一般的なデバイスと密接に連携できるおかげだ。つまり特殊な状況だけで使えるリソースというわけではない。iPhoneやiPadは、現代のデジタル機器としてユビキタス(普遍的)なだけでなく、Dotが活用できる強固なアクセシビリティ機能群を備えている。

もちろん、音声を使ったインターフェースが大幅に改善されたことは、グラフィカルなインターフェースを使えない人々にとって非常に大きな力となったことは事実だが、特に読書や学習の場面ではいまでも点字が重要な選択肢であることに変わりはない。技術によって機会が阻害されることがないように、こうした手法はさらに 改善されなければならない。

コミュニティからのフィードバックは好意的であるという。ソン氏は「みなさん限界よりも可能性を中心に考えていらっしゃいます」という。彼らは早い段階から、画像のレンダリングを改善するために「ピクセル」数を増やしており、Dot Padに適したカスタムグラフィックスのライブラリに取り組んでいる。このため、たとえばTwitterのロゴがソフトウェアに認識された際に、毎回輪郭をスキャンするのではなく、代わりに独自のバージョンを使うことができる。

Dotは、2023年にローンチ予定のAmerican Printing House for the Blind(盲人のための米国印刷協会)とHumanWare(ヒューマンウェア)が率いるDynamic Tactile Device(動的触覚デバイス)プロジェクトで、その中核技術を利用できるようにする予定だ。開発者コミュニティにはAPIの経験に対する議論に加わる機会がある。

画像クレジット:Dot

将来の機能計画には、写真の触覚表現が含まれている。必ずしも画像そのものではなく、レイアウト、人物の位置と説明、その他の情報がディスプレイに表示される可能性がある。また、ピンを中間の高さで固定し、手触りのグラデーションなどに利用する方法も研究している。また、パッドは表示だけでなく、入力としても使える可能性がある。ピンを押して、画面の適切な部分にタッチ信号を送ることができれば、また別の便利な機能となるだろう。

もちろん、これまでの点字ディスプレイと同様、Dot Padも安くはないし、シンプルでもない。しかし、他の類似製品よりは安くてシンプルとなる可能性はある。製造や組み立ては簡単なことではないし、特に今はチップやその他の部品の価格が高騰しているため、トータルコストは口にしにくい(主に自動車の窓のコントロールスイッチに使われていた小さなICを数千個使っており、今その価格は高騰している最中だ)。

幸いなことに、これこそ誰もお金を払う必要のない機器であり、補助金などの制度も数多く用意されている。子どもたちは学校で使う机のような、どうしても必要なものにお金を払う必要はない。そして、障がい者が良い教育を受けられるようにすることは、すべての人の利益につながる。アクセシビリティの向上は、それ自体ももちろん歓迎すべきことだが、これまで学べなかった人、参加できなかった人が、ようやく仕事に参加できるようになるという大きな連鎖反応があるのだ。

Dotの創業者たちは、韓国政府や米国政府、盲人社会、支援団体と協力し、Dot Padをカリキュラムに組み入れ、既存の資金や方法を使って費用を賄っているという。触覚グラフィックスAPIの詳細については、こちらおよびAppleの開発者向けサイトで確認できる。

画像クレジット:Dot

原文へ

(文:Devin Coldewey、翻訳:sako)

【コラム】アクセシブルな雇用が「大量退職時代」の解決策となる

さまざまな業界で従業員が仕事を辞めている。最近では、米国で2021年に4人に1人が仕事を辞めたという調査がある。転職がコロナ禍の不安定な経済状況によるものか、仕事を取り巻く環境の見直しか、納得のいかない雇用主に対する反抗なのかなどが考えられるが、いずれにしても確かなことが1つある。米国では2021年11月時点で1000万以上の求人件数があるのだ。

求職者の中には障がい者も数多くいる。障がいのある労働者は新型コロナウイルスに関連する解雇の影響を不当に大きく受けたからだ。2020年3〜4月に、障がいのある労働者の数は20%減少した。多くの組織がすでにダイバーシティ、公平性、インクルージョンに対する取り組みを見直している中、採用担当者はアクセシビリティを「すべての人」を迎える職場づくりにとって重要な要素として認識する必要がある。

アクセシブルな採用活動は適切なことであり、ADA(Americans with Disabilities Act、障害を持つアメリカ人法)が求める要件だが、それだけではなく広範囲に及ぶ労働力不足を解消し、企業が優秀な多くの人材を集めることにもつながる。

しかし障がいのある応募者にアプローチする戦略を考える前に、それを邪魔する誤解をいくつか挙げておこう。

誤解:障がいのある人を雇おうとしたら、採用の基準を下げなくてはならない。

事実:障がいのある人が他の人より高いパフォーマンスを示すことは少なくない。しかも障がい者を雇用する企業では、インクルーシブなプロダクトを開発して新たな市場の獲得につながるイノベーションが進むため、結果として年間収益が28%多い。

誤解:障がいのある従業員は他の人に比べて欠勤が多い。

事実:障がい者の出勤率は他の従業員と変わらないか、むしろ高い。また、離職率も低い。離職率は2021年に生産性に大きな影響を与えた問題だ。

誤解:受け入れの配慮に費用がかかりすぎる。

事実:まず、配慮の56%には費用がまったくかからない。そして費用がかかる場合のうち50%は500ドル(約5万7000円)未満だ。さらに障がい者のインクルーシブな雇用からは利益の増加や株主還元も期待できるので、組織にとっては得るものばかりだ。

アクセシビリティの文化による好影響を組織が認識したら、次は障がいのある候補者の採用方法を考えることになる。採用方法の検討には、カリフォルニアに住む障がい者の権利向上に取り組むNPO法人、Disability Rights CaliforniaのLoule Gebremedhin(ルール・ゲブレメドヒン)氏とJennifer Stark(ジェニファー・スターク)氏によるガイドラインを利用するとよい。

第1段階:募集

組織内を客観的に見る

採用プロセスを始める前に、組織は内部をよく見る必要がある。現実を認識し、障がい者を戦力として雇用するだけではない。障がいのある従業員の専門性と経験を評価し、専門性の成長を支援する環境を作るということだ。

次の質問に対する答えを考えて、ゴールを明確にしよう。障がいに関する現在の自分たちの文化はどのようなものだろうか。成長と定着を受け入れる準備はできているだろうか。公平な雇用プロセスは自分たちの大きなゴールにどのようにつながるだろうか。

組織内では福利厚生も検討する必要がある。よく知られていることだが、候補者が入社を検討する際に充実した福利厚生が検討材料となることは多い。障がい者にとってその意味はさらに大きい。多くの場合、包括的な心身の医療保障制度が勤務先を選ぶ際に最も重視されるポイントだ。

リモートワークも重要な福利厚生だ。近年、我々は家で仕事をするメリットを目撃してきた。通勤にかかる時間や費用の減少、子育ての柔軟性、高い生産性などだ。障がいのある人にとっても同様で、さらに自分のニーズに合う仕事の環境を作れるメリットもある。例えば視覚障がい者は自分にとって最も見やすい部屋の明るさを決められる。

募集の準備を整える

次に、採用担当者は職務内容と応募書類を改訂して障がい者が応募しやすいようにする。「どのように」業務を遂行するかではなく、ゴールを達成するために必要な最終的なスキルを記述するように構成し直す。例えば「口頭での高いコミュニケーション能力」ではなく「効果的にコミュニケーションできる能力」とする。米国労働省の取り組みであるEmployer Assistance and Resource Network on Disability Inclusion(障がい者インクルージョンに関する雇用主向けサポートとリソースのネットワーク)が出しているガイドが、記述を改訂する際の参考になる。

障がい者にとって応募書類を見つけて記入することは極めて難しい。デジタル応募書類の多くはアクセシビリティの要件を満たしていないからだ。このままでは障がいのある応募者の数が少なくなってしまうだけでなく、組織にとってはADA違反という法的リスクとなりかねない。応募のプロセスに対応するアクセシブルなサイトやフォームを作る開発者向けのトレーニングとツールを活用するのが、コンプライアンスを維持しつつ対象となるすべての候補者が等しくアクセスできるようにするための手軽な方法だ。

第2段階:面接

前もって対応する

障がい者は対応を要請することに慣れている。しかし要請する必要がないとしたらどうだろうか。面接のプロセスであらかじめ求職者に対して配慮していれば、求職者にとってはその組織がアクセシビリティを重視していることの確認になる(そしてこれはADAの要件でもある)。

例えば対面での面接なら、車いす利用者が面接会場に問題なく到着できるかを考慮する。バーチャル面接なら、ミーティングのプラットフォームで最低でも自動キャプション機能を有効にできることを確認する。ライブキャプションや手話を利用できればなお良い。

採用責任者をトレーニングする

採用責任者の偏見が、障がい者雇用率の低さの根底にある。組織は障がいに関するエチケットと倫理の基本や、ADAに準拠した質問に関するトレーニングを実施することで、認知度を高め偏見をなくす上で積極的な役割を果たすことができる。採用チームに障がい者を含めることも、障がいに対する意識を高めることにつながる。

第3段階:オファー

障がいのある従業員を雇用する際には、組織は競争力があり候補者のニーズにも合うオファーを提示する段階を踏む必要がある。

  • 業界全体の同様の職務と同等の報酬であることを確認する:障がい者の報酬が不当に低いことはよくあり、最低賃金以下で障がい者が働くことを許す方針がいまだに残っていることを忘れないようにする。
  • 対応できるシステムを作る:採用予定者に対して、対応を要請できることを知らせる。また、その要請に応える方針を策定する。米国労働省が資金を提供し障がい者雇用のリソースとなっているJob Accommodation Networkは、どのように対応するかの知見を得るのに役立つ。
  • メンタリングと定着のプログラムを構築する:成長とリーダーシップを支援するために、専門のメンタリング、教育、ネットワーキングの機会を提供する。

この1年間で、組織は職場のダイバーシティ、公平性、インクルージョンに関して大きな進歩を遂げた。アクセシビリティはこうした考え方の一部であり、組織が包括的なゴールを達成するためのものととらえる必要がある。

適切な行動をとることからさらに進んで、障がいのある候補者を求め、その人が成功できる環境を提供する雇用プロセスを促進すれば、現在の人材不足を解消し、イノベーションを加速し、組織の文化を強くすることにつながる。

編集部注:本記事の筆者のMeagan Taylor(ミーガン・テイラー)氏はDeque Systemsのプロジェクトマネージャーで、ウェブを含め資本や機会に対する組織の障壁をなくすことに熱心に取り組んでいる。

画像クレジット:kyotokushige / Getty Images

原文へ

(文:Meagan Taylor、翻訳:Kaori Koyama)

【コラム】高まるアクセシビリティへの意識、それは行動につながっているのだろうか?

ほぼ2年にわたり、世界中の人々が世界との関わり方を大きく変えてきた。それは多くの人々に日々の行動を変えさせた。残念なことに、これらの変化の一部によって、多くの人が当たり前に思っている日常業務が、アクセシビリティやアコモデーションを必要とする人にとって気が遠くなるような困難なものになってしまうことがある。

ハリス世論調査では、米国の成人の半数以上がパンデミックのためにオンライン活動を増やしていることが明らかになっている。障がいのある人の場合、その数字は60%になる。

オンライン活動が増えたからといって、誰もが目標を達成できるわけではない。では、この危機はアクセシビリティにどのようなインパクトを与えているのだろうか。アクセシビリティの重要性について、組織は最終的にメッセージを受け取っているのだろうか?

増加傾向にあるアクセシビリティへの意識

近年、どこを見てもアクセシビリティや障がいのある人についての何かがあるように感じられるのではないだろうか。大手テック企業のテレビ広告の多くは、障がいのある人々やアクセスしやすいテクノロジーを取り上げている。

Apple(アップル)ではネットワークテレビの最初のプライムタイム広告の始まりを告げ、Microsoft(マイクロソフト)は米国最大の試合中に広告を出している。Google(グーグル)の広告では、耳の不自由な男性が、自分のPixel(ピクセル)スマートフォンでLive Caption(ライブキャプション)を使って初めて息子に電話をかける様子が描かれている。またAmazon(アマゾン)の広告には、聴覚に障がいのある従業員Brendan(ブレンダン)氏の職場や家での姿が映し出されている。

アクセシビリティへの意識が高まっているのは明らかだ。2021年5月の「Global Accessibility Awareness Day(グローバル・アクセシビリティ・アウェアネス・デー)」に敬意を表し、Apple、Google、Microsoftは自社プロダクトのアクセシビリティに関する多数のアップデートとリソースを発表した。DAGERSystem(デーガーシステム)は、近くリリース予定のAccessible Games Database(アクセシブルゲーム・データベース)を公開した。これによりゲーマーは、プラットフォームごとにアクセシブルゲームを検索し、聴覚、視覚、色、微細運動のカテゴリー別にアクセシビリティをフィルターできるようになる。

テック企業がアクセシビリティについて語り、それをプロモーションし、マーケティング予算の一部にしているのはすばらしいことだ。しかし、それについて語ることと行動を起こすことの間には違いがある。語ることでウェブサイトのアクセス性が向上するわけではない。それには行動が必要である。

最近のForrester(フォレスター)サーベイでは、10社中8社がデジタルアクセシビリティに取り組んでいることが示された。では、実際に何か変化は起こっているのだろうか。人々は障壁なしにウェブサイトを利用することができているだろうか?

インターネット利用率の上昇はアクセシビリティを向上させたか

これは、2021年のState of Accessibility Report(SOAR、アクセシビリティの状況レポート)で明らかにされた疑問である。SOARの目的は、企業や業界全体のアクセシビリティの現状を評価することにある。アクセシビリティが改善された点や、作業が必要な部分を見つけるためのツールとなっている。

同レポートはこれまで、Alexa(アレクサ)のトップ100ウェブサイトのアクセシビリティの状態を分析することで、アクセシビリティの指標を得てきた。このレポートでは、販売数ではなく、最も人気のあるデジタルプロダクトに焦点を当てている。ほとんどの場合、変化は上位から始まる。上位で状況が改善すれば、残りは後に続く。

80/20ルールとしても知られるパレートの法則がここで適用される。デジタルプロダクトの上位20%でトラフィックの約80%に到達する。

興味深いのは、Alexaのトップ100は2021年に31の新しいウェブサイトをリストしているが、それらは2019年や2020年にはトップ100に入っていなかったことだ。2019年にAlexa 100のリストに掲載されたウェブサイトの中で、2021年のリストに掲載されたのはわずか60%であった。

こうした変化や現在のAlexaトップ100ウェブサイトをレビューすることで、パンデミックによってオンライン行動がどのように変化したかが容易に見て取れる。上位のウェブサイトには、ファイル転送やコラボレーションツール、配送サービス、Zoom(ズーム)やSlack(スラック)などのコミュニケーションツールなど、多くの生産性アプリが含まれていた。

ビデオプラットフォームに関していえば、特にクローズドキャプションが導入された地域において、パンデミックがアクセシビリティに大きなインパクトをもたらしたことは明らかであろう。2020年4月の時点で、Skype(スカイプ)以外のビデオプラットフォームには自動キャプションが組み込まれていなかった。残念ながら、Skypeのキャプションは最高の品質とはいえなかった。

Google Meetには、2020年5月までにキャプションが追加された。この時点でZoomは、自動キャプションのベータテストを行っていた。だが当初は有料アカウントにのみ展開していた。嘆願書の提出を受け、Zoomは無料アカウントでの提供に同意した。そうなるまでに約8カ月を要している。

6月頃には、Microsoft TeamsのiOSアプリで、Teamsのネットワーク上にいないユーザーが無料でキャプションを付けて利用できるようになった。これは良いスタートだが、ビデオプラットフォームのアクセシビリティにはキャプション以上のものが求められる。マウスなしでナビゲートできる必要がある。キャプションに加えて、プラットフォームはトランスクリプトを提供する必要がある。スクリーンリーダーや更新可能な点字デバイスと互換性があるのは、キャプションではなくトランスクリプトになる。

Alexaのトップ100ウェブサイトのテスト結果は以下の通りである。

  • テストしたウェブサイトのうち、スクリーンリーダーがアクセシブルであるのは62%で、2020年の40%から増加した
  • すべてのページが、有効なドキュメント「lang」属性を持つことに対して合格となった
  • テストしたウェブサイトのうち、入力フィールドのラベルにエラーがあったのはわずか11%だった
  • 最も一般的なエラーはARIAの使用であった
  • 2番目に多いエラーは、カラーコントラストであった

要約すると、Alexaのトップ100ウェブサイトのスクリーンリーダーのテストでは、2019年と2020年のテストよりも大幅な改善が見られた。

モバイルアプリはどうだろうか?ある調査では、モバイルインターネットに費やされる4時間について、回答者の88%がその時間をモバイルアプリに費やすと答えている。アプリの利用率が高く、アクセシビリティコミュニティがアプリのアクセシビリティに関心を持っていることから、SOARは今回初めてモバイルアプリをテストした。Web Content Accessibility Guidelines(WCAG、ウェブコンテンツ・アクセシビリティガイドライン)2.1では、モバイルデバイスのアクセシビリティに関する10の成功基準が追加されている。

モバイル分析では、iOSとAndroid向けの無料アプリのトップ20と、両OS向けの有料アプリのトップ20に注目している。最大の驚きは、無料アプリの方が有料アプリよりはるかにアクセシブルであったことだ。

無料アプリの主要機能のアクセシビリティをテストしたところ、iOSアプリの80%、Androidアプリの65%が合格した。有料アプリの主要機能のアクセシビリティに関しては、合格したのはiOSアプリでわずか10%、Androidアプリで40%であった。

なぜ格差があるのか?Statista(スタティスタ)によると、93%以上がAndroidとiOSデバイスの両方で無料アプリを使用しており、無料アプリのユーザー数は有料アプリをはるかに上回っている。プロダクトの利用者が増えれば増えるほど、利用者がアクセシビリティに関する要望やフィードバックを行う可能性が高くなる。また、無料アプリを提供している企業の多くは、アクセシビリティを最優先事項としている大手テック企業である。

私たちができること

デジタルアクセシビリティが進歩しているのはとても喜ばしいことだが、企業は軌道を維持する必要がある。そのための最も効果的な方法の1つは、アクセシビリティに対するトップダウンのアプローチを採用することである。それを企業文化の一部にしていくのである。

アクセシビリティ優先の文化をひと晩で構築するということはなく、数カ月で構築することもない。時間が必要となる。どんな小さな一歩も進歩である。重要な点は、どんなに小さくても最初の一歩を踏み出すことだ。それは、画像に代替テキストを追加することを社内の全員に指導するようなシンプルなものかもしれない。あるいは、適切な見出しの使い方について、ということも考えられよう。

マッスルメモリーになるには相当な練習が必要となる。あるものを制覇したら、次のものに移る。SOAR 2021によると、多くの企業が代替テキストと見出しを習得し始めているという。しかし、彼らはカラーコントラストとARIAに苦戦している。おそらくそれが次のステップになるだろう。

アクセシブルなプロダクトを生み出すには、障がいのある人たちがそのプロセス全体に関わる必要がある。そう、実用最小限のプロダクトを構築する前に。さらに良いのは、障がいのある人を雇用することで、常に専門家の手が届くようにすることだ。

アクセシビリティの格差が大きい理由は、教育と訓練の不足にある。企業はプロダクト開発チームだけではなく、すべての人を訓練する必要がある。開発チームはアクセシブルなウェブサイトを作ることができるが、マーケティング担当者がキャプションなしでビデオを投稿したり、グラフィックデザイナーがコントラストの悪い画像を作成したり、営業担当者がアクセシブルでないPDFファイルを公開したりすると、その苦労はすべて水の泡になる。

アクセシビリティはすべての人の責務といえよう。

編集部注:本稿の執筆者Joe Devon(ジョー・デボン)氏は、アクセシブルな体験を構築するデジタル・エージェンシーであるDiamondの共同設立者。また、Global Accessibility Awareness Dayの共同設立者であり、GAAD Foundationの議長も務めている。

画像クレジット:twomeows / Getty Images

原文へ

(文:Joe Devon、翻訳:Dragonfly)

ツイッターが自動キャプション機能を追加し動画をよりアクセシブルに、日本語含む30以上の言語で

米国時間12月14日より、Twitter(ツイッター)は動画に自動生成キャプション機能を導入する。この機能により、耳がまったく聞こえない、または聴覚障害を持ったユーザーが動画によりアクセスしやすくなる。自動キャプションはウェブ、iOS、Android版で、英語、スペイン語、日本語、アラビア語、タイ語、中国語、ヒンディー語など、30以上の言語で利用できる。

キャプション機能は、Twitterが12月8日からテストを開始した新しいバーティカルフィードで役立つ可能性がある。このフィード方式が一般に展開されれば、同アプリの「Explore(話題を検索)」タブがTikTok(ティックトック)のようになり、動画を含む、アルゴリズムで推奨されるコンテンツが一度に1つずつ表示されることになる。このようなフィードでは、動画にキャプションがついていることが期待される。公共の場でヘッドフォンが手元にない場合でも、フィードを簡単にスクロールできるからだ。

関連記事:他社に続きツイッターもTikTokを模倣、検索タブがビデオフィード化するテスト実施

しかし、TikTokやInstagram Reelsの動画キャプション機能では、投稿前にキャプションのテキストを編集することが可能だが、Twitterではユーザーがキャプションを微調整することはできない。つまり、自動キャプションをより正確にするために、ユーザーがエラーを修正することはできないということだ。

自動キャプションや画像の代替テキストなどのアクセシビリティ機能は、2020年9月についにアクセシビリティ専門チームを創設した後、Twitterがよりフォーカスしている分野だ。この人事配置の変更は、2020年夏に自動キャプションのない音声ツイート機能を試験的に導入した際に、ユーザーから批判を受けたことがきっかけとなった。現在では、音声ツイートと同社のClubhouse(クラブハウス)のライバル機能であるTwitterスペースは、どちらもキャプション機能を備えている

Twitterが動画のキャプションをサポートするのは新しいことだが、同社はすでにTwitterスペースと呼ばれるライブオーディオチャットルームでキャプション技術を使用していた。

Twitterは、キャプションを含むスペースの音声コピーを30日間保存し、同アプリのガイドラインに違反していないかどうかコンテンツを確認するとしている。特定のスペースに違反が見つかった場合、Twitterはそれらの記録をさらに90日間保管し、スピーカーが違反決定に不服を申し立てる機会を提供する。

Twitterとユーザーにとって残念なことに、このプロセスはプラットフォーム上での不正使用の問題に対処するには十分ではない。Twitterスペースのユーザーはこれまで、人種差別的なタイトルのスペースなど、明らかに問題のあるコンテンツを配信され、Twitterがその報告を受けた後も有害なコンテンツはフィードに残っていた。TwitterのコミュニティマネージャーであるSimon Balmain(サイモン・バルマン)氏は最近、この問題に取り組んでいるとツイートしたが、同社のシステムが既存の報告機能や、スペースの音声やキャプションの保管を超えて拡張されるかどうか、あるいはどのように拡張されるかについて、Twitterはまだ詳細を明らかにしていない。

画像クレジット:Bryce Durbin / TechCrunch

原文へ

(文:Amanda Silberling、翻訳:Aya Nakazato)

視覚障がいを持つ人のモビリティを強化するためスマート杖のWeWALKと提携したMoovit

世界的に人気の旅行計画アプリを提供するMaaS(モビリティ・アズ・ア・サービス)プロバイダーであるインテル傘下のMoovit(ムーヴィット)は、視覚障がい者がより安全かつ効率的に目的地に到達できるようにするために、スマート杖の会社WeWALK(ウィーウォーク)と提携した。

WeWALKの研究開発責任者Jean Marc Feghali(ジャン・マルク・フェガリ)氏によると、WeWALKのアプリは、MoovitのTransit APIと統合される予定だ。このAPIは、視覚障がい者が公共交通機関を安全に利用できるようにするために、地域の交通機関の公式情報とクラウドソースの情報を組み合わせて、各旅程に最適なルートを導き出す。

今回の提携は、共有する電動スクーターや自転車をアプリ内に表示するための、Lime(ライム)、Bird(バード)、そして最近ではSuperpedestrian(スーパーペデストリアン)などのマイクロモビリティ企業とMoovitとの統合に続くものだ。また、Moovitは、交通不便地域の利用者のためのオンデマンド交通サービスや、自律走行型送迎サービスを提供するためにインテルのMobileye(モービルアイ)と提携するなど、新たなビジネスユニットを立ち上げている。

現在3400都市で展開しているMoovitは、あらゆる場所で、あらゆる人にサービスを提供しようとしているようで、その中にはもちろん視覚障がい者も含まれるべきだ。障がい者コミュニティ向けの交通技術は決して多くはないが、いくつかの有用なイノベーションが生まれ始めている。例えば、本田技研工業のインキュベーション企業であるAshirase(あしらせ)は、最近、WeWALKの杖に似た靴の中のナビゲーションシステムを発表した

杖自体は、シャフトを介してアナログ的に地上の障害物を検知することができるが、杖に取り付けられたスマートデバイスは、超音波センサーを用いて上半身の障害物を検知する。また、杖に内蔵された振動モーターによる触覚フィードバックにより、さまざまな距離の障害物を警告する。

「WeWALKは、バス停への道案内など、さらに多くのことができます」とフェガリ氏は、TechCrunchの取材に対し述べた。「Bluetoothを介して、スマート杖は、WeWALKスマートフォンアプリに接続します。このアプリは、最も包括的で利用しやすい視覚障がい者向けナビゲーションアプリの1つだと考えています。当社のアプリは、Moovitサービスと、当社が独自に開発したナビゲーションエンジンとアプリのインターフェースを統合して、徒歩や公共交通機関のナビゲーションや都市探索機能を提供します」。

ユーザーがアプリに目的地を入れてルートを選択すると、スマート杖は音声ガイドとロービジョンマッピングによってユーザーの旅を段階的に案内し、交通機関の停留所を指示したり、次の交通機関の車両が到着したことを知らせたりする。また、乗車時や目的の停留所に到着した際には通知されるため、利用者は自分が正しい停留所にいることや、降りるタイミングを知ることができる。

ユーザーにとっての一番の利点は、片手で携帯電話を持ち、もう片方の手で杖を持つ必要がないことだ。スマート杖の柄の部分にはアプリと接続されたタッチパッドが内蔵されており、ジェスチャーを使ってスマホを操作しながら、現在地の確認、交通機関の時刻表や近くの交通機関の停留所の確認、目的地までの移動などができる。

「例えば、ユーザーがインペリアル・カレッジ・ロンドンに向かう際には、スマート杖がルートの選択肢をアナウンスし、各段階に応じてユーザーを案内します」とフェガリ氏は述べた。「歩きの場合、WeWALKはバッキンガム・パレス・ロードを12時の方向に50m進み、3時の方向に右折してステーション・ロードに入りますとアナウンスします。地下鉄の駅では、WeWALKが電車の到着時に乗るべき電車を通知し、降りる必要がある前にユーザーに知らせます」。

今回の提携は、金曜日の国際障がい者デーに合わせたもので、視覚障がい者が雇用や教育、社会活動の機会を得るために、より自律的で自由な移動ができるようになることを期待している。

「目の不自由な方は、これまでにないほど自立した生活を送ることができているが、公共交通機関を利用して移動することはまだ困難で、圧倒されることもあります」Moovitのチーフグロース&マーケティングオフィサーYovav Meydad(ヨバフ・メイダッド)氏はコメントしている。「今回の提携により、移動手段の障壁を取り除き、人々に安心感を与え、より多くの機会にアクセスできるようになることを目指します」。

画像クレジット:Moovit

原文へ

(文:Rebecca Bellan、翻訳:Yuta Kaminishi)

ゲームにおけるアクセシビリティは課題でありチャンスだという英国のレポート

ゲームのコミュニティ、開発者、パブリッシャーが、アクセシビリティをビジネスと楽しみの重要な部分と考え始めている。しかし先はまだ長い。英国における障がい者ゲーマーのニーズと習慣のレポートは、世界中の多くのゲーマーがプレイや購入などゲームを楽しむ際にいつも困難に直面することを示唆している。

障がい者支援組織のScopeが実施したアンケート調査についてゲームメディアのEurogamerにVivek Gohil(ビベック・ゴーヒル)氏が寄稿したところによると、1326人(障がい者812人、障がい者でない人514人)がゲームの世界で直面する問題について回答した。

回答者の3分の2がゲームに関する障壁に直面し、最も多い障壁は支援技術に対応していない、あるいは手頃な価格で利用できないということだった。アクセシビリティのオプションがないためにゲームを購入しなかった、あるいはアクセシビリティが欠如しているゲームを購入したがゲームをプレイ(または返品)できなかったと回答した人が多かった。

興味深い点として、障がいのあるゲーマーはゲーム内アイテムを購入したりeスポーツを観戦するなど、さまざまなプラットフォームに関わる傾向がかなり強い。ゴーヒル氏が指摘しているように、英国内だけでも1400万人ほどの障がい者が多くの可処分所得を有している。その中にはアクティブなゲーマーが多数いて、経済効果が望める人々だ。それにもかかわらず、ゲーム内広告のターゲットにしたりゲームに登場したりする層であるとはほとんど考えられていない。

アクセシビリティのオプションを備えればあらゆる人にとってより良いゲームになると認識する大手開発企業が増えて、こうした状況は変化しつつあるようだ。「ラチェット&クランク」「The Last of Us Part II」「Forza Horizon 5」などの新作人気タイトルは、色覚特性からゲームプレイのスピードダウン、きめ細かい難易度設定などに幅広く対応している。

中小企業が多様なニーズに応える支援デバイスを製造するようになって、ハードウェアも向上しつつある。MicrosoftのXbox Adaptive Controllerはこれまでのコントローラを使えない人たちの間で大ヒットとなった。

Microsoftは最近、スペシャルオリンピックスとの共催でインクルージョンを重視したeスポーツのトーナメントも開催した

関連記事:Xboxとスペシャルオリンピックスが知的障がい者のためのeスポーツイベントを初開催

しかしすべきことはまだたくさんあり、それはエンジニアリングや開発にはとどまらない。ゲーム内チャットは特に問題がないときでも有害であることは周知の通りだが、障がい者がチャットに参加するとひどい状況になることがScopeの調査で明らかになった。「オンラインでの障がいに対するネガティブな態度への対応にもっと取り組むこと」は優先事項として最も多い回答だった。ゲーム内で障がい者がもっと正確に、また頻繁に登場することと、支援技術がもっと手頃な価格になることも重要であるとの回答も多かった。

ゲームの世界でのアクセシビリティの向上が必要であることは明らかだが、その評価は難しい。このため、こうした研究は極めて有用だ。レポートの全文はこちらから読むことができる。

画像クレジット:aurielaki / Getty Images

原文へ

(文:Devin Coldewey、翻訳:Kaori Koyama)

Clubhouseにようやく字幕機能、日本語など13言語に対応しまずはiOS版

Clubhouse(クラブハウス)は米国時間11月17日、iOS向けに字幕機能の提供を開始したことを発表した。この不可欠なアクセシビリティ機能は、Clubhouseアプリでは長い間見落とされてきた。Twitter Spacesのような競合製品ではすでに当たり前になっていたこのライブキャプションがないことで、Clubhouseは聴覚障がい者にとって使い勝手の悪いものになっていた。そしていま、Clubhouseはより多くの人にリーチできる。

「現在、キャプションは13言語に対応しており、今後も追加される予定です。その13言語とは英語、広東語、北京語、粤語(中国語の方言の1つ)、フランス語、ドイツ語、イタリア語、日本語、韓国語、スペイン語、アラビア語、ロシア語、トルコ語です」とClubhouseの担当者はTechCrunchに語った。

あるユーザーが、とある部屋ではスペイン語のライブキャプションが機能していたが、別の部屋ではスペイン語のスピーチがでたらめな英語に書き換えられていたとツイッターで報告した。Clubhouseのエンジニアは、これは言語検出がうまくいかなかったためではないかとリプライした。つまり、このアプリはベータ版で、英語以外の言語を区別する方法をまだ学んでいる段階のようだ。

Clubhouseは最近、友人との会話を簡単に始めることができるWaveや、非同期リスニングのためのリプレイ、ルームの録音など、多くの機能を展開してきた。ルームの録音は、クリエイターがライブで録音した音声を広く配信できるポッドキャストにできるようにするCallinSpace Podのようなスタートアップに対抗するための機能だ。しかし、ライブキャプション機能は、Clubhouseが人気を博した当初から欠落していた。ClubhouseはクローズドキャプションがAndroid版に搭載される時期を示していないが、そう遠くないことを願う。

画像クレジット:Thomas Trutschel / Contributor

原文へ

(文:Amanda Silberling、翻訳:Nariko Mizoguchi

障がい者向け脳モニタリングヘッドセットを開発するCognixion、Alexaと統合しスマートデバイスのハブにもなる

身体障がい者向けの直感的な脳モニタリングヘッドセットとインターフェースを設計しているスタートアップCognixionが、アクセシビリティの向上を追求するため、1200万ドル(約13億8000万円)のAラウンドを実施した。今回の資金調達により、同社は医療機器や支援機器が広く普及するために必要な長い要件を満たすことができるはずだ。

5月に詳しく紹介したように、同社は脳波を検査して脳の活動パターンを見つける。そしてそれがカーソルをコントロールして、画面上を行き来するための完全なインターフェースを構成する。現在の対象機器はiPhoneとそのディスプレイだが、そこからさらにスピーカーやアクセシビリティデバイスに信号を送り、単一のUIで必要なことはすべてできる。

その基盤となっているのは、新しいタイプの(人体に傷を付けない)電極と、ヘッドセットに埋め込まれた電極から発生する信号をすばやく解釈する機械学習システムだ。脳波は有用ではあるが一般的には遅くてノイズが多いが、Cognixionのアプローチだと、脳を使って最新のUIを確実にナビゲートできるほど、迅速で比較的正確なものとなる。

この脳波によるUIコントロールシステムは、ジョイスティックや視線追跡デバイスといった従来から存在するアクセシビリティの手法が使えない人にも向いている。そんな状態の人のための選択肢はほとんどなく、あっても遅くて面倒なものばかりだ。

ステルス状態を脱してから以降のCognixionは、支援デバイスを市場に出すための、さまざまな困難な仕事に追われていた。アーリーアダプターたちによるパイロットテストは何度か行ったが、保険やメディケイドなどの対象になるためには、もっといろいろなことが必要だった。また支援者にとっても、使いやすく、人にすすめたくなるものでなければならない。

関連記事:考えるだけで操作できる脳モニタリングデバイス「Cognixion One」、重度障がい者の円滑な意思疎通をアシスト

CEOで共同創業者のAndreas Forsland(アンドレアス・フォースランド)氏によると「最近では臨床と規制という2つの方面で仕事が多く、最適化と効率アップが重要でした。開発に参加してくれたユーザーや医療関係者や支援要員は150名近くに達し、彼らを顧問としてとても充実したフィードバックが得られた。ハードウェアの改良は何度もやったのsで、そろそろ最終設計に近いといえるでしょう。今後は、ユーザーインターフェースと言語システムで細かい改良がたくさん必要になりそうです」という。

2つの新しい機能にも取り組んでいる。1つは、予測的発話認識のアルゴリズムで、ユーザーの断片的な発話から完全な文を構成し、そのニーズに対応すること。もう1つは、Amazon Alexaとの直接的な統合だ。CognixionはAmazonと強力して、ヘッドセットに強化された真のスマートデバイスのハブを統合した。直接的な統合であるため、ヘッドセットからの脳波信号が言語に翻訳されてAlexaへ入力されるというわけではない。

画像クレジット:Cognixion

「この工程のサポートに関して、Amazon Alexaのチームにすごく感謝している。また企業としてのAmazonがこのような例外的な開発努力を認めてくれたことにも、深く感謝したい。重要なのは、そのコンテキストだ。現在、ホームオートメーションのシステムやツールはたくさんあるが、それらとのコミュニケーションを補助したり、それらに直接インターフェースする支援技術はほとんど存在しない。そのためAmazonの尽力は、アクセシビリティ業界にとって最初の大きな第1歩であり、ユニバーサルデザインにとっても初めてのことです」とフォースランド氏は語る。

1200万ドルのラウンドはPrime Movers Labが主導し、Northwell Health、Amazon Alexa Fund、Volta Circleが参加した。

Prime Movers LabのゼネラルパートナーであるAmy Kruse(エイミー・クルーゼ)氏は同社のプレスリリースで次のように述べている。「Cognixion ONEは、まだ存在していなければ、SFの世界のものだと思うでしょう。私たちは、脳性麻痺、脳幹の脳卒中、ALSをはじめとする言語障がいや運動障がいを抱えて生きるあらゆる年齢層の人々を支援するために、AIソフトウェアプラットフォームとハードウェアを融合させた、根本的に人生を変える不可欠なものになると信じています」。

ONEのヘッドセットが購入できるようになるまでには、まだ少し時間がかかりだが、フォースランド氏によると、ほぼすべての研究大学と提携しているリセラーとディストリビューターをすでに確保しているという。この革新的なアクセシビリティへの取り組みは順調に進んでおり、近い将来、必要とする人の頭に届いて欲しい。

画像クレジット:Cognixion

原文へ

(文:Devin Coldewey、翻訳:Hiroshi Iwatani)

iPadで視線によるタイピング、会話、アプリ操作が可能になるケース「TD Pilot」をTobiiが発売

アイトラッキング(視線計測)技術を手がけるスウェーデンのTobii(トビー)は、その技術をApple(アップル)製のタブレットに導入し、iPadを身体障がい者のための強力なオールインワンツールにするためのケース「TD Pilot」を発表した。iPadにTD Pilotを装着したユーザーは、視線だけでアプリを起動したり、すばやくタイピングしたり、合成音声で話したりすることができる。

iPadOS 15では、iPadにアイトラッキング用ハードウェアをネイティブに統合することが可能になったが、Tobiiはおそらく、その分野で最も知られた名前だろう。

筆者はオールインワンのスクリーン型アイトラッカーや、独立型のPC用周辺機器など、同社の製品を数多くチェックしてきたが、いずれも非常にうまく機能した。しかし、Apple側の制限があったせいで、アイトラッキングは主にWindowsマシンで行われてきた。筆者は個人的には気にならないものの、iOSを好む人もいるだろう。今後はiOSでも同じようにアイトラッキングが利用できるようになる。

画像クレジット:Tobii

TD PilotはiPadに装着する大型のケースで、前面にはアイトラッキング装置(実際には驚くほど小さく、カメラが内蔵された小さな帯状のもの)、背面にはステレオスピーカーに加えて、テキストを表示するための小さなスクリーンが備わる。このデバイスのユーザーは、Tobii独自のテキスト音声変換アプリ「TD Talk(TDトーク)」または他の任意のアプリを使って、テキストまたは音声でコミュニケーションをとることができる(単に話すだけではなく、その気になればDJにだってなれる)。

このデバイスは、設定や記号コミュニケーションなど、Tobiiが用意する他の小さなアプリ群も利用できる。

「医学的にも認証されており、Appleの性能基準を満たしていると認定されています」と、Tobii Dynavox(トビー・ダイナヴォックス)のFredrik Ruben(フレドリック・ルーベン)CEOは述べている。「これにより、ユーザーは市場をリードするこの技術にアップデートとサポートが継続されると知ることができ、信頼して使うことができます。また、人気のある技術に向けて開発される可能性がある、安全ではない『ワンタイムハック』を避けることができます」。この発言は間違いなく、アイトラッキングをネイティブにサポートしていない以前のバージョンのOS用に作られた他社のソリューションを暗に示しているのだろう。

Tobiiのアイトラッキングデバイスは誰でも購入することができるが、同社の説明によると、個人のニーズに合わせたソリューション提供の一環として、医師やセラピストから指示されるケースが多いという。その場合は保険でカバーされるが、当然ながら個人によって異なる。筆者は具体的なコストを尋ねたが、Tobiiは回答を避けた。

願わくは、アイトラッキングソリューションによって最も力を得られる人たちが、保険やその他の方法でこの便利なガジェットを簡単に手に入れることができるようになって欲しいものだ。この製品はすでに出荷が始まっているので、発売を待つ必要はない。下の動画で、実際に使用している様子を見ることができる。

画像クレジット:Tobii

原文へ

(文:Devin Coldewey、翻訳:Hirokazu Kusakabe)

視覚障がいに関する最先端技術を語るバーチャルイベント「Sight Tech Global」のメインプログラムを公開

2020年に続いて2021年が2回目となる参加無料のバーチャルイベント「Sight Tech Global」が米国時間12月1〜2日に開催される。2021年も視覚障がい者にとってのアクセシビリティや支援技術を実現する高度なテクノロジー、特にAIに関して、世界トップクラスの専門家がこのイベントに集う。

この記事ではメインステージのプログラムを紹介しよう。メインステージのセッションは専門家が進行し、現在この分野の大手4社と言えるApple、Microsoft、Google、Amazonをはじめとする各社の注目すべき取り組みが語られる。メインステージの他に分科会セッションを予定しているが、そちらは後日紹介する予定だ。

この無料のバーチャルイベントに、今すぐ参加登録しよう。スクリーンリーダーの対応も十分に準備している。

12月1日のSight Tech Global

Designing for Everyone:Accessibility and Machine Learning at Apple(すべての人のためのデザイン:Appleのアクセシビリティと機械学習)

AppleのiPhoneとVoiceOverはアクセシビリティにおける最大級のブレイクスルーだが、Appleはその成果に満足して歩みを止めているわけではない。次のイノベーションにはAIのサブセットである「機械学習」が加わり、スマートフォンのセンサーなどから得たデータを用いて周囲の状況を理解できる。アクセシビリティのための実装が姿を見せ始めている。

Jeff Bigham(ジェフリー・ビガム、Apple、AI/MLアクセシビリティリサーチ責任者)
Sarah Herrlinger(サラ・ヘルリンガー、Apple、グローバルアクセシビリティポリシー&イニシアチブ担当シニアディレクター)
進行:Matthew Panzarino(マシュー・パンザリーノ、TechCrunch編集長)

Seeing AI:What Happens When You Combine Computer Vision, LiDAR and Audio AR?(Seeing AI;コンピュータビジョン、LiDAR、オーディオARを組み合わせるとどうなるのか)

MicrosoftのSeeing AIアプリには周囲の物体を認識して3D空間に配置する最新機能が搭載された。物体が室内に置かれている、まさにその場所から読み上げが聞こえる。つまり「椅子」という語が椅子そのものから発せられているように聞こえる。ユーザーはバーチャルのオーディオビーコンをオブジェクトに配置して、例えばドアの場所を把握し、近接センサーで部屋の様子を触覚で知ることができる。

AR、コンピュータビジョン、iPhone 12 ProのLiDARセンサーといった最新の進化を組み合わせればこのようなことが可能になる。この取り組みは始まったばかりだ。

Saqib Shaikh(サーキブ・シャイフ、Seeing AI、共同創始者)
進行:Devin Coldewey(デヴィン・コールドウェイ、TechCrunch、編集者)

W3C ARIA-AT:Screen readers, Interoperability and a New Era of Web Accessibility(W3C ARIA-AT:スクリーンリーダー、相互運用性、ウェブアクセシビリティの新時代)

スクリーンリーダーは、ウェブブラウザとは違って相互運用性がないことをご存じだろうか。ウェブサイト開発者は自分の書くコードがSafariやChrome、あるいはその他のブラウザで動くかどうかを心配する必要はない。しかしアクセシビリティを真剣に考えると、JAWS、VoiceOver、NVDAなどのスクリーンリーダーをテストしなくてはならない。この状況がW3C ARIA-ATプロジェクトのおかげで変わりつつある。

(このセッションの後、12月2日にキング氏とフェアチャイルド氏、W3C ARIA-ATのメンバー数人が参加するライブの分科会セッションを予定している)

Matt King(マット・キング、Facebook、アクセシビリティ技術プログラムマネージャー)
Mike Shebanek(マイク・シェバネク、Facebook、アクセシビリティ責任者)
Michael Fairchild(マイケル・フェアチャイルド、Deque、シニアアクセシビリティコンサルタント)
進行: Caroline Desrosiers(キャロリン・デロジエ、Scribely、創業者兼CEO)

The “Holy Braille”:The Development of a New Tactile Display Combining Braille and Graphics in One Experience(「神」点字:点字とグラフィックスの両方を扱える新しい触覚ディスプレイの開発)

現在、視覚障がい者が点字で書かれたものを利用できる機会は、見える人が紙に書かれたものを利用する機会よりもずっと少ない。その都度更新しながら1行ずつ表示する点字ディスプレイが長年使用されてきたが、一度に1行しか読めないのでリーディングのエクスペリエンスは極めて制限されている。この制限は、長い書類を読むときや書籍に表やグラフといったコンテンツがある場合に、特に顕著に感じられる。American Printing House for the Blind(APH)とHumanWareは共同で、点字を複数行表示したり、点字と同じ面に触図を表示したりすることのできる触覚デバイスを開発している。Dynamic Tactile Device(DTD、動的触覚デバイス)と呼ばれるこのツールは、視覚障がい者が利用する複数行のブックリーダーや触図ビューアーを目指している。

(このセッションの後、グレッグ・スティルソン氏、HumanWareの点字プロダクトマネージャーであるAndrew Flatres[アンドリュー・フラトレス]氏が参加するライブの分科会Q&Aセッションを予定している)

Greg Stilson(グレッグ・スティルソン、APH、グローバルイノベーション責任者)
進行:Will Butler(ウィル・バトラー、Be My Eyes、バイスプレジデント)

Indoor Navigation:Can Inertial Navigation, Computer Vision and Other New Technologies Work Where GPS Can’t?(屋内ナビゲーション:GPSが使えない場所で慣性ナビゲーションやコンピュータビジョンなどの新しいテクノロジーはどう機能するか)

スマートフォン、GPS、ナビゲーションアプリのおかげで、視覚障がい者は1人で屋外を歩き回れる。しかし屋内となると話は別だ。

まず、GPSは屋内で使えないことがある。そしてドアの場所を知り、階段を見つけ、誰かが移動させたソファを避けるのは難しい。プロダクト開発者が屋内スペースをマッピングし、屋内の位置を提供し、アクセシブルなユーザーインターフェイスを用意すれば、慣性ナビゲーション、オーディオAR、LiDAR、コンピュータビジョンといったスマートフォンとクラウドのテクノロジーの組み合わせは解決の基盤となるかも知れない。

Mike May(マイク・メイ、GoodMaps、チーフエバンジェリスト)
Paul Ruvolo(ポール・ルボロ、オーリン・カレッジ・オブ・エンジニアリング、コンピュータサイエンス助教授)
Roberto Manduchi(ロベルト・マンドゥチ、カリフォルニア大学サンタクルーズ校、コンピュータサイエンス教授)
進行:Nick Giudice(ニック・ジュディチェ、メイン大学、空間情報科学教授)

12月2日のSight Tech Global

Why Amazon’s vision includes talking less to Alexa(Amazonが話しかけないAlexaを考える理由)

家庭でテクノロジーが多く使われるようになると、Teachable AIやマルチモーダル理解、センサー、コンピュータビジョンなど、さまざまなソースからのインプットによって周囲の環境が作られる。すでにAlexaスマートホームでのやりとりの5回に1回は、話し言葉以外から開始されている。Alexaは利用者や利用者の家を十分に理解してニーズを予測し、利用者に代わって有効なやり方で動作する。こうしたことは、アクセシビリティにどのような影響を及ぼすだろうか?

Beatrice Geoffrin(ベアトリス・ジェフリン、Amazon、Alexa Trustディレクター)
Dr. Prem Natarajan(プレム・ナタラジャン、Amazon、Alexa AI担当バイスプレジデント)

Inventors Invent:Three New Takes on Assistive Technology(発明家たちの発明:支援テクノロジーに関する新たな3つの成果)

発明家たちは、その才能を視覚障がい者の支援に生かすことに長年取り組んできた。Mike Shebanek(マイク・シェバネク、AppleのVoiceOverを開発)氏やJim Fruchterman (ジム・フルヒターマン、BenetechのBookshareを開発)に代表されるイノベーターが思い起こされるだろう。現在イノベーターにとっては、LiDAR、コンピュータビジョン、高速データネットワークなどほとんど奇跡といってもいいようなテクノロジーが手ごろにそろっている。その結果、イノベーションは目のくらむほどの速さで進む。このセッションでは、こうしたコアテクノロジーを新しい注目のツールに生かす最前線にいる3人のイノベーターに話を聞く。

Cagri Hakan Zaman(カグリ・ハカン・ザマン、MediateおよびSuperSense、共同創業者)
Kürşat Ceylan(クルサット・セイラン、WeWalk Technology、共同創業者)
Louis-Philippe Massé(ルイ・フィリップ・マセ、HumanWare、プロダクトマネジメント担当ディレクター)
進行:Ned Desmond(ネッド・デズモンド、Sight Tech Global、創業者兼エグゼクティブプロデューサー)

Product Accessibility:How Do You Get it Right? And How Do You Know When You Have?(プロダクトのアクセシビリティ:どうすれば効果的か、そして効果をどう知るか)

アクセシビリティの認知度は上がっているが、高い意識を持っているチームでさえも効果的なアプローチを見つけるのには苦労する。ポイントの1つは、適切なユーザーコミュニティと緊密に連携し、フィードバックを得たりニーズを理解したりすることだ。するとトレードオフではなく、すべての人にとってより良いプロダクトになる。このセッションで、プロダクト開発においてアクセシビリティの最前線にいる専門家から話を聞こう。

Christine Hemphill(クリスティン・ヘンフィル、Open Inclusion、創業者兼代表取締役)
Alwar Pillai(アルウォー・ピライ、Fable、共同創業者兼CEO)
Sukriti Chadha(スクリティ・チャダ、Spotify、プロダクトマネージャー)
Oliver Warfield(オリバー・ウォーフィールド、Peloton Interactive、
アクセシビリティ担当シニアプロダクトマネージャー)
Brian Fischler(ブライアン・フィシュラー、All Blind Fantasy Football Leagueコミッショナー、コメディアン)
進行:Larry Goldberg(ラリー・ゴールドバーグ、Yahoo、アクセシビリティ責任者)

For Most Mobile Phone Users, Accessibility Is Spelled Android(多くのスマートフォンユーザーにとって、アクセシビリティはAndroidで実現する)

世界の携帯電話ユーザーの4分の3は、AppleのiPhoneではなく、GoogleのAndroidで動作するスマートフォンを使っている。視覚障がい者にとって重要なアプリはGoogleのLookoutで、これはコンピュータビジョンのデータベースやGoogleマップなど、GoogleのAIインフラストラクチャが備える莫大なリソースを活用している。GoogleはLookoutに代表される多くのアクセシビリティの機会にどのようにアプローチしているかを聞く。

Eve Andersson(イブ・アンダーソン、Google、アクセシビリティ担当ディレクター)
Andreina Reyna(アンドレイナ・レイナ、Google、シニアソフトウェアエンジニア)
Warren Carr(ウォーレン・カー、Blind Android User Podcast、制作者)

Getting around:Autonomous Vehicles, Ridesharing and Those Last Few Feet(外出する:自動運転車、ライドシェア、そしてラスト数メートル)

スマートフォンで車を呼び出すという多くの人の夢はかなったが、ほんの数メートルしか離れていなくてもその車を見つけるのが難しいとしたら、悪夢であり危険だ。ライドシェアや自動運転タクシーの企業は、視覚に障がいがある利用者から車までの数メートルをもっと安全で利用しやすくするためにどんな取り組みをしているのだろうか。

Kerry Brennan(ケリー・ブレナン、Waymo、UXリサーチマネージャー)
Marco Salsiccia(マルコ・サルシッチャ、Lyft、アクセシビリティエバンジェリスト)
Eshed Ohn-Bar(エシェド・オン・バー、ボストン大学、助教授)
進行:Bryan Bashin(ブライアン・バシン、サンフランシスコLightHouse、CEO)

この無料のオンラインイベントに、ぜひ参加登録して欲しい

Sight Tech Globalは、シリコンバレーで75年にわたって運営されているNPOのVista Center for the Blind and Visually Impairedが主催する。現在、Ford、Google、Humanware、Microsoft、Mojo Vision、Facebook、Fable、APH、Visperoがスポンサーとして決定し、感謝している。本イベントのスポンサーに関心をお持ちの方からの問い合わせをお待ちしている。スポンサーシップはすべて、Vista Center for the Blind and Visually Impairedの収入となる。

画像クレジット:Sight Tech Global

原文へ

(文:Ned Desmond、翻訳:Kaori Koyama)

視覚障がいに関する最先端技術を語るバーチャルイベント「Sight Tech Global」のメインプログラムを公開

2020年に続いて2021年が2回目となる参加無料のバーチャルイベント「Sight Tech Global」が米国時間12月1〜2日に開催される。2021年も視覚障がい者にとってのアクセシビリティや支援技術を実現する高度なテクノロジー、特にAIに関して、世界トップクラスの専門家がこのイベントに集う。

この記事ではメインステージのプログラムを紹介しよう。メインステージのセッションは専門家が進行し、現在この分野の大手4社と言えるApple、Microsoft、Google、Amazonをはじめとする各社の注目すべき取り組みが語られる。メインステージの他に分科会セッションを予定しているが、そちらは後日紹介する予定だ。

この無料のバーチャルイベントに、今すぐ参加登録しよう。スクリーンリーダーの対応も十分に準備している。

12月1日のSight Tech Global

Designing for Everyone:Accessibility and Machine Learning at Apple(すべての人のためのデザイン:Appleのアクセシビリティと機械学習)

AppleのiPhoneとVoiceOverはアクセシビリティにおける最大級のブレイクスルーだが、Appleはその成果に満足して歩みを止めているわけではない。次のイノベーションにはAIのサブセットである「機械学習」が加わり、スマートフォンのセンサーなどから得たデータを用いて周囲の状況を理解できる。アクセシビリティのための実装が姿を見せ始めている。

Jeff Bigham(ジェフリー・ビガム、Apple、AI/MLアクセシビリティリサーチ責任者)
Sarah Herrlinger(サラ・ヘルリンガー、Apple、グローバルアクセシビリティポリシー&イニシアチブ担当シニアディレクター)
進行:Matthew Panzarino(マシュー・パンザリーノ、TechCrunch編集長)

Seeing AI:What Happens When You Combine Computer Vision, LiDAR and Audio AR?(Seeing AI;コンピュータビジョン、LiDAR、オーディオARを組み合わせるとどうなるのか)

MicrosoftのSeeing AIアプリには周囲の物体を認識して3D空間に配置する最新機能が搭載された。物体が室内に置かれている、まさにその場所から読み上げが聞こえる。つまり「椅子」という語が椅子そのものから発せられているように聞こえる。ユーザーはバーチャルのオーディオビーコンをオブジェクトに配置して、例えばドアの場所を把握し、近接センサーで部屋の様子を触覚で知ることができる。

AR、コンピュータビジョン、iPhone 12 ProのLiDARセンサーといった最新の進化を組み合わせればこのようなことが可能になる。この取り組みは始まったばかりだ。

Saqib Shaikh(サーキブ・シャイフ、Seeing AI、共同創始者)
進行:Devin Coldewey(デヴィン・コールドウェイ、TechCrunch、編集者)

W3C ARIA-AT:Screen readers, Interoperability and a New Era of Web Accessibility(W3C ARIA-AT:スクリーンリーダー、相互運用性、ウェブアクセシビリティの新時代)

スクリーンリーダーは、ウェブブラウザとは違って相互運用性がないことをご存じだろうか。ウェブサイト開発者は自分の書くコードがSafariやChrome、あるいはその他のブラウザで動くかどうかを心配する必要はない。しかしアクセシビリティを真剣に考えると、JAWS、VoiceOver、NVDAなどのスクリーンリーダーをテストしなくてはならない。この状況がW3C ARIA-ATプロジェクトのおかげで変わりつつある。

(このセッションの後、12月2日にキング氏とフェアチャイルド氏、W3C ARIA-ATのメンバー数人が参加するライブの分科会セッションを予定している)

Matt King(マット・キング、Facebook、アクセシビリティ技術プログラムマネージャー)
Mike Shebanek(マイク・シェバネク、Facebook、アクセシビリティ責任者)
Michael Fairchild(マイケル・フェアチャイルド、Deque、シニアアクセシビリティコンサルタント)
進行: Caroline Desrosiers(キャロリン・デロジエ、Scribely、創業者兼CEO)

The “Holy Braille”:The Development of a New Tactile Display Combining Braille and Graphics in One Experience(「神」点字:点字とグラフィックスの両方を扱える新しい触覚ディスプレイの開発)

現在、視覚障がい者が点字で書かれたものを利用できる機会は、見える人が紙に書かれたものを利用する機会よりもずっと少ない。その都度更新しながら1行ずつ表示する点字ディスプレイが長年使用されてきたが、一度に1行しか読めないのでリーディングのエクスペリエンスは極めて制限されている。この制限は、長い書類を読むときや書籍に表やグラフといったコンテンツがある場合に、特に顕著に感じられる。American Printing House for the Blind(APH)とHumanWareは共同で、点字を複数行表示したり、点字と同じ面に触図を表示したりすることのできる触覚デバイスを開発している。Dynamic Tactile Device(DTD、動的触覚デバイス)と呼ばれるこのツールは、視覚障がい者が利用する複数行のブックリーダーや触図ビューアーを目指している。

(このセッションの後、グレッグ・スティルソン氏、HumanWareの点字プロダクトマネージャーであるAndrew Flatres[アンドリュー・フラトレス]氏が参加するライブの分科会Q&Aセッションを予定している)

Greg Stilson(グレッグ・スティルソン、APH、グローバルイノベーション責任者)
進行:Will Butler(ウィル・バトラー、Be My Eyes、バイスプレジデント)

Indoor Navigation:Can Inertial Navigation, Computer Vision and Other New Technologies Work Where GPS Can’t?(屋内ナビゲーション:GPSが使えない場所で慣性ナビゲーションやコンピュータビジョンなどの新しいテクノロジーはどう機能するか)

スマートフォン、GPS、ナビゲーションアプリのおかげで、視覚障がい者は1人で屋外を歩き回れる。しかし屋内となると話は別だ。

まず、GPSは屋内で使えないことがある。そしてドアの場所を知り、階段を見つけ、誰かが移動させたソファを避けるのは難しい。プロダクト開発者が屋内スペースをマッピングし、屋内の位置を提供し、アクセシブルなユーザーインターフェイスを用意すれば、慣性ナビゲーション、オーディオAR、LiDAR、コンピュータビジョンといったスマートフォンとクラウドのテクノロジーの組み合わせは解決の基盤となるかも知れない。

Mike May(マイク・メイ、GoodMaps、チーフエバンジェリスト)
Paul Ruvolo(ポール・ルボロ、オーリン・カレッジ・オブ・エンジニアリング、コンピュータサイエンス助教授)
Roberto Manduchi(ロベルト・マンドゥチ、カリフォルニア大学サンタクルーズ校、コンピュータサイエンス教授)
進行:Nick Giudice(ニック・ジュディチェ、メイン大学、空間情報科学教授)

12月2日のSight Tech Global

Why Amazon’s vision includes talking less to Alexa(Amazonが話しかけないAlexaを考える理由)

家庭でテクノロジーが多く使われるようになると、Teachable AIやマルチモーダル理解、センサー、コンピュータビジョンなど、さまざまなソースからのインプットによって周囲の環境が作られる。すでにAlexaスマートホームでのやりとりの5回に1回は、話し言葉以外から開始されている。Alexaは利用者や利用者の家を十分に理解してニーズを予測し、利用者に代わって有効なやり方で動作する。こうしたことは、アクセシビリティにどのような影響を及ぼすだろうか?

Beatrice Geoffrin(ベアトリス・ジェフリン、Amazon、Alexa Trustディレクター)
Dr. Prem Natarajan(プレム・ナタラジャン、Amazon、Alexa AI担当バイスプレジデント)

Inventors Invent:Three New Takes on Assistive Technology(発明家たちの発明:支援テクノロジーに関する新たな3つの成果)

発明家たちは、その才能を視覚障がい者の支援に生かすことに長年取り組んできた。Mike Shebanek(マイク・シェバネク、AppleのVoiceOverを開発)氏やJim Fruchterman (ジム・フルヒターマン、BenetechのBookshareを開発)に代表されるイノベーターが思い起こされるだろう。現在イノベーターにとっては、LiDAR、コンピュータビジョン、高速データネットワークなどほとんど奇跡といってもいいようなテクノロジーが手ごろにそろっている。その結果、イノベーションは目のくらむほどの速さで進む。このセッションでは、こうしたコアテクノロジーを新しい注目のツールに生かす最前線にいる3人のイノベーターに話を聞く。

Cagri Hakan Zaman(カグリ・ハカン・ザマン、MediateおよびSuperSense、共同創業者)
Kürşat Ceylan(クルサット・セイラン、WeWalk Technology、共同創業者)
Louis-Philippe Massé(ルイ・フィリップ・マセ、HumanWare、プロダクトマネジメント担当ディレクター)
進行:Ned Desmond(ネッド・デズモンド、Sight Tech Global、創業者兼エグゼクティブプロデューサー)

Product Accessibility:How Do You Get it Right? And How Do You Know When You Have?(プロダクトのアクセシビリティ:どうすれば効果的か、そして効果をどう知るか)

アクセシビリティの認知度は上がっているが、高い意識を持っているチームでさえも効果的なアプローチを見つけるのには苦労する。ポイントの1つは、適切なユーザーコミュニティと緊密に連携し、フィードバックを得たりニーズを理解したりすることだ。するとトレードオフではなく、すべての人にとってより良いプロダクトになる。このセッションで、プロダクト開発においてアクセシビリティの最前線にいる専門家から話を聞こう。

Christine Hemphill(クリスティン・ヘンフィル、Open Inclusion、創業者兼代表取締役)
Alwar Pillai(アルウォー・ピライ、Fable、共同創業者兼CEO)
Sukriti Chadha(スクリティ・チャダ、Spotify、プロダクトマネージャー)
Oliver Warfield(オリバー・ウォーフィールド、Peloton Interactive、
アクセシビリティ担当シニアプロダクトマネージャー)
Brian Fischler(ブライアン・フィシュラー、All Blind Fantasy Football Leagueコミッショナー、コメディアン)
進行:Larry Goldberg(ラリー・ゴールドバーグ、Yahoo、アクセシビリティ責任者)

For Most Mobile Phone Users, Accessibility Is Spelled Android(多くのスマートフォンユーザーにとって、アクセシビリティはAndroidで実現する)

世界の携帯電話ユーザーの4分の3は、AppleのiPhoneではなく、GoogleのAndroidで動作するスマートフォンを使っている。視覚障がい者にとって重要なアプリはGoogleのLookoutで、これはコンピュータビジョンのデータベースやGoogleマップなど、GoogleのAIインフラストラクチャが備える莫大なリソースを活用している。GoogleはLookoutに代表される多くのアクセシビリティの機会にどのようにアプローチしているかを聞く。

Eve Andersson(イブ・アンダーソン、Google、アクセシビリティ担当ディレクター)
Andreina Reyna(アンドレイナ・レイナ、Google、シニアソフトウェアエンジニア)
Warren Carr(ウォーレン・カー、Blind Android User Podcast、制作者)

Getting around:Autonomous Vehicles, Ridesharing and Those Last Few Feet(外出する:自動運転車、ライドシェア、そしてラスト数メートル)

スマートフォンで車を呼び出すという多くの人の夢はかなったが、ほんの数メートルしか離れていなくてもその車を見つけるのが難しいとしたら、悪夢であり危険だ。ライドシェアや自動運転タクシーの企業は、視覚に障がいがある利用者から車までの数メートルをもっと安全で利用しやすくするためにどんな取り組みをしているのだろうか。

Kerry Brennan(ケリー・ブレナン、Waymo、UXリサーチマネージャー)
Marco Salsiccia(マルコ・サルシッチャ、Lyft、アクセシビリティエバンジェリスト)
Eshed Ohn-Bar(エシェド・オン・バー、ボストン大学、助教授)
進行:Bryan Bashin(ブライアン・バシン、サンフランシスコLightHouse、CEO)

この無料のオンラインイベントに、ぜひ参加登録して欲しい

Sight Tech Globalは、シリコンバレーで75年にわたって運営されているNPOのVista Center for the Blind and Visually Impairedが主催する。現在、Ford、Google、Humanware、Microsoft、Mojo Vision、Facebook、Fable、APH、Visperoがスポンサーとして決定し、感謝している。本イベントのスポンサーに関心をお持ちの方からの問い合わせをお待ちしている。スポンサーシップはすべて、Vista Center for the Blind and Visually Impairedの収入となる。

画像クレジット:Sight Tech Global

原文へ

(文:Ned Desmond、翻訳:Kaori Koyama)

InstagramリールにTikTokのようなテキスト読み上げとボイスエフェクト機能を追加

Instagram(インスタグラム)は米国時間11月10日、Reels(リール)内に「Text-to-speech(テキスト読み上げ)」と「Voice effects(ボイスエフェクト)」という2つの機能を追加した。これらの機能は、TikTok(ティックトック)ではすでに人気の機能だが、クリエイターはInstagramでも使用できるようになる。Instagramでは、クリエイターにインセンティブを与えるために巨額のリールボーナスを提供しているので、短編動画に関して、TikTokに追いつこうとするInstagramの努力が見られる。

テキスト読み上げ機能とは、視覚障害者や弱視者が文字を理解するために必要なアクセシビリティ機能だ。しかし、このロボットのような声を使った動画がTikTokで不可解なほど人気を博したため、この機能を担当した声優が、自分の録音を使用する許可を与えていなかったとしてTikTokを訴えた。訴えられた後、TikTokは声優を変更した。

クリエイターがテキスト読み上げ機能を使用するのは、アクセシビリティの観点からではなく、単調でコンピュータ化された声がコンテンツのナレーションをするのがおもしろいからだ。このテキスト読み上げツールは、リールカメラのテキストツールの中に表示されている。ビデオを録画またはアップロードした後、プレビューに移動してテキストを追加する。テキストを追加すると、画面の下部にテキストバブルが表示され、ユーザーはそのテキストを表示するタイミングを調整することができる。これまでは、3つの点のアイコンをタップすると、それぞれのテキストバブルにメニューが表示され、テキスト読み上げのオプションを追加することができていたが、現在は、3つの点のアイコンをタップすると、それぞれのテキストバブルにメニューが表示され、テキストから音声ナレーションを追加するオプションが表示される。音声は2種類の中から選べる。

しかし、ボイスエフェクトを使えば、リールをさらにクリエイティブに仕上げることができる。この機能は、投稿の音声やナレーションを変更することができるというものだ。ボイスエフェクトを見つけるには、リールを録音した後に音符アイコンをタップして、オーディオミキサーを開く。すると、エフェクトメニューが表示され、そこでリールの音声やナレーションを変更することができる。

この新機能は、現在、Instagramのモバイルユーザーに展開され始めている。

画像クレジット:Instagram

原文へ

(文:Amanda Silberling、翻訳:Akihito Mizukoshi)

グーグルが発話障がい者のための音声認識・合成アプリ「Project Relate」 をテスト中

Google(グーグル)が、発話障がいがある人たちにコミュニケーション手段を提供するAndroidアプリの開発で、テスターなどの協力者を求めている。Project Relateと名づけられたプロジェクトおよびアプリは、音声の書き起こしと合成を提供し、言葉の理解をサポートする。

Project Euphonia」がこのプロジェクトの始まりで、TechCrunchは2019年に発表されたときに取り上げ、その後の研究についても触れている。その研究開発努力のリーダーはGoogleの研究科学者Dimitri Kanevsky(ディミトリ・カネフスキー)氏で、彼自身も発話能力に障害があり、その体験者としての知識をAIを用いるソリューションに持ち込んだ。現在、このプロジェクトの主要パートナーでアプリのユーザーでもあるAubrie Lee(オーブリー・リー)氏はマーケティングのチームにも所属しておりアプリの命名者でもあるが、筋ジストロフィーのため自分の言葉を人やアプリに理解してもらうのが難しい。彼女の様子は動画で見ることができる。

シンプルな事実として、AIによる音声認識は、人の発話を正しく理解できるようになるために大量の録音された発話を必要とするが、しかしそれらのデータは多くの場合、健常者の発話パターンに偏っている。訛りや変わったアクセントのある発話はAI用の教材として使われていないことが多いから、それらの理解もできない。発話障がいの人びとの喋りが含まれていることは、さらに稀だ。そこで、通常の音声認識デバイスを彼らは使えない。

第三国などで特殊なアクセントで喋られる英語の理解は最近改善されているが、しかし障害などで個人によって強烈なクルのある発話パターンを集めて分析するのはとても難しい。声は人によってみな違うが、脳卒中や重度傷害などで相当特殊なパターンになってしまった発話を機械学習のシステムに正しく理解させるのは困難だ。

関連記事:インドやフィリピンなどアクセントが異なる英語の認識が向上した音声認識モデル「Speechmatics」

Project Relateの中核にあるのは、障がい者のための改良された音声書き起こしツールだ。その「Listen」ファンクションはユーザーの発話をテキストに変換する。それをどこかにペーストして、他の人が読むことができる。「Repeat」は、入力された発話を繰り返すが、2度目はやや聞き取りやすく加工されている。「Assistant」は書き起こしをGoogleアシスタントに転送して、音楽の再生や天気予報など単純なタスクをやらせる。

その能力を実現するためにGoogleはまず、できるかぎり多くのデータを集め、ボランティアによる100万以上の発話サンプルをデータベースに収めた。それらを使って、音声認識AIの基底的インテリジェンスとでも呼ぶべきものを訓練する。機械学習システムの例にもれず、これもまたデータは多ければ多いほど良いが、個々のユースケースに対応できるためには、特異なデータが多いほど良い。

 

Google ResearchのプロダクトマネージャーであるJulie Cattiau(ジュリー・カティアウ)氏は、TechCrunch宛のメールでこんな説明をしてくれた。

ターゲットのオーディエンスが必要とするものを事前に想定することを避けたかった。そのための最良の方法は、このプロダクトを利用すると思われる人たちと一緒になって作ることです。そうした人たちの最初の集団をテストに参加させることにより、アプリケーションが多くの人の日常生活の中でどのように役に立つかを、良く理解できました。どれほど正確であるべきか、どこを改良すべきかを理解してから、広範なオーディエンス向けに拡張しました」。

同社は、日常生活の中でこのアプリを試用してくれる、第一ラウンドのテスターを募集している。最初のステップではフレーズを集めて記録し、それを発話のモデルに組み入れて多様な発話パターンに対応する。このやり方なら自分の日常生活にも役に立ちそうだ、と思った方はボランティアに応募できる。あなたも、このアプリの改良に貢献できるだろう。

画像クレジット:incomible/iStock

原文へ

(文:Devin Coldewey、翻訳:Hiroshi Iwatani)

【コラム】赤い旗のミームはアクセシビリティ上も危険、専門家が語るミームをもっと読みやすくする方法

最近、Twitter(ツイッター)にアクセスしている人なら、赤い旗のミームが広まっているのを目にしたことがあるだろう。誰かに「レッドフラグ(危険、それはない)」と言われるようなフレーズを引用し、赤い旗の絵文字を大量に追加するというものだ。Twitter自身をはじめ、Dr.Pepper(ドクターペッパー)、MTV、NFLのHouston Texans(ヒューストン・テキサンズ)などのブランドもこれに同調している。

しかし、スクリーンリーダーやナレーション技術を使っている視覚障害者にとって、赤い旗のミームは意味をなさない。

「あのミームが出てくるたびに『triangular flag on a post(投稿上の三角旗)』とボイスオーバーが流れます」と目の不自由なTwitch(ツイッチ)ゲーマーでアクセシビリティ推進者のSteve Saylor(スティーブ・セイラー)氏はいう。「これは絵文字の説明ではあるのですが、ミームの意味を損なっています。その意図には旗の色が関係していますから」。iPhoneのナレーション画面では、絵文字を1つずつ読むのではなく「投稿上の三角旗」の数を教えてくれるが、スクリーンリーダーの中には絵文字を1つ1つ読み上げるものもあり、スクロールダウンしない限り「投稿上の三角旗」を48回聞く必要がある。

「会話に含まれる感情や、誰かが投稿したことに反応できるという点で、ミームの存在はコミュニケーションにおいて非常に意義があります」と語るのは、テキサス大学オースティン校でアクセシビリティを研究するAmy Pavel(エイミー・パベル)助教授だ。「そのため、会話への参加を十分なものにするために、ミームの意味を理解することが重要になるのです」。

インドに拠点を置き、サービスが不十分な貧しいコミュニティにおける盲目や失明の問題に取り組む非営利団体Tej Kohli Foundation,(テジ・コーリ財団)は、10万件のツイートを分析し、絵文字がオンラインでどのように使われているかについて調査した。そのデータセットによると、絵文字を含むツイートの中で、10%が3つ以上重なる絵文字を含んでおり、40%は絵文字を反復している。特に「Face with tears of joy(喜びの涙を流す顔)」の絵文字は、使用されるうちの93%が反復表現になっている。同財団は推奨事項として、文の最後に絵文字を配置すること、単語の置き換えに絵文字を使用しないこと(「今日はとても☀」ではなく「今日はとてもよく晴れている」と表現)、そして3つ以上絵文字を重ねないことを提言している。

レッドフラグミームは先に、ミームアクセシビリティについての議論を巻き起こした。しかし、スクリーンリーダーを使う人々にとって厄介な存在であるにもかかわらず、ソーシャルメディア上でミームが広まったのはこれが初めてではない。

拍手する手のミームは読むのにとても疲れます。それぞれの単語の後に手を叩く音声が流れますので、完全な文章が何であったかを正確に思い出すことが難しくなります」とパベル氏はTechCrunchに語った。同氏はまた「in this house(この家で)」ミームや「bunny holding a sign(看板を持つウサギ)」ミームなど、ASCIIアートから作られたミームだけでなく、一般的ではない文字を使って異なるフォントで書くことをシミュレートする社会的トレンドにも言及した。「すべての文字を読み上げ、その中にはキリル文字、ギリシャ文字、漢字などが含まれていますから、まったく意味をなさないように聞こえます」。

パベル氏が期待しているのは、研究者や開発者が人工知能と機械学習を活用し、デジタルコミュニケーションにおける一般的な傾向を特定して、ボイスオーバーでそれらを簡単に説明できるようにすることだ。例えば、単語間に手を叩く絵文字がある場合、スクリーンリーダーは各単語の間に「手を叩く絵文字」と発するのではなく、文章読み上げ後に絵文字が存在することを示す、などの方法が考えられる。しかしこの技術にはまだ長い道のりがあるため、その間にもアクセシビリティの専門家たちは、技術が追いつくのを待つのではなく、ミームをもっとアクセスしやすくする方法について人々に伝えていこうと取り組んでいる。

「私はミームの真意を十分理解しています。レッドフラッグについては特にそうです」とセイラー氏は話す。「誰かの創造性を抑圧したくはありません。『そのミームを使わないで欲しい』とは誰にも言いたくありません。ただ、より多くの人にミームを楽しんでもらいたいのであれば、スクリーンリーダー用の代替テキストを追加したり、ビデオにキャプションを付けたりするなど、そうしたことを必要としている人のアクセス性を高めることを考えて欲しいのです」。

絵文字ベースのミームやASCIIアートのミームの場合、回避策の1つとして、ミームのスクリーンショットを写真として投稿し、その写真を説明する代替テキストを追加することが挙げられる。Twitterでの代替テキストの追加は比較的簡単で、画像をアップロードした後、その画像の直下に置かれている機能の「説明を追加」ボタンをクリックすれば、ツイートを送信する前に代替テキストを挿入できる。しかしInstagramでは、画像を投稿する前に画面を下にスクロールし、小さな「詳細設定」ボタンをクリックする必要がある。それから「アクセシビリティ」までスクロールして「代替テキストを書く」というボタンをクリックし、画像の説明を追加する。

「デジタルマーケターやプロのコミュニケーターたちに必要な知識や教育が十分ではないと思います。問題の一端は、私たちがアクセシビリティについて把握していないということにあるのです」と、ソーシャルメディアマネージャーでアクセシビリティ推進派のAlexa Heinrich(アレクサ・ハインリッヒ)氏は述べている。「マーケターやコンテンツ制作者、そして日常的なユーザーがコンテンツを制作するとき、誰もが同じようにインターネットを体験するわけではないということを少しでも心に留めてくれることを望みます」。

ハインリッヒ氏とセイラー氏はTechCrunchに対し、Twitterはよりアクセスしやすいソーシャルメディアプラットフォームの1つだと考えていると述べたが、その水準は高いとは言えない(なぜかClubhouse[クラブハウス]にはまだライブキャプションが存在しない)。2020年の夏、Twitterは音声ツイート機能を試験的に導入したが、クリップにはキャプションがなく、耳の不自由なユーザーのツイートへのアクセスを妨げる結果となった。障害のある人たちがそのアクセシビリティ機能の展開における大きな手落ちについて指摘したとき、Twitterは専用のアクセシビリティチームを有していないことが明らかになった。その後、Twitterはアクセシビリティチームを立ち上げた。

「Twitterは間違いなく、アクセシビリティとプラットフォームに関する取り組みについて最も熱心で透明性の高いプラットフォームです。彼らはフィードバックを受け入れており、それは本当にすばらしいことだと思います」とハインリッヒ氏。それでも、Twitterはその後、アクセシビリティを妨げる主要なアップデートを発表している。「どのようにしてアクセシブルなコンテンツを作ることができるかについて、プラットフォーム自身が提携するブランドやマーケターをより良く教育する必要があります」と同氏は付け加えた。

アプリ研究者のJane Manchun Wong(ジェーン・マンチュン・ウォン)氏によると、Twitterは、ユーザーが代替テキストなしで画像を投稿しようとした場合に表示されるポップアップ通知をオプトインできる機能に取り組んでいるという。TwitterはTechCrunchに対し、この機能を開発中であり、年内には公開する予定であることを認めた。

画像クレジット:Spider-Man

しかし、ユーザーが代替テキストを追加する方法を知っていても、画像を説明する最善の方法を見つけるのは難しい場合がある。例えば、スパイダーマンが指を差しているミームは単純明快で、セイラー氏はそれを「まったく同じ2人のスパイダーマンがお互いを指している」と表現するだろうと述べている。しかし、銀河系の脳蝶のミームのようなものはどのように描写できるだろうか?

「特にミームの場合、実際に重要なことは、対象とされるものが画像そのもののコンテキストにおいて何であるかということです。写真やアニメーションGIFのように、さらに複雑なものも存在します」とセイラー氏。「ただし、写真に写っているものすべてを説明する必要はありません。要点を伝えるのに十分な情報だけです。多くの場合、その余分な情報はまったく不要なものになります。対象が何であるか、前景にあるものは何か、その写真のコンテキストは何か、あるいはなぜその写真を投稿するのかを説明してくれたら、私たちは簡潔に要点を把握できます。そうすれば、写真全体を説明する1000文字もの言葉に耳を傾けることなく、スクリーンリーダーが伝える画像の内容を理解できるようになるのです」。

スパイダーマンが指を差しているミームについてセイラ―氏が説明したとき、スパイダーマンは青い床の上に立っていて、その背景にはニューヨーク市警のトラックがあり、赤い壁の隣にはドアが開いていて、木製の箱がいくつかあると言っていないのはそういう理由からだ。ミームを理解するのにこれらの詳細は必要ないのである。

しかし、アクセシビリティは画一的なものではなく、すべての障害が同様であるとは言えない。障害が同じ人でも、インターネットをどのように体験したいかについての嗜好は違ってくるだろう。

「障害は本当に個人的な経験ですので、特にアクセシビリティに関して、自分が何を望んでいるかは、各ユーザーが一番よくわかっていると思います」とパベル氏は話している。

2020年10月、パベル氏は「Making GIFs Accessible(GIFをアクセシブルにする)」という論文を発表した。同氏は研究の中で、参加者にアニメーションGIFを体験する複数の方法を提供し、どの方法を好むかについて調査した。その年にTwitterはGIFの代替テキストを追加している。

「GIFは多くの場合、音声を持つ既存のメディアから取られているので、かなり興味深いものがあります。例えば『The Office(ジ・オフィス)』のMichael(マイケル)が『ノー、ノー、ノー』と叫び、それが次第に長く大きくなっていくのはおもしろいですよね」とパベル氏。同氏の実験では、代替テキストの1つのバージョンが、画像の代替テキストを記述するのと同じ方法でアニメーションを簡潔に説明した。別のイテレーションでは「The Office」の音声をそのまま文字化した。3つ目のオプションでは、ボイスオーバーで「The Office」のMichaelのGIFであることを説明した後に「ノー、ノー、ノー」と叫ぶ文字化された音声を再生した。

「私たちに返ってきた主な感想は『確かにこうしたものはすべて必要だが、そこにあるものを常に選ばなければならないというのは望ましくない』というものでした」とパベル氏は語る。「スクリーンリーダーをカスタマイズするオプションをユーザーに提供することが重要であると考えています。GIFに対する関心の度合いに応じて、設定を変更したいと思うこともあるでしょう」。

当面の間、コンテンツをよりアクセスしやすくするための最も迅速な方法として、一般の人々が自分自身の投稿方法を改善する必要があると専門家たちは述べている。

「人々は『それはそんなに多くのエンゲージメントを得ることになるのか?』という議論を求めているようです」とハインリッヒ氏。「ですが、私の答えとしては、それは気にしていない、というものになります。アクセスできなければ、それが私の気にすることです。私が気にかけているのは人であって、数字ではありません」。

画像クレジット:Bryce Durbin/TechCrunch

原文へ

(文:Amanda Silberling、翻訳:Dragonfly)

12月開催のSight Tech Global、アップルとアマゾンの機械学習・AI専門家の講演が決定

センサーとデータが急増している。スマートフォンから、あるいはクルマやスマートホームデバイスから得られる驚異的な量のデータをもとにして、新しいプロダクトやエクスペリエンスを考える研究者や開発者の取り組みは加速する。こうした研究や開発は、視覚障がい者に対してもこれまで以上に寄与する。

そこで12月1〜2日に開催するオンラインイベントのSight Tech Globalから、2つのセッションを紹介しよう。1つはApple(アップル)、もう1つはAmazon(アマゾン)のセッションで、この2つのセッションでは機械学習(ML)とAIのリーダーである両社が将来について、特に視覚障がい者を支援する新しいエクスペリエンスについて語る。Sight Tech Globalへの参加は無料だ。今すぐ登録して欲しい。

Designing for everyone:Accessibility and machine learning at Apple(すべての人のためのデザイン:Appleのアクセシビリティと機械学習)

Appleのセッションでは、TechCrunch編集長のMatthew Panzarino(マシュー・パンザリーノ)がJeff Bigham(ジェフリー・ビガム)氏、Sarah Herrlinger(サラ・ヘルリンガー)氏に話を聞く。

ビガム氏はAppleのAI/MLアクセシビリティリサーチ責任者で、カーネギーメロン大学でコンピュータサイエンスのアシスタントプロフェッサーも務める。同氏はAIと機械学習を活用した先進的なアクセシビリティを専門とする研究者とエンジニアのチームを率いている。

ヘルリンガー氏はAppleのグローバルアクセシビリティポリシー&イニシアチブ担当シニアディレクター。同社のアクセシビリティプログラムの責任者として、ワールドワイドで障がい者コミュニティを支援し、同社のハードウェアとソフトウェアにアクセシビリティ技術を実装し、他にもAppleのインクルージョンのカルチャーを推進する役割を担っている。

AppleのiPhoneとVoiceOverは視覚障がい者にとってナビゲーションからメールの読み上げまで多くのサービスを提供する極めて重要なツールだ。LiDARとコンピュータビジョンの機能なども取り入れることで、iPhoneとクラウドコンピューティングを組み合わせて周囲に関する情報を取得し、その情報を役に立つ形で伝える手段としてさらに機能が強化されている。ヘルリンガー氏とビガム氏が、アクセシブルなデザイン、この1年間の進歩、機械学習研究におけるインクルージョン、最新の研究と将来に関して、Appleのアプローチを語る予定だ。

Why Amazon’s vision includes talking less to Alexa(Amazonが話しかけないAlexaを考える理由)

Amazonのセッションでは、Be My EyesのバイスプレジデントであるWill Butler(ウィル・バトラー)氏が、Alexa AI担当バイスプレゼントのPrem Natarajan(プレム・ナタラジャン)氏、Alexa TrustディレクターのBeatrice Geoffrin(ベアトリス・ジェフリン)氏とともに語る。

ジェフリン氏はAmazonのAlexaチームでプロダクトマネジメント担当ディレクターを務めている。Alexaに対する顧客の信頼を獲得して維持し、Alexaのアクセシビリティを向上する部署であるAlexa Trustの責任者で、Alexa for Everyoneチームを監督する。

ナタラジャン氏はサイエンス、エンジニアリング、プロダクトの学際的な研究をする組織の責任者で、会話のモデリングや自然言語理解、エンティティリンキングとエンティティ解決、関連する機械学習テクノロジーの進化を通じたカスタマーエクスペリエンスの向上に取り組んでいる。

AmazonのAlexaはすでに多くの家庭で利用され、視覚障がい者が使うテクノロジーツールセットとしても効果をあげている。家庭でテクノロジーが多く使われるようになると、Teachable AIやマルチモーダル理解、センサー、コンピュータビジョンなど、さまざまなソースからのインプットによって周囲の環境が作られる。すでにAlexaスマートホームでのやりとりの5回に1回は、話し言葉以外から開始されている。Alexaは利用者や利用者の家を十分に理解してニーズを予測し、利用者に代わって有効なやり方で動作する。こうしたことは、アクセシビリティにどのような影響を及ぼすだろうか?

Sight Tech Globalはオンラインで開催され、世界中から無料で参加できる。今すぐ登録しよう。

Sight Tech Globalは、シリコンバレーで75年にわたって運営されているNPOのVista Center for the Blind and Visually Impairedが主催する。現在、Ford、Google、Humanware、Microsoft、Mojo Vision、Facebook、Fable、APH、Visperoがスポンサーとして決定し、感謝している。本イベントのスポンサーに関心をお持ちの方からの問い合わせをお待ちしている。スポンサーシップはすべて、Vista Center for the Blind and Visually Impairedの収入となる。

画像クレジット:Sight Tech Global

原文へ

(文:Ned Desmond、翻訳:Kaori Koyama)

Amazon Music、米国でポッドキャストに「文字起こし」機能を搭載

Amazon Music(アマゾンミュージック)は米国時間11月2日より、米国のユーザーを対象に、一部のポッドキャストで自動生成された同期トランスクリプト(文字起こし)の提供を開始する。iOSおよびAndroidのAmazon Musicアプリの最新版では、Amazon Originals(アマゾンオリジナル)とAmazonが所有するネットワークのWondery(ワンダリー)が提供する一部のポッドキャストの最新エピソードの文字起こしが提供される。また、American Public Media(アメリカンパブリックメディア)、audiochuck(オーディオチャック)、Cadence13(ケイデンス13)、The New York Times(ニューヨークタイムズ)、Stitcher(スティッチャー)、TED(テッド)が提供する「My Favorite Murder(マイフェイバリットマーダー)」「Crime Junkie(クライムジャンキー)」「Modern Love(モダンラブ)」「This American Life(ディスアメリカンライフ)」などの一部の番組でも文字起こしが利用できるようになる。

2020年9月にAmazon Musicにポッドキャストを追加して以降、この文字起こしは同アプリが実装した初めての大きなポッドキャスト機能だ。Spotify(スポティファイ)は、5月にSpotify Exclusive and Original(エクスクルーシブアンドオリジナル)の番組に対して同様の機能をベータテストした。Apple Podcastのクリエイターは、番組ノートに文字起こしを記載することができ、それをアプリ内で検索することができるが、今回のAmazon Musicのように音声と同期していなかった。

画像クレジット:Amazon Music

リスナーはアプリ内でパラグラフ形式の文字起こしを読むことができ、ホストがいう言葉がハイライトされているのをみながら一緒に聞くこともできる。この機能は、ポッドキャストの特定の場所を探すのにも役立つ。カーソルをドラッグすると、ビデオのサムネイルのプレビューを見るように、話されている言葉のプレビューを見ることができる。

音声のみのメディアであるポッドキャストにとって、聴覚に障害のある視聴者にも楽しんでもらうために、文字起こしは不可欠なものだ。多くのポッドキャストは、すでにウェブサイトに文字起こしを掲載しているが、この機能は、番組を体験するための別の方法を提供する。ライブオーディオの場合、ライブキャプションはアクセシビリティに不可欠な機能だ。Twitter Spaces(スペース)はこの機能を提供しているが、Clubhouse(クラブハウス)はまだこの機能を実装していない。

画像クレジット:Amazon Music

原文へ

(文:Amanda Silberling、翻訳:Yuta Kaminishi)

米食品医薬品局が補聴器を医師の診断書なしでも購入可能にする提案発表、軽~中程度患者対象

米食品医薬品局が補聴器を医師の診断書なしでも購入可能にする提案発表、軽~中程度患者対象

AlexRaths via Getty Images

米食品医薬品局(FDA) が、米国内の軽~中程度の聴覚障害者が、医師の診断や業者によるフィッティング作業なしに手軽に穂著行きを購入できるようにするOTC(over the counter)化の提案を出しています。

この提案は「OTCおよび従来の診断を必要とよる補聴器の安全性と有効性を確保しつつ市場における教祖の促進を目的としている」とFDAは述べています。これによって補聴器の恩恵を受けられるにもかかわらず診断を受けることに抵抗を感じてそれを享受できない状況を改善し、手軽に補聴器を入手できるようになると考えられます。

米国政府は、2017年に人々がより安価に補聴器を入手できるようにするため「市販補聴器法(Over-the-Counter Hearing Aid Act)」を定めています。しかしこれまで、FDAによってClass I~IIの医療機器として分類される補聴器は、それを得るのに医師の診断を必要とするままでした。バイデン大統領は7月に大統領令に署名し、120日以内にOTC補聴器に関する新たな規則を発表するよう指示しました。

FDAの今回の提案は現在90日間のパブコメ募集期間となっています。最終的に採用となった場合は、連邦官報に掲載され、60日後に発効の運びとなります。

米国ではすでに複数の企業がOTC補聴器に参入の動きを見せており、Boseがそれに先駆けてFDA認定のSoundControlシリーズを発売、JabraもEnhance Plusと称するヒアリングエイド機能付きイヤホンを発表しています。日本ではシャープが完全ワイヤレスの軽度・中等度難聴者向け補聴器を発売。こちらも、音楽も聴ける便利な製品です。

またアップルは、先日AirPods Proのアップデートで周囲の騒音を低減して会話を聞き取りやすくする機能を搭載しており、将来的にAirPodsシリーズの守備範囲をヘルスケア用途に拡げることも検討中と言われています

(Source:FDAEngadget日本版より転載)

【コラム】知られざるデザインの事実とユーザーエクスペリエンスの偏りに対処する方法

最近とある巨大テック企業と話をする機会があった。彼らが知りたがっていたのは、彼らが手がける人間中心設計は、エクスペリエンスの偏りを防ぐことができるかどうかというものだった。簡単にいうとその答えは、おそらくノーである。

エクスペリエンスの偏りといっても、何も私たち自身の認知的な偏りのことではない。デジタルインターフォースのレイヤー(デザイン、コンテンツなど)における偏りのことを指しているのだ。人々が接しているほとんどのアプリやサイトは、制作したチームの認識や能力に基づいて設計されているか、ごく数人の価値の高いユーザーのために設計されている。もしユーザーがデザインにおける慣習を知らなかったり、デジタルへの理解が足りなかったり、技術的なアクセスがなかったりすると、そのエクスペリエンスは彼らにとって不利なものになると言えるだろう。

解決策としては、多様なユーザーのニーズに合わせ、デザインやエクスペリエンスを複数バージョン作るという考え方にシフトするというのがある。

前述のテック企業の話に戻ると、共感できるデザインへの投資はどんな企業にとっても不可欠だが、デザイン機能を立ち上げ運営してきた者として、ここで知られざる事実をいくつか打ち明けておく必要があるだろう。

まず第一に、UXチームやデザインチームは、戦略やビジネス部門から非常に限定されたターゲットユーザーを指示されることが多く、エクスペリエンスの偏りはすでにそこから始まっている。事業があるユーザーを優先しなければ、デザインチームはそのユーザーのためにエクスペリエンスを作る許可も予算も得られない。つまり、企業が人間中心設計を追求したり、デザイン思考を採用したりしていたとしても、多くの場合は商業的な利益に基づいてユーザープロファイルを繰り返し作成しているだけで、文化、人種、年齢、収入レベル、能力、言語などの多様性の定義からは程遠いものとなっている。

知られざる事実の2つ目に、人間中心設計ではUX、サービス、インターフェースのすべてを人間が設計することを前提としていることが挙げられる。エクスペリエンスの偏りを解決するために、ユーザーのあらゆるニーズに基づいてカスタマイズされたバリエーションを作成する必要がある場合、特にデザインチーム内の多様性が豊かでない場合には手作りのUIモデルというだけでは十分でない。ユーザーのニーズに基づいた多様なエクスペリエンスを優先させるには、デザインプロセスを根本的に変えるか、デジタルエクスペリエンスの構築に機械学習や自動化を活用するかのどちらかが必要であり、これらはどちらもエクスペリエンスの公平性へのシフトのためにはとても重要なことである。

エクスペリエンスの偏りを診断し、対処する方法

エクスペリエンスの偏りに対処するには、どこに問題があるかを診断する方法を理解するところから始まる。下記の質問は、デジタルエクスペリエンスのどこに問題が存在するかを理解するためにはとても有用な質問だ。

コンテンツと言語:このコンテンツは個人にとってわかりやすいものか?

アプリケーションには、技術面で特別な理解を必要としたり、企業や業界に特化した専門用語を使ったり、専門知識を前提としたりするものが多い。

金融機関や保険会社のウェブサイトでは、閲覧者が用語や業界、名称を理解していることが前提となっている。代理店や銀行員が事細かに教えてくれる時代でないのなら、デジタルエクスペリエンスがそれに代わって説明してくれるべきではないだろうか。

UIの複雑さ:自分の能力に基づいたインターフェースになっていないか?

障がいがあっても支援技術を使って操作ができるだろうか。またはUIの使用方法を学ぶ必要があるか。1ユーザーがインターフェイスを操作するために必要とする力量は、その人の能力や状況に応じて大きく異なる場合がある。

例えば高齢者向けのデザインでは、視覚的効果が控えめで文字の多いものが優先される傾向にあり、逆に若者は色分けや現在のデザイン規則を好む傾向にある。新型コロナウイルス(COVID-19)のワクチン用ウェブサイトでは、操作方法や予約方法を理解するのに皆苦労したのではないだろうか。また、各銀行のウェブサイトは同じような情報でも操作方法が大きく異なっている。かつて、スタートアップ企業のUIは非常にシンプルなものだったが、機能が追加されるにつれベテランユーザーにとってさえも複雑になってきている。Instagramの過去5年間での変化がその良い例である。

エコシステムの複雑さ:複数のエクスペリエンスをシームレスに操作する責任をユーザーに負わせていないか?

私たちのデジタルライフは単一のサイトやアプリを中心としているわけではなく、オンラインで行うことすべてにおいてあらゆるツールを使用している。ほとんどのデジタルビジネスやプロダクトチームは、ユーザーを自分たちの庭に閉じ込めておきたいと考えており、ユーザーが達成しようとしていることに基づいて、ユーザーが必要とするかもしれない他のツールを考慮してくれることなどほとんどない。

病気になれば、保険、病院、医師、銀行との連携が必要になるだろう。大学の新入生の場合は学校のさまざまなシステムに加えて、ベンダー、住宅、銀行、その他の関連組織と連携しなければならない。このように、ユーザーがエコシステムの中でさまざまなエクスペリエンスをつなぎ合わせる際に困難に直面しても、結局のところユーザーの自己責任となってしまうのである。

受け継がれるバイアス:コンテンツを生成するシステム、別の目的のために作られたデザインパターン、エクスペリエンスをパーソナライズするための機械学習を使用している場合。

このような場合、これらのアプローチがユーザーにとって正しいエクスペリエンスを生み出しているかどうかをどのようにして確認しているだろうか?コンテンツ、UI、コードを他のシステムから活用する場合、それらのツールに組み込まれたバイアスを引き継いでしまうことになる。例えば、現在利用可能なAIコンテンツやコピー生成ツールはいくつも存在するが、自身のウェブサイトのためにこれらのシステムからコピーを生成した場合、そのバイアスをエクスペリエンスに取り込んでしまうことになる。

よりインクルーシブで公平なエクスペリエンスエコシステムの構築を始めるには、新しいデザインと組織的なプロセスが必要だ。よりカスタマイズされたデジタルエクスペリエンスの生成を支援するAIツールは、今後数年間でフロントエンドデザインやコンテンツへの新しいアプローチにおいて大きな役割を果たしてくれることだろう。しかし、どんな組織でも今すぐ実行できる5つのステップがある。

デジタルエクイティをDEIアジェンダの一部とするということ:多くの組織がダイバーシティ、エクイティ、インクルージョンの目標を掲げているものの、それらが顧客向けのデジタル製品に反映されることはほとんどない。筆者は大企業でデザインチームを率いたり、デジタルスタートアップで働いたりした経験があるが、問題はどこでも同じで、組織全体の多様なユーザーに対して明確な説明責任を果たしていないということなのである。

大企業でも中小企業でも、各部門が影響力の強さやどちらが顧客に近いかを競い合っている。デジタルエクスペリエンスや製品の出発点は、ビジネスレベルで多様なユーザーを定義し、優先順位をつけるところから始まるが、上級職レベルでデジタルとエクスペリエンスの公平性の定義を作成することが義務付けられているのなら、各部門はそれらの目標にどのように貢献できるかを定義すれば良い。

デザインチームやプロダクトチームは、経営陣や資金面でのサポートがなければインパクトを与えることができないため、経営幹部レベルはこの優先順位を確保するという責任を負う必要がある。

デザインチームと開発チームの多様性を優先すること:これについてはこれまでにも多くの記事が書かれてきたが、多様な視点を持たないチームというのは、自分たちの恵まれた経歴や能力だけに基づいたエクスペリエンスを生み出してしまうということを強調しておく必要がある。

さらに、多様なユーザーに向けたデザイン製作を経験したことのある人材を採用することが不可欠であるということも付け加えておきたい。デザイナーや開発者のグループを改善するため、採用プロセスをどのように変えているのか。多様な人材を確保するためにどういった企業と提携しているか。DEI目標は採用用紙上のチェックボックスに過ぎず、すでに思い描いていたデザイナーを採用していないだろうか。使用しているエージェントは明確かつ積極的なダイバーシティプログラムを持っているか。そして、彼らはインクルーシブデザインにどの程度精通しているか。

Googleの取り組みには模範的なものがいくつかある。人材パイプラインにおける代表性を向上させるための取り組みとして、機械学習コースへの資金提供を白人の多い教育機関からより包括的な学校に移し、TensorFlowコースへのアクセスを無料にし、またBIPOC(黒人、先住民、有色人種)にあたる開発者にはGoogle I/Oなどのイベントへの無料チケットを送付している。

何を、誰にテストするかを再定義する:ユーザーテストが実施される場合、収益性の高いユーザー層や特に重要なユーザー層に限定してテストが実施されることがあまりにも多い。しかし、お年寄りやデスクトップコンピュータをまったく使用しない若いユーザーに対してそのサイトはどのように機能するだろうか?

エクスペリエンスにおける公平性と平等性の重要な側面として、複数のエクスペリエンスを開発し、テストすることが挙げられる。ほとんどの場合、デザインチームは1種類のデザインをテストして、ユーザーからのフィードバックに基づいて微調整を行っている(テストを行ってさえいない場合もかなり多い)。手間はかかるものの、高齢者やモバイルしか持っていないユーザー、異なる文化的背景を持つユーザーなどのニーズを考慮したデザインバリエーションを作ることで、デザインをデジタルエクイティの目標に結びつけることができるのである。

「1つのデザインをすべてのユーザーに」届けるのではなく「複数バージョンのエクスペリエンスを立ち上げる」ということにデザイン目標を変更する:通常、最も重要なユーザーのニーズに基づいて、あらゆるエクスペリエンスを単一バージョンに絞り込むというのがデジタルデザインや製品開発の常識である。アプリやサイトのバージョンを1つではなく、多様なユーザーに合わせて複数バージョンを用意するというのは、多くのデザイン組織のリソース確保や製作の方法に反するものである。

しかし、エクスペリエンスの公平性をもたらすためにはこの転換が不可欠だ。簡単な自問をしてみると良い。そのサイト / 製品 / アプリには、高齢者向けのシンプルで大きな文字のバリエーションが用意されているだろうか?低所得世帯向けのデザインに関しては、デスクトップに切り替えて作業する人と同様に、モバイルのみ使用のユーザーでも難なく作業を完了できるだろうか?

これは、単にレスポンシブバージョンのウェブサイトを用意したり、バリエーションをテストして最適なデザインを見つけたりすることに留まらない。デザインチームは、優先されるべき多様なユーザーや十分なサービスを受けていないユーザーに直接結びつくような、複数の視点を持ったエクスペリエンスを提供するという目標を持つべきなのである。

自動化を導入し、ユーザーグループごとにコンテンツやコピーのバリエーションを作成する:デザインのバリエーションを揃えたり、幅広いユーザーでテストしたりしていたとしても、コンテンツやUIのコピーは後回しにされているということがよくある。特に組織の規模が大きくなるにつれてコンテンツが専門用語で溢れ、洗練されすぎて意味をなさなくなることがある。

既存の言葉(例えばマーケティングコピー)からコピーを取ってアプリに載せた場合、そのツールが何のためにあるのか、どうやって使うのかなどの、人々の理解を制限してしまっていないだろうか。エクスペリエンスの偏りに対するソリューションが、個々のニーズに基づいたフロントエンドデザインのバリエーションを用意することであるならば、それを劇的に加速させるスマートな方法の1つは、どこに自動化を適用すべきかを理解することである。

私たちは今、UIやコンテンツの制作方法を根本的に変えてしまうであろう新たなAIツールが、静かな爆発のように広がり続けている時代にいる。ここ1年でオンラインに登場したコピー駆動型のAIツールの量を見てみると良い。こういったツールはコンテンツ制作者が広告やブログ記事をより速く書けるようにすることを主な目的としているが、大規模なブランド内でこのようなツールをカスタム展開し、ユーザーのデータを取得してUIのコピーやコンテンツをその場で動的に生成するということも容易に想像ができる。例えば、年配のユーザーには専門用語を使わないテキストによるサービスや商品の説明が展開され、Z世代のユーザーには画像を多用したコピーが表示されるという具合だ。

ノーコードのプラットフォームでも同様のことが可能である。WebFlowからThunkableまで、すべてが動的に生成されるUIの可能性を持ち備えている。Canvaのデザインは物足りなく感じるかもしれないが、すでに何千もの企業がデザイナーを雇う代わりに、ビジュアルコンテンツ作成のため、Canvaを利用している。

多くの企業がAdobe Experience Cloudを利用しているが、その中に埋もれているエクスペリエンスの自動化機能を蔑ろにしていないだろうか。デザインの役割は最終的に、カスタムメイドのエクスペリエンスを手作りすることから、動的に生成されるUIのキュレーションへと変化していくことだろう。過去20年間にアニメーション映画が遂げた進化が良い例である。

機械学習とAIがもたらすデザインバリエーションの未来

上記のステップは、組織がエクスペリエンスの偏りに対処し、現在のテクノロジーを使って変えていくための方法を示したものである。しかし、エクスペリエンスの偏りに対処する未来が、デザインやコンテンツのバリエーション作成に根ざしているとすれば、AIツールがかなり重要な役割を果たすようになる。すでにJarvis.aiやCopy.aiなどのAI駆動型コンテンツツールの波が押し寄せており、またFigmaやAdobe XDなどのプラットフォームに組み込まれた自動化ツールも存在する。

フロントエンドデザインやコンテンツを動的に生成できるAIや機械学習の技術は、多くの点でまだ初期段階にあるものの、今後の展開を物語る興味深い事例があるため以下に紹介したい。

1つ目は、Googleが2021年初めに発表したAndroid端末向けのデザインシステムのMaterial Youである。このシステムではユーザーが高度なカスタマイズを施すことができ、また高度なアクセシビリティも内蔵している。ユーザーは色やフォント、レイアウトなどを自由にカスタマイズでき、自在にコントロールすることができるが、機械学習の機能により、場所や時間帯などユーザーの変数に応じてデザインが変化するようになっている。

パーソナライゼーションは、ユーザーが自分でカスタマイズできるようにするためのものと説明されているが、Material Youの詳細を見てみるとデザインレイヤーにおける自動化と多くの可能性が交差していることが分かる。

人々がAIを体験する際のデザイン原則やインタラクションについて、これまで各企業が取り組んできたことも忘れてはいけない。例えばMicrosoftのHuman-AI eXperienceプログラムでは、AI主導のエクスペリエンスを構築する際に使用できる、インタラクションの原則とデザインパターンのコアセットを、人間とAI間のインタラクションの失敗を予測して解決策を設計するためのプレイブックとともに提供している。

これらの例は、インタラクションやデザインがAIによって生成されることを前提とした未来の指標となるものであり、これが現実の世界でどのように機能していくかについてはまだ実例がほとんどない。重要なのは、偏りを減らすためにはフロントエンドデザインのバリエーションとパーソナライゼーションを根本的に増やすというところまで、事を進化させる必要があるということであり、またこれはAIとデザインが交差するところで生まれつつあるトレンドを物語っている。

こうしたテクノロジーと新たなデザイン手法が融合すれば、企業にとってはユーザーのためのデザインのあり方を根本的に変えるチャンスになるだろう。エクスペリエンスの偏りという課題に今目を向けなければ、フロントエンド自動化の新時代が到来したときには、その問題に対処するチャンスがなくなってしまうだろう。

編集部注:本稿の執筆者Howard Pyle(ハワード・パイル)氏は、デジタルエクスペリエンスに公平性を持たせることを目的とした非営利団体ExperienceFutures.orgの創設者であり、これまでにMetLifeやIBMでブランドサイドのデザインイニシアチブを主導してきた。

画像クレジット:naqiewei / Getty Images

原文へ

(文:Howard Pyle、翻訳:Dragonfly)