マイクロソフトの「PeopleLens」プロジェクトは視覚に障がいをもつ子どもが社交的ヒントを学ぶ手助けをする

視覚障がいがある成人にとって困難なことの1つに、目が見える人たちの社交、会話に使われるボディランゲージを理解して参加することがある。PeopleLens(ピープルレンズ)はMicrosoft(マイクロソフト)の研究プロジェクトで、ユーザーに周囲にいる人たちの位置と名前を知らせて、会話をより豊かで自然なものにすることが目的だ。

晴眼者は部屋で周囲を見渡すだけで、どこに誰がいて誰が誰と話しているかなど、社交的な手がかりや行動に役立つ数多くの基本的情報を瞬時に得ることができる。しかし視覚障がい者は、現在、誰が部屋に入ってきたのか、誰かがその人を見て会話を促したのかどうか、必ずしも知ることができない。これは、集団への参加を避けるなど孤立や非社交的行動につながる。

Microsoftの研究者たちは、視覚障がいをもって生まれた子どもがその情報を得て有効に活用するために、テクノロジーをどう役立てられるかを知りたかった。そして作ったのがPeopleLens、ARメガネで動作する高度なソフトウェア群だ。

メガネに内蔵されたセンサーを使って、ソフトウェアは知っている顔を認識し、その人のいる場所と距離を音声によるヒントで示す。クリック、チャイム、名前の読み上げなどだ。例えばユーザーの頭が誰かに向くと小さなぶつかる音が鳴り、その人が3メートル以内にいれば続けて名前が読まれる。その後高くなっていく音によってユーザーがその人物の顔に注意を向ける手助けをする。他にも、近くにいる誰かがユーザーを見たときにも通知音が鳴るなどの機能がある。

PeopleLensソフトウェアとその3D表示(画像クレジット:Microsoft Research)

これは、この種のデバイスを一生身につけるということではなく、さまざまなヒントに気づき、社交的な反応を見せる能力を向上するための支援ツールとして使うことが目的だ。他の子どもたちが視覚を利用して学習する非言語的スキルを身につけるためにも役立つ。

現在のPeopleLensはまだまだ実験に過ぎないが、これまでに研究チームはかなりの年月を費やしてきている。次のステップは、英国内で5~11歳の長期間デバイスをテストできる子どもたちを集め、同世代分析を行うことだ。自分の子どもがあてはまると思う人は、MicrosoftのパートナーであるUniversity of Bristol(ブリストル大学)の研究ページで申し込みができる。

画像クレジット:Microsoft Research

原文へ

(文:Devin Coldewey、翻訳:Nob Takahashi / facebook

視覚障がい者向けの触覚ディスプレイ「Dot Pad」

点字は視覚障がい者に広く利用されているが、ウェブやスマートデバイスのアクセシビリティが幅広く向上しているにもかかわらず、点字読書器のハードウェアの技術革新は基本的に滞っている。今回Dot(ドット)が開発したスマート点字デバイスは、文字を表示するだけでなく、画像を触覚で表現することができる。このことは教育や利用できるコンテンツにまったく新しい層を開く可能性がある。

同社のDot Pad(ドットパッド)2400本のピンが画素のように並んでおり、それらをすばやく上下させることで、点字文字や識別しやすい図形をかたち作ることができる。300文字分の点字表示領域を持ち、下部には20文字が表示できる従来のような直線領域がある。重要なことは、このデバイスがApple(アップル)の画面読み上げ機能VoiceOver(ボイスオーバー)に直接統合されていることで、この結果テキストやアイコンラベル、さらにはグラフや単純な画像をタップするだけで読み上げられるようになっていることだ。

韓国を拠点とする同社は、共同創業者のKi Kwang Sung(キ・クワン・ソン)氏とEric Ju Yoon Kim(エリック・ジュー・ユン・キム)氏によって創業された。彼らはコンピューターやインターフェースがこれだけ進化しているにもかかわらず、学習や読書のための選択肢がないことにうんざりしていたのだ。

デジタル点字ディスプレイはこれが初めてではない。このようなデバイスは何十年も前から存在していたが、その台数も機能も明らかに限られていた。デジタル文字を読むための点字ディスプレイが一般的だが、これは長年変わっていない古くさく不格好な1行表示機械で、他のやはり古くさいソフトウェアやハードウェアに依存したものであることが多い。

また、一般にこれらの機器は、子どもや学習を意識して作られていない。視覚障がいのある子どもたちは、教科書がなかったり、視覚障がいを考慮した活動が行われていないなどの、多くの社会的ハンディキャップに晒されている。そのため、ある子どもの両親は、幼児レベルで点字を教えることができる玩具BecDot(ベックドット)を開発した

ソン氏は「21世紀にもなって、視覚障がい者がグラフィカルな情報にデジタルな手段でアクセスできないのはおかしなことです」という。「教育、仕事、ソーシャルネットワークサービスなど、あらゆる業界でさまざまなイノベーションが起こり、グラフィック情報の要求が高くなっています。しかしそれが意味していることは視覚障がい者の切り捨てです。パンデミックの状況でも、障がい者のためのリモートワークや教育手段は必須だったのですが……そのためのソリューションがなかったのです」。

そこで2人は、一般人が当たり前のように使っているピクセルベースの画像や表現に、視覚障がい者がアクセスし、操作できるようなモニターを作ろうと考えたのだ。

画像クレジット:Dot

点字リーダーは一般に、ピンを必要に応じて上下させるために何百もの小さなヒンジとギアに依存しているので、非常に複雑な機械だ。また、継続的に触れることによる圧力に耐えられるような頑丈さも必要だ。これまでにも、権威ある研究機関からさまざまなイノベーションが生まれていたものの、実際に市場に出たものはなかった。Dotは、より優れた高性能のハードウェアを提供するだけでなく、スマートフォンやタブレット端末とのより深い連携によって、すべてを変革しようとしている。

Dot Padの革新性の核となるのは、やはり「ドット」そのものだ。この小さなピン(点字1文字につき6本)を何十本、何百本と、いかに確実に、すばやく(大きな音を立てずに)伸縮させるかにに対して、さまざまな解決策が生み出されてきたが、Dotのものはまったく新しい解だ。

画像クレジット:Dot

ソン氏は「スピーカーのメカニズムから発想しました」と説明する。彼らは、スマートフォンのスピーカーを振動させている小さな電磁アクチュエーターを、ピンの上下に利用することした。上下の位置で簡単にロックでき、すばやくロックを解除して引っ込めることができる磁気ボールローターを採用している。全体の大きさは、これまでの機構の数分の一で「既存の圧電点字アクチュエーターに比べて、10分の1ほどです」とソン氏はいう(Dotは、その仕組みを示す概略図やピンの断面図を私には見せてくれたが、それらを一般に公開することは拒否した)。

つまり、文字として読める大きさでありながら、画像を表すパターンを形成するのに十分な密度を持つピンを、わずかな間隔で何千本も並べたグリッドを作ることができたのだ。ドットパッドの下部には、伝統的な点字のための専用セクションがあるものの、メインのグリッド側は何よりも「触覚ディスプレイ」と表現した方がよいだろう。

私は量産前の試作機で遊ぶことができたが、それは非常にうまく機能し、画面全体を上から下へと約1秒でリフレッシュし(これも現在改善されていて、アニメーションも可能になりつつある)、ユーザーの手で容易にスキャンできるように思えた。どちらのディスプレイも、ピンの保護スクリーンを採用していて、簡単に交換することができる。ピンユニットそのものも簡単に交換できる。

Dotのもう1つの大きなアドバンテージは、Appleとの協力だ。Dot Padは、ジェスチャーで起動することが可能で、ハイライトされたものを瞬時にディスプレイ上に表示することができる。以下の動画で、その様子を見ることができる。

そして、iOS 15.2には開発者向けの新しい「触覚グラフィックスAPI」が用意されていて、アプリはこの機能を取り入れたり微調整したりできるようになっている(私はこのAPIについてAppleにコメントを求めたので、もし返信があればこの記事を更新する)。

キム氏は「世界中の多くの視覚障がい者がiPhoneやiPadを利用していますが、これは業界をリードする画面読み上げソフトVoiceOverのおかげです」という。「Dotの触覚技術がVoiceOverに最適化されたことで、デジタルアクセシビリティが拡大することを大変うれしく思っています。音声や文字として点字を超えて、ユーザーのみなさんが映像を感じ、理解を高めることができるようになりました」。

もちろん忠実度という意味では制約されているものの、アイコンや線画、グラフなどをうまく表示することができる。例えば、株の記事の中のグラフを想像して欲しい。目の見える人なら一目で理解できるが、そうでない人は、VoiceOverに組み込まれた、グラフを上昇と下降の音で表現するような、別の方法を見つけなければならない。ないよりはましだが、理想的でないことは確かだ。Dot Padは、VoiceOverと独自の画像解析アルゴリズムにより、ディスプレイ上の任意の画面領域や要素を表現しようとする。

文字も、1ページ分の点字(通常のように間隔をあけて並べる)か、文字そのものの形で表現することができる。これにより、ロゴの書体などをよりよく理解することができる(点字には当然セリフ[文字の端にある小さな飾り]はない)。実際、大型の活字を触感を使って体験するというのは、なかなか面白そうだ。

画像クレジット:Dot

さらに大切なのは、子どもたちにとってすばらしい材料となることだ。視覚障がいのある子どもは多くのことを見落としているが、Dot Padを使えば他の人たちが当たり前と思っている家や猫などの文字や形、単純なイメージなどを簡単に描くことができるようになる……視覚障がい者のコミュニティにおけるK-12教育(幼稚園から高校までの教育過程)に新たな変革が加わる可能性があるのだ。

これはもちろん、一般的なデバイスと密接に連携できるおかげだ。つまり特殊な状況だけで使えるリソースというわけではない。iPhoneやiPadは、現代のデジタル機器としてユビキタス(普遍的)なだけでなく、Dotが活用できる強固なアクセシビリティ機能群を備えている。

もちろん、音声を使ったインターフェースが大幅に改善されたことは、グラフィカルなインターフェースを使えない人々にとって非常に大きな力となったことは事実だが、特に読書や学習の場面ではいまでも点字が重要な選択肢であることに変わりはない。技術によって機会が阻害されることがないように、こうした手法はさらに 改善されなければならない。

コミュニティからのフィードバックは好意的であるという。ソン氏は「みなさん限界よりも可能性を中心に考えていらっしゃいます」という。彼らは早い段階から、画像のレンダリングを改善するために「ピクセル」数を増やしており、Dot Padに適したカスタムグラフィックスのライブラリに取り組んでいる。このため、たとえばTwitterのロゴがソフトウェアに認識された際に、毎回輪郭をスキャンするのではなく、代わりに独自のバージョンを使うことができる。

Dotは、2023年にローンチ予定のAmerican Printing House for the Blind(盲人のための米国印刷協会)とHumanWare(ヒューマンウェア)が率いるDynamic Tactile Device(動的触覚デバイス)プロジェクトで、その中核技術を利用できるようにする予定だ。開発者コミュニティにはAPIの経験に対する議論に加わる機会がある。

画像クレジット:Dot

将来の機能計画には、写真の触覚表現が含まれている。必ずしも画像そのものではなく、レイアウト、人物の位置と説明、その他の情報がディスプレイに表示される可能性がある。また、ピンを中間の高さで固定し、手触りのグラデーションなどに利用する方法も研究している。また、パッドは表示だけでなく、入力としても使える可能性がある。ピンを押して、画面の適切な部分にタッチ信号を送ることができれば、また別の便利な機能となるだろう。

もちろん、これまでの点字ディスプレイと同様、Dot Padも安くはないし、シンプルでもない。しかし、他の類似製品よりは安くてシンプルとなる可能性はある。製造や組み立ては簡単なことではないし、特に今はチップやその他の部品の価格が高騰しているため、トータルコストは口にしにくい(主に自動車の窓のコントロールスイッチに使われていた小さなICを数千個使っており、今その価格は高騰している最中だ)。

幸いなことに、これこそ誰もお金を払う必要のない機器であり、補助金などの制度も数多く用意されている。子どもたちは学校で使う机のような、どうしても必要なものにお金を払う必要はない。そして、障がい者が良い教育を受けられるようにすることは、すべての人の利益につながる。アクセシビリティの向上は、それ自体ももちろん歓迎すべきことだが、これまで学べなかった人、参加できなかった人が、ようやく仕事に参加できるようになるという大きな連鎖反応があるのだ。

Dotの創業者たちは、韓国政府や米国政府、盲人社会、支援団体と協力し、Dot Padをカリキュラムに組み入れ、既存の資金や方法を使って費用を賄っているという。触覚グラフィックスAPIの詳細については、こちらおよびAppleの開発者向けサイトで確認できる。

画像クレジット:Dot

原文へ

(文:Devin Coldewey、翻訳:sako)

準天頂起動衛星みちびき利用、車椅子ユーザー向け介助システム「B-SOS」と視覚障害者向け歩行ナビ「あしらせ」実証実験

準天頂起動衛星みちびきを利用、車椅子ユーザー向け介助システム「B-SOS」と視覚障害者向け歩行ナビ「あしらせ」の実証実験

準天頂軌道衛星みちびき(提供:内閣府宇宙開発戦略推進事務局)

車椅子ユーザー向け介助システムを開発するバリアフリーコンソーシアムと、視覚障害者のための歩行ナビゲーションシステムの開発を行うAshiraseは2022年1月24日、大分県大分市の大分駅前にて2つの介助サービスの実証実験を実施した。ひとつは、車椅子ユーザーの突発的な問題に付近の介助者が急行できるようにするシステム「B-SOS」。もうひとつは歩行ナビゲーションを行うシステム「あしらせ」。これらは、Ashiraseが提案し、内閣府と準天頂衛星システムサービスによる2021年度「みちびきを利用した実証事業」に採択された事業だ。

「B-SOS」システムは、車椅子ユーザーが単独で移動している際、段差や側溝にはまって立ち往生してしまったときなどに、付近にいる介助者がすぐに駆けつけられるようにサポートするというものだ。「みちびき」が配信するセンチメートル精度の測位補強情報「CLARCS」(クラークス)を利用して、「B-SOS」アプリに現場までのナビゲーション情報を示す。

準天頂起動衛星みちびきを利用、車椅子ユーザー向け介助システム「B-SOS」と視覚障害者向け歩行ナビ「あしらせ」の実証実験

B-SOSシステムのアプリ画面(ラムダシステム)

実証実験は、植え込みで車椅子が脱輪、歩行度までの坂を登れない、店の車椅子専用路に段ボール箱が置かれていて入店できないという3つの場面を想定し、社会福祉法人太陽の家の車椅子ユーザーと、大分東明高等学校の看護学生が参加して行われた。介助を求める人から、100メートル、200メートル、300メートルの各地点でSOSを受信した看護学生が、「B-SOS」のナビゲーションに従って駆けつけた。

B-SOSシステムでSOSを受信した介助役の看護学生により救出される様子

B-SOSシステムでSOSを受信した介助役の看護学生により救出される様子

もうひとつは、Ashiraseが2022年度に提供開始を予定している視覚障害者向けの歩行ナビゲーションシステム「あしらせ」を使った実験。ここでは「みちびき」のサブメーター級測位補強情報の配信サービス「SLAS」(エスラス)と組み合わせて、社会福祉法人大分県盲人協会の協力により視覚障害者に300メートルのコースを歩いてもらった。このシステムは、視覚障害者向けに特化した誘導情報を生成し、靴に装着した独自の振動インターフェイスで足に信号を伝える。音声を使わないため、聴覚を邪魔しないというメリットがある。また、目的地に到着しても建物の入口がわからないとった問題も想定し、被験者が目的地に近づいたときに人が出迎えて誘導する「あしらせお出迎え」サービスの検証も行った。

視覚障害者向けの歩行ナビゲーションシステム「あしらせ」

視覚障害者向けの歩行ナビゲーションシステム「あしらせ」

あしらせ実証実験の様子

あしらせ実証実験の様子

バリアフリーコソーシアムは、おおいたサテライトオフィスラムダシステム宇宙システム開発利用推進機構minsoraで構成される団体。大分を中心に企業の支援事業を展開するおおいたサテライトオフィスは、大分県の車椅子ユーザーの窓口を担当。ラムダシステムは、システム開発を担当。宇宙システム開発利用推進機構は「CLARCS」利用の技術サポートを担当。minsoraは、この事業のとりまとめを担当している。バリアフリーコンソーシアムは、大分県内での「B-SOS」システムの事業化を目指すとしている。また今回、「CLARCS」の配信プロバイダーサービスを2022年4月に開始する予定のminsoraは、宇宙システム開発利用推進機構との業務提携を発表した。

遺伝子治療による視覚再生の早期実用化を目指すレストアビジョンが3億円調達、網膜色素変性症治療薬の臨床試験目指す

遺伝子治療による視覚再生の早期実用化を目指すレストアビジョンが3億円のシード調達、網膜色素変性症治療薬の臨床試験目指す

遺伝子治療による視覚再生の早期実用化を目指すレストアビジョンは2月4日、シードラウンドにおいて、第三者割当増資による総額3億円の資金調達を実施したと発表した。引受先は、リアルテックファンド、ANRIおよびRemiges Venturesがそれぞれ運営するファンド。

調達した資金は、慶應義塾大学とともに採択された日本医療研究開発機構(AMED)などの補助金計3億円とあわせて、6億円の資金をもって、同社リードパイプラインである網膜色素変性症の遺伝子治療薬RV-001の製剤開発、非臨床試験などを推進し、RV-001の臨床試験の早期実現を目指す。

レストアビジョンは、慶應義塾大学医学部と名古屋工業大学の共同研究成果をもとに、オプトジェネティクス技術の臨床応用による、遺伝性網膜疾患に起因する失明患者の視覚再生の実現を目指して、2016年11月に設立。いまだ有効な治療法のない遺伝性網膜疾患に対し、同社の治療を提供していくことを第1のミッションに掲げて開発に取り組み、日本発・大学発の遺伝子治療技術の産業化による日本経済への貢献を目指している。

RV-001は、AAV(Adeno Associated Virus)ベクターに独自の光センサータンパク質である「キメラロドプシン」を目的遺伝子として搭載した遺伝子治療薬。ヒトの網膜において光センサーの役割を担う視細胞が、遺伝的要因で変性消失してしまう網膜疾患を主な対象として、簡便かつ低侵襲な投与方法である硝子体内注射によりRV-001を投与し、残存する介在神経細胞内でキメラロドプシンを発現させることで、視覚再生を実現する治療法という。

【コラム】完全なソーシャルメタバース体験は「音声」の要素が揃うことで実現する

Facebook(フェイスブック)の社名がMeta(メタ)に変更されたことで触発された「メタバース」にまつわる会話の多くは、ビジュアル的な要素に焦点を当てている。ほとんど言及されていないのは、オーディオだ。しかし仮想環境を現実のものにするには、音声は間違いなく重要になる。

時には、それがすべての場合もある。

Spike Jonze(スパイク・ジョーンズ)に尋ねてみよう。この映画監督は、2013年の映画「Her(her/世界で1つの彼女)」のタイトルロールで、その声を演じていた当初の女優を降板させ、Scarlett Johansson(スカーレット・ヨハンソン)の官能的な音声に置き換えた。コンピューターオペレーティングシステムであるサマンサは生身の人間として登場することはなかったが、ジョーンズは、元の女優が三次元のペルソナを作るのに必要な感情をうまく表現できていないと感じたのだ。

視聴者をストーリーの前提に引き込み、十分真実味のあるストーリーに仕立ててくれる、洗練されたキャラクターを作るのに、音声は不可欠な要素であった。

The Washington Post(ワシントン・ポスト)が指摘しているように、Metaのメタバース構想の要となるものは、その多くがビデオゲームの世界に、ただし分断されたゲームの世界に限られるが、すでに存在している。ゲームの世界では、音声がますます重要な役割を果たしている。Metaは、統合された相互運用可能な体験を約束しているが、高度にテクスチャ化された、生き生きとしたデジタル音声が豊富に含まれていなければ、メタバースは包括的で没入的というよりは不完全なものになるだろう。

1970年代半ばのMcGurk Effect(マガーク効果)の研究では、聴覚と視覚の認識の不一致から生じる認知的不協和が観察された。アバターと十分に合致しない音声は、参加者を仮想環境から切り離す可能性がある。

本当の自分を表現する

人間は社会的存在であり、現在推進されているメタバースは、参加者が家庭と職場の両方で独特のペルソナを作り出す社会的環境である。アバターを使えば、プレイヤーは自分が見られたいように自分を表現することができる。人間、宇宙人、動物、野菜、漫画やその他無数の選択肢があるだろう。プレイヤーは新たな装いを試すように、一時的に新しい「ルックス」を試用できる。ジェンダーと種は流動的である。

しかし、視覚的な存在感に合わせて自分の声の聞こえ方を変えることができなければ、アイデンティティの変化は妨げられる。自分の声を他の人に提示するペルソナに合わせることは、パーソナライズされたプレイヤーアイデンティティの中核的要素である。この状況はすでに多くの人がビデオゲームで慣れているものだ。

プレイ中のゲームで、あごひげをはやした無骨で巨大な騎士に遭遇した場合、そのキャラクターは深く荒々しい声をし、甲冑を身にまとっていることが予想される。ゲーム会社は、ノンプレイヤーキャラクター(NPC)を声優とオーディオの専門家が入念に制作し、没入感のある体験を提供することで、こうしたイメージの伝達を確保している。

しかしオンラインゲーム環境や将来のメタバースでは、その騎士は実在する人物が表現するものとなり、体験は大きく異なってくる。予想されるような太くしゃがれた成熟味ある声ではなく、マイク品質に問題のある甲高いティーンエイジャーの声を聞いて、困惑することもあるかもしれない。音と視覚の間の極端な不一致は、体験の没入的な質を損なう。メタバースアバターに十分な没入感を持たせるには、人々が完全なデジタル体験を作り出せるよう配慮する必要がある。

カバーの提供

ソニック(音響の)アイデンティティの技術は、没入感の提供に加えて、プレイヤーに「真の」匿名性をもたらし得る。彼らは、他人に見てもらいたいと思うような人物(または存在)になることができる。これは多くの人にとって、時には敵対的なオンライン環境からの強力な保護となるだろう。地理的な特徴をわからないようにして、参加者がプレイヤーコミュニティをよりスムーズに統合できるようにすることも考えられる(オフショアのカスタマーサポートコールセンターが恩恵を受ける可能性のあるケイパビリティだ)。音声チックを有する人にとっては、明らかにしたくない身体障害を覆うことにもつながる。

音声変更技術は、オンラインでの差別や嫌がらせを緩和するのにも役立つ。医学専門誌「International Journal of Mental Health and Addiction(メンタルヘルスと中毒に関する国際ジャーナル)」に2019年に掲載された研究によると、女性ゲーマーは他のプレイヤーとの口頭でのコミュニケーションを避け、不快なやり取りを減らすことが多いという。音声変更技術により、特定のジェンダーに関係なく、完全に匿名性が確保された会話に参加することが可能になり、自分自身をより快適に表現できるようになる。

学術誌「Human-Computer Interactions(ヒューマンコンピュータインタラクション)」の研究者らは2014年に「音声はオンラインゲームの体験を根本的に変え、仮想空間をより強力に社会性のあるものにしている」と結論づけている。

筆者自身の会社のデータからは、音声でコミュニケーションを取るプレイヤーは、よりゲームに没頭するように感じる自意識に変容し、より長い時間ゲームに関わり、結果としてゲーム内でより多くのお金を投じるようになることが明らかになっている。

メタバースに欠けているもの

真に完全な没入型体験を実現するには、3Dビジュアルとリアルタイムオーディオを組み合わせて、人々が自分自身の表現を行う上で、耳を傾けてもらいたいという彼らの思いに添う形で実現できるようにする必要がある。参加者は、自分の視覚的アバターと同じくらい独創的で独自性のある自分自身の音響表現を望んでいる。そして、自分の声を外見と同じようにきめ細かくカスタマイズするツールを求めている。プレイヤーの没入感とエンゲージメントを維持するには、拡張されたオーディオと3Dビデオの両方が調和している必要がある。

リアルタイムオーディオは、人々がどのようにして究極の個性をコンテンツにもたらすことができるかを定義し、オーディオをメタバースのすばらしいイコライザーとして機能させる。残念なことに、現在の音声体験は、すべてを網羅するメタバースの約束に沿った没入的な品質を提供することが難しくなっている。

熱心なアーリーアダプターたちの実験にもかかわらず、リアルタイムオーディオのペルソナは、良くても制限的だ。人の音声をデジタルの自己に合わせるためのツールは限られており、音質は視覚的な品質にまだ及ばない。

だが、利用可能なオーディオ技術における最近の進歩は、プレイヤーによる独自のソニックアイデンティティ形成を現状よりはるかに容易なものへと変えようとしている。プラットフォーム開発者やゲーム開発者が利用できる新しいソリューションにより、ライターやプロデューサー、オーディオエンジニアは、ゲーム内に音声修正技術を組み込んで、自然に聞こえるファンタジー音声をオンデマンドかつリアルタイムで生成できるようになっている。

このことは、プレイヤーを魅了して完全にフォーカスさせ、離れさせることなくその体験へのエンゲージメントを維持するような、包括的で没入的な聴覚体験の提供を通して、収益化のための新しい道を生み出す可能性へとつながっていく。

企業は、人々がデジタル空間で自分自身の視覚表現を形作ることを可能にする、強力なツールへの投資を進めている。こうした企業は、デジタル表現がシームレスになるソーシャルオーディオ体験に合わせてカスタマイズされた、ソニックアイデンティティを見過ごしてはならない。

メタバースはそれなしでは完成しないだろう。

編集部注:本稿の執筆者Jaime Bosch(ハイメ・ボッシュ)氏はVoicemodの共同創設者兼CEO。

画像クレジット:luza studios / Getty Images

原文へ

(文:Jaime Bosch、翻訳:Dragonfly)

視覚障がいを持つ人のモビリティを強化するためスマート杖のWeWALKと提携したMoovit

世界的に人気の旅行計画アプリを提供するMaaS(モビリティ・アズ・ア・サービス)プロバイダーであるインテル傘下のMoovit(ムーヴィット)は、視覚障がい者がより安全かつ効率的に目的地に到達できるようにするために、スマート杖の会社WeWALK(ウィーウォーク)と提携した。

WeWALKの研究開発責任者Jean Marc Feghali(ジャン・マルク・フェガリ)氏によると、WeWALKのアプリは、MoovitのTransit APIと統合される予定だ。このAPIは、視覚障がい者が公共交通機関を安全に利用できるようにするために、地域の交通機関の公式情報とクラウドソースの情報を組み合わせて、各旅程に最適なルートを導き出す。

今回の提携は、共有する電動スクーターや自転車をアプリ内に表示するための、Lime(ライム)、Bird(バード)、そして最近ではSuperpedestrian(スーパーペデストリアン)などのマイクロモビリティ企業とMoovitとの統合に続くものだ。また、Moovitは、交通不便地域の利用者のためのオンデマンド交通サービスや、自律走行型送迎サービスを提供するためにインテルのMobileye(モービルアイ)と提携するなど、新たなビジネスユニットを立ち上げている。

現在3400都市で展開しているMoovitは、あらゆる場所で、あらゆる人にサービスを提供しようとしているようで、その中にはもちろん視覚障がい者も含まれるべきだ。障がい者コミュニティ向けの交通技術は決して多くはないが、いくつかの有用なイノベーションが生まれ始めている。例えば、本田技研工業のインキュベーション企業であるAshirase(あしらせ)は、最近、WeWALKの杖に似た靴の中のナビゲーションシステムを発表した

杖自体は、シャフトを介してアナログ的に地上の障害物を検知することができるが、杖に取り付けられたスマートデバイスは、超音波センサーを用いて上半身の障害物を検知する。また、杖に内蔵された振動モーターによる触覚フィードバックにより、さまざまな距離の障害物を警告する。

「WeWALKは、バス停への道案内など、さらに多くのことができます」とフェガリ氏は、TechCrunchの取材に対し述べた。「Bluetoothを介して、スマート杖は、WeWALKスマートフォンアプリに接続します。このアプリは、最も包括的で利用しやすい視覚障がい者向けナビゲーションアプリの1つだと考えています。当社のアプリは、Moovitサービスと、当社が独自に開発したナビゲーションエンジンとアプリのインターフェースを統合して、徒歩や公共交通機関のナビゲーションや都市探索機能を提供します」。

ユーザーがアプリに目的地を入れてルートを選択すると、スマート杖は音声ガイドとロービジョンマッピングによってユーザーの旅を段階的に案内し、交通機関の停留所を指示したり、次の交通機関の車両が到着したことを知らせたりする。また、乗車時や目的の停留所に到着した際には通知されるため、利用者は自分が正しい停留所にいることや、降りるタイミングを知ることができる。

ユーザーにとっての一番の利点は、片手で携帯電話を持ち、もう片方の手で杖を持つ必要がないことだ。スマート杖の柄の部分にはアプリと接続されたタッチパッドが内蔵されており、ジェスチャーを使ってスマホを操作しながら、現在地の確認、交通機関の時刻表や近くの交通機関の停留所の確認、目的地までの移動などができる。

「例えば、ユーザーがインペリアル・カレッジ・ロンドンに向かう際には、スマート杖がルートの選択肢をアナウンスし、各段階に応じてユーザーを案内します」とフェガリ氏は述べた。「歩きの場合、WeWALKはバッキンガム・パレス・ロードを12時の方向に50m進み、3時の方向に右折してステーション・ロードに入りますとアナウンスします。地下鉄の駅では、WeWALKが電車の到着時に乗るべき電車を通知し、降りる必要がある前にユーザーに知らせます」。

今回の提携は、金曜日の国際障がい者デーに合わせたもので、視覚障がい者が雇用や教育、社会活動の機会を得るために、より自律的で自由な移動ができるようになることを期待している。

「目の不自由な方は、これまでにないほど自立した生活を送ることができているが、公共交通機関を利用して移動することはまだ困難で、圧倒されることもあります」Moovitのチーフグロース&マーケティングオフィサーYovav Meydad(ヨバフ・メイダッド)氏はコメントしている。「今回の提携により、移動手段の障壁を取り除き、人々に安心感を与え、より多くの機会にアクセスできるようになることを目指します」。

画像クレジット:Moovit

原文へ

(文:Rebecca Bellan、翻訳:Yuta Kaminishi)

視覚障がいに関する最先端技術を語るバーチャルイベント「Sight Tech Global」のメインプログラムを公開

2020年に続いて2021年が2回目となる参加無料のバーチャルイベント「Sight Tech Global」が米国時間12月1〜2日に開催される。2021年も視覚障がい者にとってのアクセシビリティや支援技術を実現する高度なテクノロジー、特にAIに関して、世界トップクラスの専門家がこのイベントに集う。

この記事ではメインステージのプログラムを紹介しよう。メインステージのセッションは専門家が進行し、現在この分野の大手4社と言えるApple、Microsoft、Google、Amazonをはじめとする各社の注目すべき取り組みが語られる。メインステージの他に分科会セッションを予定しているが、そちらは後日紹介する予定だ。

この無料のバーチャルイベントに、今すぐ参加登録しよう。スクリーンリーダーの対応も十分に準備している。

12月1日のSight Tech Global

Designing for Everyone:Accessibility and Machine Learning at Apple(すべての人のためのデザイン:Appleのアクセシビリティと機械学習)

AppleのiPhoneとVoiceOverはアクセシビリティにおける最大級のブレイクスルーだが、Appleはその成果に満足して歩みを止めているわけではない。次のイノベーションにはAIのサブセットである「機械学習」が加わり、スマートフォンのセンサーなどから得たデータを用いて周囲の状況を理解できる。アクセシビリティのための実装が姿を見せ始めている。

Jeff Bigham(ジェフリー・ビガム、Apple、AI/MLアクセシビリティリサーチ責任者)
Sarah Herrlinger(サラ・ヘルリンガー、Apple、グローバルアクセシビリティポリシー&イニシアチブ担当シニアディレクター)
進行:Matthew Panzarino(マシュー・パンザリーノ、TechCrunch編集長)

Seeing AI:What Happens When You Combine Computer Vision, LiDAR and Audio AR?(Seeing AI;コンピュータビジョン、LiDAR、オーディオARを組み合わせるとどうなるのか)

MicrosoftのSeeing AIアプリには周囲の物体を認識して3D空間に配置する最新機能が搭載された。物体が室内に置かれている、まさにその場所から読み上げが聞こえる。つまり「椅子」という語が椅子そのものから発せられているように聞こえる。ユーザーはバーチャルのオーディオビーコンをオブジェクトに配置して、例えばドアの場所を把握し、近接センサーで部屋の様子を触覚で知ることができる。

AR、コンピュータビジョン、iPhone 12 ProのLiDARセンサーといった最新の進化を組み合わせればこのようなことが可能になる。この取り組みは始まったばかりだ。

Saqib Shaikh(サーキブ・シャイフ、Seeing AI、共同創始者)
進行:Devin Coldewey(デヴィン・コールドウェイ、TechCrunch、編集者)

W3C ARIA-AT:Screen readers, Interoperability and a New Era of Web Accessibility(W3C ARIA-AT:スクリーンリーダー、相互運用性、ウェブアクセシビリティの新時代)

スクリーンリーダーは、ウェブブラウザとは違って相互運用性がないことをご存じだろうか。ウェブサイト開発者は自分の書くコードがSafariやChrome、あるいはその他のブラウザで動くかどうかを心配する必要はない。しかしアクセシビリティを真剣に考えると、JAWS、VoiceOver、NVDAなどのスクリーンリーダーをテストしなくてはならない。この状況がW3C ARIA-ATプロジェクトのおかげで変わりつつある。

(このセッションの後、12月2日にキング氏とフェアチャイルド氏、W3C ARIA-ATのメンバー数人が参加するライブの分科会セッションを予定している)

Matt King(マット・キング、Facebook、アクセシビリティ技術プログラムマネージャー)
Mike Shebanek(マイク・シェバネク、Facebook、アクセシビリティ責任者)
Michael Fairchild(マイケル・フェアチャイルド、Deque、シニアアクセシビリティコンサルタント)
進行: Caroline Desrosiers(キャロリン・デロジエ、Scribely、創業者兼CEO)

The “Holy Braille”:The Development of a New Tactile Display Combining Braille and Graphics in One Experience(「神」点字:点字とグラフィックスの両方を扱える新しい触覚ディスプレイの開発)

現在、視覚障がい者が点字で書かれたものを利用できる機会は、見える人が紙に書かれたものを利用する機会よりもずっと少ない。その都度更新しながら1行ずつ表示する点字ディスプレイが長年使用されてきたが、一度に1行しか読めないのでリーディングのエクスペリエンスは極めて制限されている。この制限は、長い書類を読むときや書籍に表やグラフといったコンテンツがある場合に、特に顕著に感じられる。American Printing House for the Blind(APH)とHumanWareは共同で、点字を複数行表示したり、点字と同じ面に触図を表示したりすることのできる触覚デバイスを開発している。Dynamic Tactile Device(DTD、動的触覚デバイス)と呼ばれるこのツールは、視覚障がい者が利用する複数行のブックリーダーや触図ビューアーを目指している。

(このセッションの後、グレッグ・スティルソン氏、HumanWareの点字プロダクトマネージャーであるAndrew Flatres[アンドリュー・フラトレス]氏が参加するライブの分科会Q&Aセッションを予定している)

Greg Stilson(グレッグ・スティルソン、APH、グローバルイノベーション責任者)
進行:Will Butler(ウィル・バトラー、Be My Eyes、バイスプレジデント)

Indoor Navigation:Can Inertial Navigation, Computer Vision and Other New Technologies Work Where GPS Can’t?(屋内ナビゲーション:GPSが使えない場所で慣性ナビゲーションやコンピュータビジョンなどの新しいテクノロジーはどう機能するか)

スマートフォン、GPS、ナビゲーションアプリのおかげで、視覚障がい者は1人で屋外を歩き回れる。しかし屋内となると話は別だ。

まず、GPSは屋内で使えないことがある。そしてドアの場所を知り、階段を見つけ、誰かが移動させたソファを避けるのは難しい。プロダクト開発者が屋内スペースをマッピングし、屋内の位置を提供し、アクセシブルなユーザーインターフェイスを用意すれば、慣性ナビゲーション、オーディオAR、LiDAR、コンピュータビジョンといったスマートフォンとクラウドのテクノロジーの組み合わせは解決の基盤となるかも知れない。

Mike May(マイク・メイ、GoodMaps、チーフエバンジェリスト)
Paul Ruvolo(ポール・ルボロ、オーリン・カレッジ・オブ・エンジニアリング、コンピュータサイエンス助教授)
Roberto Manduchi(ロベルト・マンドゥチ、カリフォルニア大学サンタクルーズ校、コンピュータサイエンス教授)
進行:Nick Giudice(ニック・ジュディチェ、メイン大学、空間情報科学教授)

12月2日のSight Tech Global

Why Amazon’s vision includes talking less to Alexa(Amazonが話しかけないAlexaを考える理由)

家庭でテクノロジーが多く使われるようになると、Teachable AIやマルチモーダル理解、センサー、コンピュータビジョンなど、さまざまなソースからのインプットによって周囲の環境が作られる。すでにAlexaスマートホームでのやりとりの5回に1回は、話し言葉以外から開始されている。Alexaは利用者や利用者の家を十分に理解してニーズを予測し、利用者に代わって有効なやり方で動作する。こうしたことは、アクセシビリティにどのような影響を及ぼすだろうか?

Beatrice Geoffrin(ベアトリス・ジェフリン、Amazon、Alexa Trustディレクター)
Dr. Prem Natarajan(プレム・ナタラジャン、Amazon、Alexa AI担当バイスプレジデント)

Inventors Invent:Three New Takes on Assistive Technology(発明家たちの発明:支援テクノロジーに関する新たな3つの成果)

発明家たちは、その才能を視覚障がい者の支援に生かすことに長年取り組んできた。Mike Shebanek(マイク・シェバネク、AppleのVoiceOverを開発)氏やJim Fruchterman (ジム・フルヒターマン、BenetechのBookshareを開発)に代表されるイノベーターが思い起こされるだろう。現在イノベーターにとっては、LiDAR、コンピュータビジョン、高速データネットワークなどほとんど奇跡といってもいいようなテクノロジーが手ごろにそろっている。その結果、イノベーションは目のくらむほどの速さで進む。このセッションでは、こうしたコアテクノロジーを新しい注目のツールに生かす最前線にいる3人のイノベーターに話を聞く。

Cagri Hakan Zaman(カグリ・ハカン・ザマン、MediateおよびSuperSense、共同創業者)
Kürşat Ceylan(クルサット・セイラン、WeWalk Technology、共同創業者)
Louis-Philippe Massé(ルイ・フィリップ・マセ、HumanWare、プロダクトマネジメント担当ディレクター)
進行:Ned Desmond(ネッド・デズモンド、Sight Tech Global、創業者兼エグゼクティブプロデューサー)

Product Accessibility:How Do You Get it Right? And How Do You Know When You Have?(プロダクトのアクセシビリティ:どうすれば効果的か、そして効果をどう知るか)

アクセシビリティの認知度は上がっているが、高い意識を持っているチームでさえも効果的なアプローチを見つけるのには苦労する。ポイントの1つは、適切なユーザーコミュニティと緊密に連携し、フィードバックを得たりニーズを理解したりすることだ。するとトレードオフではなく、すべての人にとってより良いプロダクトになる。このセッションで、プロダクト開発においてアクセシビリティの最前線にいる専門家から話を聞こう。

Christine Hemphill(クリスティン・ヘンフィル、Open Inclusion、創業者兼代表取締役)
Alwar Pillai(アルウォー・ピライ、Fable、共同創業者兼CEO)
Sukriti Chadha(スクリティ・チャダ、Spotify、プロダクトマネージャー)
Oliver Warfield(オリバー・ウォーフィールド、Peloton Interactive、
アクセシビリティ担当シニアプロダクトマネージャー)
Brian Fischler(ブライアン・フィシュラー、All Blind Fantasy Football Leagueコミッショナー、コメディアン)
進行:Larry Goldberg(ラリー・ゴールドバーグ、Yahoo、アクセシビリティ責任者)

For Most Mobile Phone Users, Accessibility Is Spelled Android(多くのスマートフォンユーザーにとって、アクセシビリティはAndroidで実現する)

世界の携帯電話ユーザーの4分の3は、AppleのiPhoneではなく、GoogleのAndroidで動作するスマートフォンを使っている。視覚障がい者にとって重要なアプリはGoogleのLookoutで、これはコンピュータビジョンのデータベースやGoogleマップなど、GoogleのAIインフラストラクチャが備える莫大なリソースを活用している。GoogleはLookoutに代表される多くのアクセシビリティの機会にどのようにアプローチしているかを聞く。

Eve Andersson(イブ・アンダーソン、Google、アクセシビリティ担当ディレクター)
Andreina Reyna(アンドレイナ・レイナ、Google、シニアソフトウェアエンジニア)
Warren Carr(ウォーレン・カー、Blind Android User Podcast、制作者)

Getting around:Autonomous Vehicles, Ridesharing and Those Last Few Feet(外出する:自動運転車、ライドシェア、そしてラスト数メートル)

スマートフォンで車を呼び出すという多くの人の夢はかなったが、ほんの数メートルしか離れていなくてもその車を見つけるのが難しいとしたら、悪夢であり危険だ。ライドシェアや自動運転タクシーの企業は、視覚に障がいがある利用者から車までの数メートルをもっと安全で利用しやすくするためにどんな取り組みをしているのだろうか。

Kerry Brennan(ケリー・ブレナン、Waymo、UXリサーチマネージャー)
Marco Salsiccia(マルコ・サルシッチャ、Lyft、アクセシビリティエバンジェリスト)
Eshed Ohn-Bar(エシェド・オン・バー、ボストン大学、助教授)
進行:Bryan Bashin(ブライアン・バシン、サンフランシスコLightHouse、CEO)

この無料のオンラインイベントに、ぜひ参加登録して欲しい

Sight Tech Globalは、シリコンバレーで75年にわたって運営されているNPOのVista Center for the Blind and Visually Impairedが主催する。現在、Ford、Google、Humanware、Microsoft、Mojo Vision、Facebook、Fable、APH、Visperoがスポンサーとして決定し、感謝している。本イベントのスポンサーに関心をお持ちの方からの問い合わせをお待ちしている。スポンサーシップはすべて、Vista Center for the Blind and Visually Impairedの収入となる。

画像クレジット:Sight Tech Global

原文へ

(文:Ned Desmond、翻訳:Kaori Koyama)

視覚障がいに関する最先端技術を語るバーチャルイベント「Sight Tech Global」のメインプログラムを公開

2020年に続いて2021年が2回目となる参加無料のバーチャルイベント「Sight Tech Global」が米国時間12月1〜2日に開催される。2021年も視覚障がい者にとってのアクセシビリティや支援技術を実現する高度なテクノロジー、特にAIに関して、世界トップクラスの専門家がこのイベントに集う。

この記事ではメインステージのプログラムを紹介しよう。メインステージのセッションは専門家が進行し、現在この分野の大手4社と言えるApple、Microsoft、Google、Amazonをはじめとする各社の注目すべき取り組みが語られる。メインステージの他に分科会セッションを予定しているが、そちらは後日紹介する予定だ。

この無料のバーチャルイベントに、今すぐ参加登録しよう。スクリーンリーダーの対応も十分に準備している。

12月1日のSight Tech Global

Designing for Everyone:Accessibility and Machine Learning at Apple(すべての人のためのデザイン:Appleのアクセシビリティと機械学習)

AppleのiPhoneとVoiceOverはアクセシビリティにおける最大級のブレイクスルーだが、Appleはその成果に満足して歩みを止めているわけではない。次のイノベーションにはAIのサブセットである「機械学習」が加わり、スマートフォンのセンサーなどから得たデータを用いて周囲の状況を理解できる。アクセシビリティのための実装が姿を見せ始めている。

Jeff Bigham(ジェフリー・ビガム、Apple、AI/MLアクセシビリティリサーチ責任者)
Sarah Herrlinger(サラ・ヘルリンガー、Apple、グローバルアクセシビリティポリシー&イニシアチブ担当シニアディレクター)
進行:Matthew Panzarino(マシュー・パンザリーノ、TechCrunch編集長)

Seeing AI:What Happens When You Combine Computer Vision, LiDAR and Audio AR?(Seeing AI;コンピュータビジョン、LiDAR、オーディオARを組み合わせるとどうなるのか)

MicrosoftのSeeing AIアプリには周囲の物体を認識して3D空間に配置する最新機能が搭載された。物体が室内に置かれている、まさにその場所から読み上げが聞こえる。つまり「椅子」という語が椅子そのものから発せられているように聞こえる。ユーザーはバーチャルのオーディオビーコンをオブジェクトに配置して、例えばドアの場所を把握し、近接センサーで部屋の様子を触覚で知ることができる。

AR、コンピュータビジョン、iPhone 12 ProのLiDARセンサーといった最新の進化を組み合わせればこのようなことが可能になる。この取り組みは始まったばかりだ。

Saqib Shaikh(サーキブ・シャイフ、Seeing AI、共同創始者)
進行:Devin Coldewey(デヴィン・コールドウェイ、TechCrunch、編集者)

W3C ARIA-AT:Screen readers, Interoperability and a New Era of Web Accessibility(W3C ARIA-AT:スクリーンリーダー、相互運用性、ウェブアクセシビリティの新時代)

スクリーンリーダーは、ウェブブラウザとは違って相互運用性がないことをご存じだろうか。ウェブサイト開発者は自分の書くコードがSafariやChrome、あるいはその他のブラウザで動くかどうかを心配する必要はない。しかしアクセシビリティを真剣に考えると、JAWS、VoiceOver、NVDAなどのスクリーンリーダーをテストしなくてはならない。この状況がW3C ARIA-ATプロジェクトのおかげで変わりつつある。

(このセッションの後、12月2日にキング氏とフェアチャイルド氏、W3C ARIA-ATのメンバー数人が参加するライブの分科会セッションを予定している)

Matt King(マット・キング、Facebook、アクセシビリティ技術プログラムマネージャー)
Mike Shebanek(マイク・シェバネク、Facebook、アクセシビリティ責任者)
Michael Fairchild(マイケル・フェアチャイルド、Deque、シニアアクセシビリティコンサルタント)
進行: Caroline Desrosiers(キャロリン・デロジエ、Scribely、創業者兼CEO)

The “Holy Braille”:The Development of a New Tactile Display Combining Braille and Graphics in One Experience(「神」点字:点字とグラフィックスの両方を扱える新しい触覚ディスプレイの開発)

現在、視覚障がい者が点字で書かれたものを利用できる機会は、見える人が紙に書かれたものを利用する機会よりもずっと少ない。その都度更新しながら1行ずつ表示する点字ディスプレイが長年使用されてきたが、一度に1行しか読めないのでリーディングのエクスペリエンスは極めて制限されている。この制限は、長い書類を読むときや書籍に表やグラフといったコンテンツがある場合に、特に顕著に感じられる。American Printing House for the Blind(APH)とHumanWareは共同で、点字を複数行表示したり、点字と同じ面に触図を表示したりすることのできる触覚デバイスを開発している。Dynamic Tactile Device(DTD、動的触覚デバイス)と呼ばれるこのツールは、視覚障がい者が利用する複数行のブックリーダーや触図ビューアーを目指している。

(このセッションの後、グレッグ・スティルソン氏、HumanWareの点字プロダクトマネージャーであるAndrew Flatres[アンドリュー・フラトレス]氏が参加するライブの分科会Q&Aセッションを予定している)

Greg Stilson(グレッグ・スティルソン、APH、グローバルイノベーション責任者)
進行:Will Butler(ウィル・バトラー、Be My Eyes、バイスプレジデント)

Indoor Navigation:Can Inertial Navigation, Computer Vision and Other New Technologies Work Where GPS Can’t?(屋内ナビゲーション:GPSが使えない場所で慣性ナビゲーションやコンピュータビジョンなどの新しいテクノロジーはどう機能するか)

スマートフォン、GPS、ナビゲーションアプリのおかげで、視覚障がい者は1人で屋外を歩き回れる。しかし屋内となると話は別だ。

まず、GPSは屋内で使えないことがある。そしてドアの場所を知り、階段を見つけ、誰かが移動させたソファを避けるのは難しい。プロダクト開発者が屋内スペースをマッピングし、屋内の位置を提供し、アクセシブルなユーザーインターフェイスを用意すれば、慣性ナビゲーション、オーディオAR、LiDAR、コンピュータビジョンといったスマートフォンとクラウドのテクノロジーの組み合わせは解決の基盤となるかも知れない。

Mike May(マイク・メイ、GoodMaps、チーフエバンジェリスト)
Paul Ruvolo(ポール・ルボロ、オーリン・カレッジ・オブ・エンジニアリング、コンピュータサイエンス助教授)
Roberto Manduchi(ロベルト・マンドゥチ、カリフォルニア大学サンタクルーズ校、コンピュータサイエンス教授)
進行:Nick Giudice(ニック・ジュディチェ、メイン大学、空間情報科学教授)

12月2日のSight Tech Global

Why Amazon’s vision includes talking less to Alexa(Amazonが話しかけないAlexaを考える理由)

家庭でテクノロジーが多く使われるようになると、Teachable AIやマルチモーダル理解、センサー、コンピュータビジョンなど、さまざまなソースからのインプットによって周囲の環境が作られる。すでにAlexaスマートホームでのやりとりの5回に1回は、話し言葉以外から開始されている。Alexaは利用者や利用者の家を十分に理解してニーズを予測し、利用者に代わって有効なやり方で動作する。こうしたことは、アクセシビリティにどのような影響を及ぼすだろうか?

Beatrice Geoffrin(ベアトリス・ジェフリン、Amazon、Alexa Trustディレクター)
Dr. Prem Natarajan(プレム・ナタラジャン、Amazon、Alexa AI担当バイスプレジデント)

Inventors Invent:Three New Takes on Assistive Technology(発明家たちの発明:支援テクノロジーに関する新たな3つの成果)

発明家たちは、その才能を視覚障がい者の支援に生かすことに長年取り組んできた。Mike Shebanek(マイク・シェバネク、AppleのVoiceOverを開発)氏やJim Fruchterman (ジム・フルヒターマン、BenetechのBookshareを開発)に代表されるイノベーターが思い起こされるだろう。現在イノベーターにとっては、LiDAR、コンピュータビジョン、高速データネットワークなどほとんど奇跡といってもいいようなテクノロジーが手ごろにそろっている。その結果、イノベーションは目のくらむほどの速さで進む。このセッションでは、こうしたコアテクノロジーを新しい注目のツールに生かす最前線にいる3人のイノベーターに話を聞く。

Cagri Hakan Zaman(カグリ・ハカン・ザマン、MediateおよびSuperSense、共同創業者)
Kürşat Ceylan(クルサット・セイラン、WeWalk Technology、共同創業者)
Louis-Philippe Massé(ルイ・フィリップ・マセ、HumanWare、プロダクトマネジメント担当ディレクター)
進行:Ned Desmond(ネッド・デズモンド、Sight Tech Global、創業者兼エグゼクティブプロデューサー)

Product Accessibility:How Do You Get it Right? And How Do You Know When You Have?(プロダクトのアクセシビリティ:どうすれば効果的か、そして効果をどう知るか)

アクセシビリティの認知度は上がっているが、高い意識を持っているチームでさえも効果的なアプローチを見つけるのには苦労する。ポイントの1つは、適切なユーザーコミュニティと緊密に連携し、フィードバックを得たりニーズを理解したりすることだ。するとトレードオフではなく、すべての人にとってより良いプロダクトになる。このセッションで、プロダクト開発においてアクセシビリティの最前線にいる専門家から話を聞こう。

Christine Hemphill(クリスティン・ヘンフィル、Open Inclusion、創業者兼代表取締役)
Alwar Pillai(アルウォー・ピライ、Fable、共同創業者兼CEO)
Sukriti Chadha(スクリティ・チャダ、Spotify、プロダクトマネージャー)
Oliver Warfield(オリバー・ウォーフィールド、Peloton Interactive、
アクセシビリティ担当シニアプロダクトマネージャー)
Brian Fischler(ブライアン・フィシュラー、All Blind Fantasy Football Leagueコミッショナー、コメディアン)
進行:Larry Goldberg(ラリー・ゴールドバーグ、Yahoo、アクセシビリティ責任者)

For Most Mobile Phone Users, Accessibility Is Spelled Android(多くのスマートフォンユーザーにとって、アクセシビリティはAndroidで実現する)

世界の携帯電話ユーザーの4分の3は、AppleのiPhoneではなく、GoogleのAndroidで動作するスマートフォンを使っている。視覚障がい者にとって重要なアプリはGoogleのLookoutで、これはコンピュータビジョンのデータベースやGoogleマップなど、GoogleのAIインフラストラクチャが備える莫大なリソースを活用している。GoogleはLookoutに代表される多くのアクセシビリティの機会にどのようにアプローチしているかを聞く。

Eve Andersson(イブ・アンダーソン、Google、アクセシビリティ担当ディレクター)
Andreina Reyna(アンドレイナ・レイナ、Google、シニアソフトウェアエンジニア)
Warren Carr(ウォーレン・カー、Blind Android User Podcast、制作者)

Getting around:Autonomous Vehicles, Ridesharing and Those Last Few Feet(外出する:自動運転車、ライドシェア、そしてラスト数メートル)

スマートフォンで車を呼び出すという多くの人の夢はかなったが、ほんの数メートルしか離れていなくてもその車を見つけるのが難しいとしたら、悪夢であり危険だ。ライドシェアや自動運転タクシーの企業は、視覚に障がいがある利用者から車までの数メートルをもっと安全で利用しやすくするためにどんな取り組みをしているのだろうか。

Kerry Brennan(ケリー・ブレナン、Waymo、UXリサーチマネージャー)
Marco Salsiccia(マルコ・サルシッチャ、Lyft、アクセシビリティエバンジェリスト)
Eshed Ohn-Bar(エシェド・オン・バー、ボストン大学、助教授)
進行:Bryan Bashin(ブライアン・バシン、サンフランシスコLightHouse、CEO)

この無料のオンラインイベントに、ぜひ参加登録して欲しい

Sight Tech Globalは、シリコンバレーで75年にわたって運営されているNPOのVista Center for the Blind and Visually Impairedが主催する。現在、Ford、Google、Humanware、Microsoft、Mojo Vision、Facebook、Fable、APH、Visperoがスポンサーとして決定し、感謝している。本イベントのスポンサーに関心をお持ちの方からの問い合わせをお待ちしている。スポンサーシップはすべて、Vista Center for the Blind and Visually Impairedの収入となる。

画像クレジット:Sight Tech Global

原文へ

(文:Ned Desmond、翻訳:Kaori Koyama)

12月開催のSight Tech Global、アップルとアマゾンの機械学習・AI専門家の講演が決定

センサーとデータが急増している。スマートフォンから、あるいはクルマやスマートホームデバイスから得られる驚異的な量のデータをもとにして、新しいプロダクトやエクスペリエンスを考える研究者や開発者の取り組みは加速する。こうした研究や開発は、視覚障がい者に対してもこれまで以上に寄与する。

そこで12月1〜2日に開催するオンラインイベントのSight Tech Globalから、2つのセッションを紹介しよう。1つはApple(アップル)、もう1つはAmazon(アマゾン)のセッションで、この2つのセッションでは機械学習(ML)とAIのリーダーである両社が将来について、特に視覚障がい者を支援する新しいエクスペリエンスについて語る。Sight Tech Globalへの参加は無料だ。今すぐ登録して欲しい。

Designing for everyone:Accessibility and machine learning at Apple(すべての人のためのデザイン:Appleのアクセシビリティと機械学習)

Appleのセッションでは、TechCrunch編集長のMatthew Panzarino(マシュー・パンザリーノ)がJeff Bigham(ジェフリー・ビガム)氏、Sarah Herrlinger(サラ・ヘルリンガー)氏に話を聞く。

ビガム氏はAppleのAI/MLアクセシビリティリサーチ責任者で、カーネギーメロン大学でコンピュータサイエンスのアシスタントプロフェッサーも務める。同氏はAIと機械学習を活用した先進的なアクセシビリティを専門とする研究者とエンジニアのチームを率いている。

ヘルリンガー氏はAppleのグローバルアクセシビリティポリシー&イニシアチブ担当シニアディレクター。同社のアクセシビリティプログラムの責任者として、ワールドワイドで障がい者コミュニティを支援し、同社のハードウェアとソフトウェアにアクセシビリティ技術を実装し、他にもAppleのインクルージョンのカルチャーを推進する役割を担っている。

AppleのiPhoneとVoiceOverは視覚障がい者にとってナビゲーションからメールの読み上げまで多くのサービスを提供する極めて重要なツールだ。LiDARとコンピュータビジョンの機能なども取り入れることで、iPhoneとクラウドコンピューティングを組み合わせて周囲に関する情報を取得し、その情報を役に立つ形で伝える手段としてさらに機能が強化されている。ヘルリンガー氏とビガム氏が、アクセシブルなデザイン、この1年間の進歩、機械学習研究におけるインクルージョン、最新の研究と将来に関して、Appleのアプローチを語る予定だ。

Why Amazon’s vision includes talking less to Alexa(Amazonが話しかけないAlexaを考える理由)

Amazonのセッションでは、Be My EyesのバイスプレジデントであるWill Butler(ウィル・バトラー)氏が、Alexa AI担当バイスプレゼントのPrem Natarajan(プレム・ナタラジャン)氏、Alexa TrustディレクターのBeatrice Geoffrin(ベアトリス・ジェフリン)氏とともに語る。

ジェフリン氏はAmazonのAlexaチームでプロダクトマネジメント担当ディレクターを務めている。Alexaに対する顧客の信頼を獲得して維持し、Alexaのアクセシビリティを向上する部署であるAlexa Trustの責任者で、Alexa for Everyoneチームを監督する。

ナタラジャン氏はサイエンス、エンジニアリング、プロダクトの学際的な研究をする組織の責任者で、会話のモデリングや自然言語理解、エンティティリンキングとエンティティ解決、関連する機械学習テクノロジーの進化を通じたカスタマーエクスペリエンスの向上に取り組んでいる。

AmazonのAlexaはすでに多くの家庭で利用され、視覚障がい者が使うテクノロジーツールセットとしても効果をあげている。家庭でテクノロジーが多く使われるようになると、Teachable AIやマルチモーダル理解、センサー、コンピュータビジョンなど、さまざまなソースからのインプットによって周囲の環境が作られる。すでにAlexaスマートホームでのやりとりの5回に1回は、話し言葉以外から開始されている。Alexaは利用者や利用者の家を十分に理解してニーズを予測し、利用者に代わって有効なやり方で動作する。こうしたことは、アクセシビリティにどのような影響を及ぼすだろうか?

Sight Tech Globalはオンラインで開催され、世界中から無料で参加できる。今すぐ登録しよう。

Sight Tech Globalは、シリコンバレーで75年にわたって運営されているNPOのVista Center for the Blind and Visually Impairedが主催する。現在、Ford、Google、Humanware、Microsoft、Mojo Vision、Facebook、Fable、APH、Visperoがスポンサーとして決定し、感謝している。本イベントのスポンサーに関心をお持ちの方からの問い合わせをお待ちしている。スポンサーシップはすべて、Vista Center for the Blind and Visually Impairedの収入となる。

画像クレジット:Sight Tech Global

原文へ

(文:Ned Desmond、翻訳:Kaori Koyama)

テレビを利用する弱視の治療法を開発するスタートアップLuminopia

子どもの頃に「弱視(lazy eye、amblyopia)」と診断された場合、選択肢は限られている。眼帯をつける、目薬をさす、矯正レンズをつけるなどだ。FDA (米食品医薬品局)の承認待ちではあるが、将来的にはテレビを見ることが加わるかもしれない。

それが、Scott Xiao(スコット・シャオ)氏とDean Travers(ディーン・トラバース)氏が率いる4人組のスタートアップであるLuminopia(ルミノピア)の構想の核だ。シャオ氏とトラバース氏は、6年前にハーバード大学の学部生としてLuminopiaを立ち上げた。彼らは、子どもの頃に弱視に悩まされていた同級生から、初めて弱視について聞いた。弱視は、小児期の視力低下の中で最も一般的なもので、子どもの100人に3人の割合で発症すると言われている。

弱視は人生の早い段階で起こることがある。何らかの原因で、片方の目の機能がもう片方の目に劣っている状態になる。片目の筋力が不足している場合や、片目がはるかに良く見える場合、白内障などで片目の視力が低下している場合などがある。時間が経つにつれ、脳は片方の視力に頼ることを覚え、もう片方の目が弱くなり、最終的には重度の視力低下につながる。

弱視の一般的な治療法は、弱い方の目を強化する点眼薬、矯正レンズ、眼帯などだ。Luminopiaのソリューションは異なる。子どもたちはVRヘッドセットでテレビを見る。その際、番組のパラメーターを少しだけ変える(同社はSesame Workshop、Nickelodeon、DreamWorks、NBCと契約し、100時間以上のコンテンツを提供している)。コントラストを強くしたり弱くしたり、弱い目が強い目に追いつくよう、画像の一部を削除したりする。

「我々は、画像のパラメーターをリアルタイムで変更しています。弱い方の目を多く使わせるように促し、患者の脳が両目からの情報入力を組み合わせるよう仕向けます」とシャオ氏はいう。

9月には、105人の子どもを対象とした無作為化比較試験の結果が発表された。子どもたちは全員、常時メガネをかけていた。そのうち51人が、Luminopiaのソフトウェアで修正されたテレビ番組を週6日、12週間にわたって1時間ずつ視聴した。

全体として、治療グループの子どもたちは、標準的な目のチャートで1.8段階改善された(12週間後の追跡調査では、2段階以上改善された子どももいた)のに対し、比較グループでは0.8段階だった。

この研究はOphthalmology誌に掲載された。

Luminopiaはまだ小さな企業で、従業員はわずか4人だ。しかし、Sesame Ventures(Sesame Workshopのベンチャーキャピタル部門)や、Moderna(モデルナ)の共同創業者で現在はLuminopiaの取締役を務めるRobert Langer(ロバート・ランガー)氏、Sesame Workshopの元社長兼CEOのJeffrey Dunn(ジェフリー・ダン)氏などのエンジェル投資家からの投資により、これまでに約1200万ドル(約13億1000万円)を調達した。

同社の特徴は、弱視や医療全般に共通する問題であるアドヒアランス(治療方針の順守)に対する独自のアプローチにある。

弱視の治療法が継続しにくいことを示す証拠がいくつかある。サウジアラビアの病院で行われたある研究では、弱視治療のためにアイパッチを使用している子を持つ37家庭を対象に調査が行われた。研究の対象となった子どもたちは、指示されたパッチの使用時間の約66%しか装着していなかった。子どもたちの家族は、アイパッチの推奨時間を守れなかった理由として、社会的な偏見、不快感、本人がパッチの装着をまったく受け付けなかったことなどを挙げた。

2013年にInvestigative Ophthalmology & Visual Science誌に掲載されたある研究では、152人の子どもたちがどれだけアイパッチの処方を守ったかを分析した。それによると、子どもたちが期間中の約42%の間、アイパッチをまったく着用していなかった。

Luminopiaの創業者らは弱視の治療法開発にあたり、最初にアドヒアランスの問題に取り組んだ。消費者向け製品の世界から借りてきた戦略だ。

「我々は、消費者向け製品の世界と医療の世界とでは、得られるエクスペリエンスに大きなギャップがあると考えてきました。消費者向けの世界で提供さえるモノは非常に考え抜かれ、喜びをもたらすものですが、医療の世界におけるエクスペリエンスは貧しく、アドヒアランスの低下につながることが多いのです」とトラバース氏は語る。

子どもにとってテレビを見ること以上に魅力的なことはないとシャオ氏は語る。今回の試みで、その仮説が証明されたようだ。研究に参加した子どもたちは、必要とされるテレビ視聴時間の88%を達成した。また、94%の親が、アイパッチよりもこの治療法を使う可能性が高い、または非常に高いと答えた。

だが重要なのは、データを入手し、FDAの承認を得て、そのような「喜びをもたらす」治療体験が実際に機能し、アドヒアランスの問題を克服できると証明することだ。Luminopiaは最近、9施設で84人の参加者を対象にしたパイロット・シングルアーム試験について発表した。その第1段階として、10人の子どもを対象に実施したところ、子どもたちは定められた時間の治療を78%完了したことがわかった。また、子どもたちの視力は、標準的な視力表の約3段階に相当する改善が見られた。この結果はScientific Reportsに掲載された

ゲームや遊びをベースにした病気の治療法を検討を始めたのは、Luminopiaが初めてではない。FDAはすでに、同じ系統の他からの提案を多少なりとも支持している。

Akili Interactiveは2020年6月、子どものADHDの治療に使用するビデオゲームについて、De Novo申請(過去に同様の医療機器が存在しない場合の申請)を通じてFDAの承認を得た。この承認は、病気の治療にビデオゲームを承認した初めての例となった。Crunchbaseによると、Akili Interactiveは合計で約3億110万ドル(約331億円)の資金を集めた。

Akiliのゲーム「EndeavorRx」は、Luminopiaが真似できるかもしれない承認への道筋を示している。LuminopiaはEndeavorRxと同様、処方箋のみの治療サービスで、前例はない。LuminopiaもDe Novo申請により、2021年中にFDAの承認を得る予定だとシャオ氏はいう。最新のピボタル試験のデータは、2020年3月にFDAに提出されている。

「年内には審査結果が出ると思います。良い結果であれば、2021年発売できると考えています」とシャオ氏は述べた。

画像クレジット:Luminopia

原文へ

(文:Emma Betuel、翻訳:Nariko Mizoguchi

ホンダから誕生したベンチャー企業Ashiraseが視覚障がい者向けの先進的歩行支援システムを公開

学術誌「Investigative Ophthalmology and Visual Science(眼科学および視覚学の研究)」に掲載された2020年のデータによると、世界では2億2500万人が中程度または重度の視覚障がいを患っていると推定され、4910万人が失明しているという。Honda(ホンダ)の新事業創出プログラムから誕生した日本のスタートアップは、視覚障がい者が世界をより簡単に、より安全にナビゲートできるようになることを望んでいる。

ホンダのビジネス創造プログラム「IGNITION(イグニッション)」から生まれた最初のベンチャー企業として6月にデビューした株式会社Ashirase(あしらせ)は、米国時間7月28日、視覚障がい者向けシューズイン型ナビゲーションシステムの詳細を公開した。「あしらせ」と名付けられたこのシステムは、スマートフォンのナビゲーションアプリと連動し、足に振動を与えることで歩く方向を知らせ、視覚障がい者の日常生活における自立を支援することを目的としている。Ashiraseはこのシステムを2022年10月までに製品化したいと考えている。

ホンダは、同社の従業員が持つ独創的な技術、アイデア、デザインを形にし、社会課題の解決や同社の既存事業を超えることを目的として、2017年にIGNITIONを起ち上げた。AshiraseのCEOである千野歩氏は、2008年からホンダでEVのモーター制御や自動運転システムの研究開発に携わってきた。千野氏の経歴は、このナビゲーションシステムの技術にも表れており、同氏によれば、自動車用の先進運転支援システムや自動運転システムから着想を得たという。

「共通する視点には、例えば、センサー情報の活用方法などが挙げられます」と、千野氏はTechCrunchの取材に語った。「私たちは、センサーフュージョン技術、つまり異なるセンサーからの情報を組み合わせる技術を使っています。私自身、その分野の経験があるので、それが役に立ちました。加えて、自動運転技術と重なる点もあります。というのも、私たちが安全な歩行というものを考えていたとき、自動運転の技術がコンセプトの発想につながったからです」。

「Ashirase」とは日本語の「足」と「知らせ」を意味する。その名が表す通り、アプリ内で設定したルートに基づき、靴に装着したデバイスが振動することで、直進、右左折、停止といった情報をユーザーに知らせ、ナビゲーションを行う。デバイスには加速度センサー、ジャイロセンサー、方位センサーで構成されたモーションセンサーが内蔵されており、ユーザーがどのように歩いているかを把握することができる。

外出時には、衛星測位システムによる位置情報と、足の動作データをもとに、ユーザーの現在位置を特定し、誘導情報を生成する。Ashiraseのアプリは、Googleマップなどさまざまな地図ベンダーと接続されており、異なる地図で得られる異なった情報に適応するように、デバイスを切り替えることができると千野氏はいう。例えば、ある地図では封鎖されている道路についての情報が更新されている場合などには、その情報を無線で送ることができるので便利だ。

「将来的には、屋外環境のセンサーを利用して、地図そのものを生成する機能を開発したいと考えていますが、それは5年くらい先の話になるでしょう」と、千野氏は語った。

バイブレータは足の神経層に沿って配置されており、振動を感じやすいように設計されている。直進を指示する時は、靴の前方に備わるバイブレーターが振動する。左右に曲がる場所に来たら、靴の左右に配置されたバイブレーターが曲がる方向を知らせる。

このような直感的なナビゲーションにより、歩行者は常にルート確認しなければならない心理的負担から解放され、より安全でストレスの少ない歩行が可能になると、Ashiraseは述べている。

また、例えば横断歩道などのように、デバイスが前方の障害物を警告することができない場所でも、ユーザーは聴覚による周囲の安全確認により集中できる。

「今後は、視覚障がい者のように障害物を認識する手立てを持たない全盲のユーザーに向けた技術的なアップデートも考えています」と、千野氏はいう。「今のところ、このデバイスは視覚障がい者の歩行を想定して設計されています」。

ショッピングモールなどの屋内では、衛星測位システムの電波が届かず、ユーザーが位置を特定できる地図もない。これを解決するために、同社ではWiFiやBluetoothを使って測位し、店内の他の機器や携帯電話と接続して、視覚障がい者の位置を特定することを計画しているという。

Ashiraseでは公共交通機関との連携も検討しており、次の停留所に到着したことやその近くにいることを、ユーザーに知らせることができるようにしたい、と千野氏は語っている。

どんな靴にも取り付けられるこの小さなデバイスには、たくさんの技術が詰め込まれている。千野氏によれば、さまざまな種類、形、サイズの靴に柔軟にフィットするようにデザインされており、1日に3時間の使用なら週に1回の充電で済むという。

Ashiraseは、2021年の10月か11月にベータ版をリリースしてテストとデータ収集を行い、2022年10月までに量産を開始したいと考えている。製品版には、まだ価格は明らかになっていないがユーザーに直接販売するモデルの他、月額2000~3000円程度のサブスクリプションモデルも用意される見込みだ。

市場投入までには、すでに調達した資金を含めて、2億円ほど必要になると千野氏は考えている。同社はこれまでに、一度のエクイティ投資ラウンドと、いくつかのノンエクイティ投資ラウンドで、総額7000万円の資金を調達しているという。

ホンダは投資家の1人として同社に関わり、事業をサポートし、フォローしていくものの、Ashiraseは独立した会社として上場することを目指している。

関連記事
ホンダ新事業創出プログラムIGINITION第1号のAshiraseが5000万円調達、視覚障がい者向け単独歩行ナビを2022年度製品化
ホンダと楽天が自動配送ロボットの走行実証実験を共同で開始、筑波大学構内および一部公道で実施
北米ホンダ初の電動SUV「プロローグ」は2024年初めに発売、EV量販モデル第1弾はGMと共同開発

カテゴリー:ハードウェア
タグ:HondaAshirase視覚歩行

画像クレジット:Ashirase

原文へ

(文:Rebecca Bellan、翻訳:Hirokazu Kusakabe)

VRの力を借りて人工網膜が進歩、人体臨床試験に向けて開発が進む

視覚障害を持つ多くの人々にとって、人工網膜の開発はひと筋の光とも言えるが、いよいよその実現が現実味を帯びてきた。これまでとはまったく異なるアプローチを採用した最新のテクノロジーでは、光を電気に変換する極小ドットを用いる。そしてバーチャルリアリティを用いることで、この構想の実現性が高いことことが確認できている。

この光起電力人工網膜はスイス連邦工科大学ローザンヌ校によって開発されたもので、Diego Ghezzi(ディエゴ・ゲッツィ)氏がこのアイデアの実現に向けて数年前から取り組んでいる。

初期の人工網膜は数十年前に作られており、その基本的な仕組みは、体外に設置されたカメラ(例えば眼鏡など)からワイヤーを介して微小電極アレイに信号が送られるというものだ。微小電極アレイは、機能していない網膜の表面を貫通し、機能している細胞を直接刺激する多数の小さな電極で構成されている。

これの問題点は、アレイへの電源供給やデータ送信のために眼球の外側からワイヤーを通す必要があることだが、これは人工装具や身体全般において一般的に「すべきでないこと」とされている。また、アレイ自体の大きさによって配置できる電極の数が制限されるため、最良のシナリオでの効果的な解像度は数十から百「ピクセル」程度のものだった(視覚システムの仕組み上、このピクセルの概念は私たちがイメージするものとは異なる)。

光を電流に変える光起電力素材を使用することで、こういった問題を回避するというのがゲッツィ氏のアプローチだ。デジタルカメラの仕組みとさほど変わらないが、電荷を画像として記録するのではなく、電流を網膜に送り込むというわけだ。電力やデータを網膜インプラントに中継するためのワイヤーは必要ない。どちらも、網膜インプラントを照らす光によって提供されるためだ。

画像クレジット:Alain Herzog / EPFL

同校が開発中の網膜インプラントには何千もの小さな光起電力ドットが配置されており、理論的には眼球の外側にある装置がカメラからの検出結果に応じて光を送り込むことで、映像が映し出されるという。当然のことながら、これは非常に難しい技術だ。また、画像を撮影し、目を通して網膜インプラントに投影するメガネやゴーグルも必要である。

我々がこの方法を初めて耳にしたのは2018年のことだが、新たな資料によるとその後状況は多少変化しているようだ。

「ピクセル数を約2300から1万500に増やしました。そのため今では映像を個々に見るというよりは、連続したフィルムのように見えます」とゲッツィ氏はTechCrunchへのメールで説明してくれた。

当然、そのドットが網膜に押し付けられるとなると話は別である。何しろ正方形なら100×100ピクセルほどしかないのだから、高精細度と呼ぶには程遠い。しかし、人間の視覚を再現することが目的ではない。そもそもそれは不可能なことであり、特に最初のトライでそれを実現させることは現実的ではないだろう。

「技術的には、ピクセルを小さく高密度にすることは可能です。問題は、発生する電流がピクセルサイズに応じて減少するということです」とゲッツィ氏。

電流はピクセルサイズに応じて減少する。ピクセルサイズはもとより大きくはない(画像クレジット:Diego Ghezziその他)

そのためピクセルを増やせば増やすほど機能を果たすことが難しくなり、さらに隣り合う2つのドットが網膜の同じネットワークを刺激するというリスクもある(これはテスト済みだという)。しかし数が少なすぎると、ユーザーにとって分かりやすい画像が得られない可能性がある。10500個というと十分に聞こえ、またそれで十分なのかもしれないが、それを裏付けるデータがないのが実情だ。そこで同チームは一見まったく縁のなさそうな媒体に注目した。VRである。

研究チームが実験段階の網膜インプラントを人に装着してその効果を確かめるという「テスト」を正確に行うことはできないため、デバイスの範囲や解像度が物体や文字を認識するような日常的タスクに十分であるかどうかを判断する別の方法が必要だったのだ。

画像クレジット:Jacob Thomas Thornその他

これを実現するため、インプラントを介して網膜を刺激することで生まれるであろう光の「蛍光物質」が見える以外は真っ暗なVR環境に人々に入ってもらう(ゲッツィ氏はこれを、明るく移り変わる星座のようなものだと表現している)。そして蛍光物質の数や表示される範囲、画像が移り変わるときの光の「尾」の長さを変えて、被験者が文字や風景などをどの程度認識できるかをテストした。

画像クレジット:Jacob Thomas Thornその他

その結果、最も重要なのは「視野角」つまり映像が映し出される範囲の大きさであることが判明した。どんなに鮮明な画像でも、視界の中心部だけに映し出された場合理解しにくく、全体の鮮明度が損なわれたとしても、視野が広いほうが良いということが分かったのだ。脳内の視覚システムの強力な分析により、まばらな画像でもエッジや動きなどを直感的に理解することができる。

これにより、インプラントのパラメーターが理論的に正しいことが示され、同チームが人体臨床試験に向けて動き出すことが可能となった。このアプローチは以前のワイヤー式のものに比べて非常に有望なものの、広く利用できるようになるには早くても数年はかかるだろう。それでもこのタイプの網膜インプラントが実用化される可能性があるということは、非常にエキサイティングなことであり、我々もこのトピックから目を離さず見守っていきたいと思う。

カテゴリー:ヘルステック
タグ:VR視覚網膜スイス

画像クレジット:Alain Herzog / EPFL

原文へ

(文:Devin Coldewey、翻訳:Dragonfly)