アップルの最新アクセシビリティ機能は手足や声が不自由な人へさらに寄り添う

Apple(アップル)はWWDC 2021で、さまざまなニーズに対応するアクセシビリティ機能を発表した。その中には、通常の方法でデバイスに触れたり話したりすることができない人々のための機能も含まれている。Assistive TouchやSound Controlなどの改良により、これらの人々はiPhoneやApple Watchと対話するための新たな選択肢を得る。

Assistive Touchは発表時にも取り上げたが、先日、その詳細が明らかになった。この機能は、Apple Watchを持っている人が、さまざまなジェスチャーを使って片手で操作できるようにするものだ。腕が欠損している人や腕を思いどおりに使えないといった四肢に障がいを持つ人々のコミュニティからの、Apple Watchを気に入っているが、鼻で電話に出るのにはうんざりだという声を同社が耳にしたことから生まれた。

関連記事:Apple Watchに検知した手の動きで操作する「AssistiveTouch」機能が追加

研究チームは、他の指と親指をくっつけたり、手を握りしめたりするジェスチャーをApple Watchが正確に人気する方法を開発した。これらのジェスチャーとそのダブルバージョンは、さまざまなクイックアクションを設定することができる。その中には、ユーザーの手首の動きを模した小さなドットである「モーションカーソル」を開くものもある。

手の不自由な人が多いことを考えると、音声操作に頼らずにジェスチャーでメッセージや通話、健康管理といった基本的な操作を行えるため、とても便利だ。

とはいえ、声も誰もが自由に使えるものではない。しかし、流暢に話すことができない人でも、基本的な音をたくさん出すことができるため、それらに意味を持たせてもいい(Siriには無理だけど)。「Sound Control」という新しいアクセシビリティオプションを使えば、これらの音を音声コマンドとして使うことができる。オーディオでもボイスからではなく、Switch Control(スイッチコントロール)からアクセスして、オーディオスイッチを追加する。

画像クレジット:Apple

セットアップメニューでは「click(カチッ)」「cluck(コツッ)」「e(イ)」「eh(エッ)」「k(クッ)」「la(ラァ)」「muh(ムフ)」「oo(ウ)」「pop(ポン)」「sh(シー)」などさまざまな音を選ぶことができる。音を選択すると、システムがその音を正しく理解していることを確認するための簡単なトレーニングプロセスが表示され、その後、アプリの起動、よく使われる質問、他のツールの呼び出しなど、さまざまなアクションを設定することができる。

Apple製品をスイッチシステムで操作したいという方に、同社は大きなサプライズを用意していた。かつてはゲームにしか使えなかったゲームコントローラーが、一般的な用途にも使えるようになる。Xbox Adaptive Controllerは、ボタンやスイッチなどのアクセサリーのハブとグループで、コンソールゲームのアクセシビリティを改善する。この強力なツールは多くの人に利用されており「Fortnite(フォートナイト)」を終えてポッドキャストを聞きたいときに、操作方法を完全に切り替える必要がないことに感謝するに違いない。

画像クレジット:Apple

iOSの機能の中で、アクセシビリティの観点からもう1つ興味深いのが「Walking Steadiness(歩行時の安定性)」だ。この機能は、iPhoneを持っている人なら誰でも利用でき、ユーザーの歩行の安定性を追跡します(ご想像のとおり)。この指標は、1日または1週間を通して追跡することで、人の運動能力がいつどのように向上するのかを実際に把握できる可能性がある。この指標は、Apple Heart and Movement研究で収集された、実際の転倒やそれにつながる不安定な動きなどのデータに基づいている。

最近、義足を装着した人、足の手術をした人、めまいに悩まされている人などは、いつ、どのような場合に転倒の危険性があるのかを知ることは非常に重要だ。本人は自覚していないかもしれないが、夕方以降や階段を上った後、長時間並んだ後などは、動きが安定しない。また、義肢に慣れたり、慢性的な痛みが軽減したりすることで、着実に改善していくこともある。

このデータを実際の理学療法士や医師がどのように利用するかは未知数だが、重要なのは、ユーザー自身が容易に追跡し、理解できることだ。

画像クレジット:Apple

さらにAppleのその他の支援機能として、音声コントロールの新しい言語、ヘッドフォンの音響収容力の向上、双方向補聴器のサポート、そしてもちろん、人工内耳や酸素チューブのメモへの追加がある。同社の担当者がいうように、機能面だけの違いではなく、パーソナライゼーションや楽しさの面でも違いを受け入れたいと考えているようだ。

関連記事
iOSアプリ内でそれぞれのサブスクの管理や返金が可能に、アップルがStoreKit 2を発表
iOS 15でSpotlightが大幅強化、アプリのインストールも可能に
アップルのRealityKit 2で開発者はiPhone写真を使ったAR用3Dモデル作成が可能に

カテゴリー:ヘルステック
タグ:AppleWWDCWWDC2021アクセシビリティiOSApple Watch

画像クレジット:Apple

原文へ

(文:Devin Coldewey、翻訳:Hiroshi Iwatani)

改造HoloLensで視覚障がいのある子供に周囲をガイド、マイクロソフトが進める「Project Tokyo」

全盲や弱視の子供が成長する過程での難しさは、見える友だちと同じ本を読んだりゲームをしたりすることができないだけではない。視覚は社会的な交流や会話において大きな役割を担っているという問題がある。マイクロソフトのプロジェクトでは、視覚障がいのある子供が話している相手を「見る」ためにARを活用する研究に取り組んでいる。

画像:Jonathan Banks / Microsoft

当然のことながら、視覚障がい者には周囲の人が見えないという難題がある。そのため、晴眼者が会話の際に利用している多くの非言語の手がかりを、視覚障がい者は見つけたり利用したりすることができない。早期にそのような行動を学習していない場合は、特にそうだ。

Project Tokyoは、AIやARといったテクノロジーを障がいのある人も含め「すべての」人に役立てようとする、マイクロソフトの研究者たちの新たな取り組みだ。すべてのケースに当てはまるわけではないが、音声対応のバーチャルアシスタントはタッチスクリーンやマウス、キーボードを使いづらい多くの人の役に立つはずだ。

研究チームは数年前、非公式にアクセシビリティの向上に取り組み始めた。まずリオデジャネイロで開催されたパラリンピックを訪れ、人々を観察した。次に全盲や弱視の人々のコミュニティとともにワークショップを実施した。これらのことからチームが気づいた重要なポイントは、ほぼどんな状況でも視覚から微妙なコンテクストが得られていることだった。

マイクロソフトの研究者のEd Cutrell(エド・カトレル)氏は次のように述べている。「私たちは、人間として、他人とのやり取りに関してとても微妙で複雑な感覚を持っています。部屋にいるのは誰か、何をしているのか、自分との関係はどうか、私にとって重要かどうかをどう判断するか、これらを知るための手がかりは私たちにとって当然に得られるものです。しかし、目の不自由な人々にとってはそうではありません」。

このことは子供たちには特に顕著で、このような手がかりや振る舞いについておそらく学んでいないために、社会性に欠ける傾向を示してしまうことがある。会話中にテーブルに突っ伏したり、話している相手の方を見ないといった傾向だ。

補足すると、こうした行動自体に「問題がある」わけではない。彼らにとって最も適切な行動をとっているだけだ。しかしこうした行動は晴眼者との日々の関係を阻害するおそれがある。そのため、すべての人にとって容易で自然な関係の構築を目指す研究には意義がある。

Project Tokyoは、改造してレンズをはずしたMicrosoft HoloLensで実験をしている。HoloLensは、適切な情報を与えられれば物体や人物を識別できるきわめて高度なイメージングデバイスでもある。

ユーザーがこのデバイスをハイテクなヘッドバンドのように装着すると、カスタムのソフトウェアスタックが状況に応じた手がかりをユーザーに提供する。

  • 例えば右前方1メートルほどのところに人物を検出すると、ヘッドセットがその方向から鳴っているようなクリック音を発する。
  • その人物の顔が既知である場合、先ほどとは別の弾くような音が鳴り、その人物の名前が読み上げられる(前述のクリック音と同様に、この音もユーザーにだけ聞こえる)。
  • 未知の顔の場合やうまく認識できない場合は、ゴムバンドが伸びているような音が鳴る。ユーザーの顔の向きに応じて音が変化し、顔を相手に向けるようにガイドする。相手の顔がカメラの中央に来るとクリック音が鳴る(つまりユーザーが相手をまっすぐ見ることになる)。
  • 周囲に人がいる場合、ヘッドバンド上のLEDが検出された人物の方向に白く光り、人物が特定されると緑に光る。

ほかの機能も研究されているが、このセットが出発点であり、12歳のTheo(セオ)という少年のケーススタディではこのセットが特に有効と考えられている。

システムやセオとの実験などについてはマイクロソフトの記事に詳しく記されているが、基本的にセオはシステムを詳しく理解し、それにより晴眼者が主に使用している手がかりによって社会的な関係性に対処できるようになっている。例えば、相手に顔を向けて意図的に注目できるようになってきた。また、室内を自分なりの方法でスキャンして周囲の人を常に意識する方法も自ら身につけた。どちらもテーブルに突っ伏していてはできないことだ。

できることが増えるのは良い取り組みだが、もちろんまだ発展途上だ。高価でかさばるハードウェアを一日中身につけたくはないし、ユーザーごとにニーズが異なるのも当たり前だ。表情やジェスチャーについてはどうだろうか? 看板やメニューはどうする? 最終的にProject Tokyoの未来は、AIシステムなどのモダンなツールを構築する際にはほとんど関わりを持たないコミュニティのニーズによって決まるだろう。

[原文へ]

(翻訳:Kaori Koyama)

Eargoがバンド幅とノイキャン機能を改善した新しい補聴器を発売

ベイエリアを拠点とする医療用デバイスのスタートアップ「Eargo」が、同社の補聴器としては第4世代となるNeo HiFiをCESで発表した。創立以来の6年間で同社が学んだことを活かして作られた製品だ。改善されたのは主に音質に関することで、バンド幅が広くなり、風切り音の低減とハウリングのキャンセル機能も向上している。Eargoは、これらの改善がすべて組み合わされて「これまで以上に豊かなサウンドで、さらに自然なリスニング体験」を提供すると説明している。

ほかには、同社の補聴器製品ラインの特徴である「Flexi Palmデザイン」も改善されている。これは補聴器を装着する位置を安定させるために付けられている小さなとげのようなもののことだ。アプリもアップデートされ、さまざまな環境に合わせるための調整が簡単になった。現在はiOS版のみだが、Android版も1月中にはリリースされる予定だ。

この新製品はEargoのサイトからすでに購入できる。2650ドル(約28万8000円)と安価ではないが、月々の分割払いにも対応している。3月からは2950ドル(約32万円)になる。

Eargoは2017年に最初の製品をリリースし、これまでに多額の資金を調達している。2019年3月にはシリーズDで5200万ドル(約56億5000万円)を調達し、これまでの調達金額の合計は1億3560万ドル(約147億円)になった。

[原文へ]

(翻訳:Kaori Koyama)

障がい者のための技術発展を目指す企業を支援するMicrosoftアクセシビリティー補助金

ハイテク界にも障がい者のための支援活動が数多く存在するが、アクセシビリティー問題で投資家を熱くさせることは難しい。だからこそ、Microsoft(マイクロソフト)のAI for Accessibility(アクセシビリティーのためのAI)補助金制度は大歓迎だ。障がいを負った人たちのためのAI活用の道を探る企業や団体を対象にしたAzureクレジットと現金による株式を要求しない経済援助だ。マイクロソフトは、視覚障がい者のための教育を支援するスタートアップであるObjectiveEd(オブジェクティブエド)をはじめ、10以上の対象団体を発表した。

この補助金制度は、少し前に500万ドル(約54億円)でスタートした。その条件に合うスタートアップ企業やプロジェクトをわずかでも補助しようと5年の期限を区切って行われている。もちろん、それらの人たちにマイクロソフトのクラウドインフラに親しんでもらおうという狙いもある。

申し込みは常に受け付けられ「障がいを負った人たちにAIや機械学習を役立てたいと模索する人なら誰でも、喜んで支援します」とマイクロソフトのMary Bellard(メアリー・ベラード)氏は話している。ただし「素晴らしいアイデアで、障がい者コミュニティーに根差している」ことが条件だ。

今回、補助金を獲得した中にObjectiveEdがある。今年の初めに私が紹介した企業だ。iPadを使った、目の見えない、または弱視の小学生向けのカリキュラムだが、目が見える子どもたちにも使うことができ、教師の負担が軽減される。

関連記事:視覚機能障がいの子どもたちに優れたデジタル・カリキュラムを提供するObjectiveEd(本文は英語)

そこには、ご想像のとおり点字も含まれている。点字を学ぶ必要のある子どもたちに対して、点字を教えられる教師の数は足りていない。一般的には、直接的な実践教育で教えられている。つまり、子どもが点字を(ハードウェアの点字ディスプレイを使用して)声に出して読み上げるのを教師が聞き、間違いを正すというものだ。高価な点字ディスプレイが自宅で自由に使える環境で、その技能のある家庭教師を雇える場合は別だが、この重要な教育が受けられるのは、週に1時間程度という子供もいる。

ObjectiveEdのアプリなどに使用する書き換え可能な点字ディスプレイ。

「点字ディスプレイに文章を送り、生徒がそれを声に出して読み上げると、マイクロソフトのAzureサービスがそれをテキストに変換し、点字ディスプレイの文章と比較する。そして必要に応じて間違いを正し次に進む。そんなことができたら最高だと私たちは考えたのです。すべてをゲーム形式にします。楽しく学べるようにね」とObjectiveEdの創設者Marty Schultz(マーティー・シュルツ)氏は話していた。

それが、この会社の次なるアプリで可能になる。今や音声のテキスト変換の精度は十分に高く、さまざまな教育やアクセシビリティー目的の使用に耐えられる。あとは、生徒が点字訓練の時間を取れるようiPadと点字ディスプレイを用意するだけだ。1000ドル以上もするハードウェアだが、目の見えない人に金をかけてはいけないなんて決まりはない。

点字の識字率は低下している。音声インターフェイス、オーディオブック、画面読み上げなどが普及し実用性が高まったことを思えば無理もないと私が言うと、シュルツ氏とベラード氏は口を揃えてこう指摘した。メディア消費の上ではオーディオに依存できることは素晴らしいが、書かれたものを真剣に読みたいとき、または多くの教育の現場においては点字は不可欠なものであるか、または発話に代わる非常に便利な代替手段なのだと。

シュルツ氏もベラード氏も、教師に取って代ろうとは決して考えていないという。「教師は教え、私たちは子どもたちの訓練を支援します」とシュルツ氏。「私たちは授業の専門家ではありません。教師の助言を受けて、これらのツールを生徒たちが使いやすいように作るのです」。

マイクロソフトの補助金を受け取った団体は、このほかに10団体あり広範囲の多様なアプローチや技術をカバーしている。例えば、私が気に入ったのはSmartEar(スマートイヤー)がある。ドアベルの音や警報音などを傍受して、スマートフォンを通じて耳の聞こえない人に知らせるというものだ。

また、ロンドン大学シティ校では、個人用のオブジェクト認識のための素晴らしいアイデアを持っている。テーブルの上のマグカップやキーホルダーを認識するという程度のことは、コンピュータービジョンシステムにとっては実に簡単なことだ。しかし目の見えない人の場合、システムがマグカップやキーホルダーを特定してから、例えば「それはドアの脇の茶色いテーブルの上にあります」などと教えてくれたら非常に助かる。

以下に、ObjectiveEd以外でマイクロソフトの補助金を獲得した10の団体のプロダクトを紹介する(それぞれを詳しく調べてはいないが、今後調査するつもりだ)。

  • AbiliTrek(アビリトレック):さまざまな施設のアクセシビリティーを評価し解説する障がい者コミュニティーのためのプラットフォーム。個人の必要性に応じて検索結果を選別できる。開発元は同名のAbiliTrek。
  • SmartEar(スマートイヤー):環境音(ドアベル、火災警報、電話の呼び出し音など)を能動的に傍受し、小型のポータブルボックスかスマートフォンから色付きのフラッシュを点滅させて聾者コミュニティーを援助するサービス。運営元はAzur Tech Concept(アザー・テック・コンセプト)。
  • Financial Accessibility(フィナンシャル・アクセシビリティー):プログラムやサービスと人との最適なマッチングのための情報や活動を提供するインタラクティブなプログラム。運営元はBalance for Autism(バランス・オブ・オーティズム)。
  • The ORBIT(ジ・オービット):個人向けオブジェクト認識をAIシステムに訓練するためのデータセットを開発中。盲人コミュニティーで使用されるツールでの重要性が増している。開発元はCity University of London(ロンドン大学シティ校)。
  • BeatCaps(ビートキャップス):ビートトラッキングを使用して字幕を生成し、音楽のリズムを視覚化する新しい音声転写方式。聴覚機能障がい者に音楽を体験してもらうための視覚化技術。開発元はCommunote(コミュノート)。
  • EVE(イブ): 聴覚障がい者のための、発話を認識しリアルタイムで自動的に字幕を生成するシステム。開発元はFilmgsindl(フィルムグシンドル)。
  • Humanistic Co-Design(ヒューマニスティック・コ−デザイン):個人、組織、施設が協力し合い、デザイナー、メーカー、エンジニアが、障がい者のために技能を発揮できるよう認知を高めるための生活協同組合。運営元は同名のHumanistic Co-Design。
  • MapinHood(マッピンフッド):視覚障がい者が職場やその他の目的地へ歩いて行くときのルートを選択できるナビゲーションアプリを開発中。開発元はトロントのスタートアップであるiMerciv (イマーシブ)。
  • I-Stem(アイ-ステム) / I-Assistant(アイ-アシスタント):文章の読み上げ、音声認識、AIを使い、教室での対面によるテストに代わるインタラクティブで会話的な代替手段を生徒たちに提供するサービス。運営元はinABLE(イネイブル)。
  • ADMINS (アドミンズ):大学の書類をオンラインで記入することが難しい障がい者に業務支援を行うチャットボット。開発元はOpen University(オープン・ユニバーシティー)。

この補助金は、ユーザーが現在勉強中で明かりを消してはいけないような緊急のニーズに応えるために、Azureクレジットまたは現金、またはその両方で支払われる。このプログラムに適合すると思われる活動に携わっている場合は、ここから申し込める

[原文へ]

(翻訳:金井哲夫)

トヨタのコンセプトカーLQは車載AIによって人間と友達になる


トヨタは、人を引きつけるような未来の車を開発するためのカギは、車と運転者の間に真の関係を築くことだという予想に対する自信をますます深めている。この「運転者」の部分は、自動運転モードを使う場合には「乗客」と読み替える必要がある。トヨタの新しいLQコンセプトは、2017年にCESで発表されたConcept-iをさらに進化させた車で、「Yui」という仮想車載アシスタントも搭載している。

LQは、Concept-iと共通するデザインの系統とテーマを継承している。その研究開発を担当するTRI(トヨタ・リサーチ・インスティテュート)と連携することで、LQはさらに高度な自動運転機能を獲得した。また、アップデートされたYuiは、運転者に対してより緊密に応答し、運転者の習性や好みを学習して適応する。

Yuiは、音声インターフェイスはもちろん、照明、空調、さらには香りを発散させて運転者と対話し、運転者の気分を整え、車と人間の絆を強くする。また、LQに搭載された自動運転機能から、運転者が操作を引き継がなければならないような場合には、運転者に注意力を維持するよう促すこともできる。

自動運転の能力についてLQは、SAEレベル4の自動運転機能を発揮できるように設計されている。つまり、運転席に座った人が、まったく何もしなくても完全に自動運転できるだけの能力を備えているのだ。パナソニックと共同開発した「Automated Valet」(自動従者)技術も自慢の種だ。これは、駐車場と駐車場、あるいは送迎場所の間を自動的に運行するもの。トヨタによれば、アクセシビリティに関する援助が必要な運転者を手助けすることができるという。

  1. 20191011_02_11

  2. 20191011_02_08

  3. 20191011_02_07

  4. 20191011_02_09

  5. 20191011_02_05

  6. 20191011_02_04

  7. 20191011_02_03

トヨタとしては、そうすることが理にかなう場合には、運転者がシートに座っている必要があると認識している。そこでLQには、新たに設計されたシートシステムを採用している。座席の中に埋め込まれた空気袋を膨らませて、運転者が正面を向くよう姿勢を正すことができる。また、特に注意力を必要とする局面では、運転者に冷たい空気を吹きかけたりもする。普段は、空気袋はゆっくりとした呼吸リズムを模倣し、穏やかに膨らんだり縮んだりして、運転者にもリラックスした呼吸パターンを促す。

また、色分けされた内装の照明によって、Yuiは運転者や乗客に何かを伝えることができる。たとえば、床に埋め込まれた照明の色を変えることで、車に内蔵されたAIアシスタントが、誰に対応しているのかを指し示す。さらに外部にも、プログラム可能なパターンのプロジェクターを組み込んだヘッドライトなどがあり、車の外にいる人にも視覚的に「語りかける」ことが可能となっている。LQのダッシュボードに内蔵されたディスプレイは、すべてOLEDなので、視認性は高く、消費電力は少ない。また排気ガスの浄化システムも備え、この車の室内の空気の清浄度を新たなレベルにまで高めることに貢献している。

もちろんこれはコンセプトカーなので、こうした技術の多くはこの段階ではまだ理論と現実が混在している。しかしトヨタは、未来の車を機能的なだけでなく親しみやすいものにするというビジョンに熱中しているように見える。私もそれには大いに興味がある。

原文へ

(翻訳:Fumihiko Shibata)

Comcastがテレビを視線で制御できるリモコンソフトをリリース

Comcast(コムキャスト)のX1リモートソフトウェアの最新版では、一般的なクリック操作が難しい人にとってリモコンが使いやすくなった。身体に障がいのある人が、目の動きだけでテレビのチャンネルを変えるなどの操作ができるようになる。

テレビやケーブルテレビのセットトップボックスのインターフェイスは恐ろしい。テクノロジーに詳しい人でも恐怖を覚える。身体に障がいがなくても難しいし、ALSや四肢欠損、運動障がいの人にとってはなおさらだろう。

音声制御は有用だ。私たちを長年困らせてきた500個ものボタンのあるリモコン操作を変えた。しかし視線制御はまだ始まったばかりだ。アクセシビリティの向上のために視線制御がもっと広く使えるようになれば、よいオプションとなるだろう。

  1. eye-control-xi-ui

  2. eye-control-tv

  3. eye-control-tv-2

Comcastはユーザーを支援しようと意欲的にアクセシビリティの向上に努めているようだ。最新の機能では、Comcastの子会社であるXfinityのX1ウェブリモートを視線で制御できるようになる。互換性のあるコンピュータかタブレットにウェブリモートを読み込み、セットトップボックスと同期すれば、ウェブのインターフェイスがメインのリモコンになる。

ユーザ―は、チャンネルの変更、番組表の検索とブラウズ、録画のセットと検索、スポーツ中継アプリの起動、クローズドキャプションなどのアクセシビリティオプションの変更と、テレビの操作をほぼすべて視線でできるようになる。

ある人にとってテクノロジーがどう役に立つかというビデオがある。これは一見に値する。

ビデオに登場しているJimmy Curran氏は身体の状態に困難があるが、自分であらゆることをしようと取り組んできた。しかしテレビのチャンネルを変えることはできなかった。これは驚くべきことだ。おそらくややこしい方法でテレビのチャンネルを変えることはできたのだろうが、長年にわたってアクセシビリティに制限のあったテレビのインターフェイスにはまだ足りない部分がある。

発話に障がいがある人の音声制御も使いやすくなりそうだ。GoogleはProject Euphoniaで機械学習を活用している。

ユーザーは自分で視線制御をセットアップする必要がある(これは身体に障がいのある人にとってはよくあることだ)。その後、ブラウザでxfin.tv/accessにアクセスし、ペアリングを開始する。

[原文へ]

(翻訳:Kaori Koyama)

アップルはアクセシビリティ機能に真正面から取り組む

WWDCで発表されたApple(アップル)のアクセシビリティに関するニュースの核心部分はすでに報道されているが、それ以外にもアクセシビリティに関連するアイテムは発表されている。ということで、ここでは、あまりニュースとして取り上げられないアップルの発表に関して、私が障害者としての観点から最も興味深いと思っている点について、考察を述べてみたい。

アクセシビリティが主要な関心事に

私がWWDCの週に報告したことの1つは、アップルが(iOS 13とiPadOS上で)アクセシビリティメニューを設定階層の最上位に移動したことだ。「設定」→「一般」→「アクセシビリティ」とドリルダウンするのではなく、いまやアクセシビリティ設定は「通知」や[「スクリーンタイム」などと同じリストビュー内にあるトップレベル項目になった。アップルはまた私に対して、この動きはwatchOS 6にも適用されると説明している。

同様に、アップルは最初の「セットアップ」プロセスにアクセシビリティ機能選択を追加したと語った。新しいiPhoneまたは他のデバイスを初めて設定するときには、システムはユーザーに対して、例えばVoiceOver(「設定」→「一般」→「アクセシビリティ」→「VoiceOver」)のような、望ましいアクセシビリティ機能を設定することを促す。

どちらの変更も、長い間待ち望まれていたもので、特に象徴的な重要度が大きい。平均的なユーザーにはあまり影響はないかもしれないが、アップルがこの動きを行った事実は、彼らが如何にアクセシビリティコミュニティを気にかけているかを饒舌に物語っている。「設定」の中で「アクセシビリティ」をフロントページに移動することで、障害を抱えた(そしてさまざまなな意味でアクセシビリティに課題を抱えた)ユーザーたちに、もう少しだけ配慮することになるのだ。

身体障害者としての私自身にとっては、これは取るに足らないことではない。この変更は、アクセシビリティを第一級の市民にするという点に関して、アップルが業界のリーダーとしての地位を強化することになる。アクセシビリティをトップレベルに引き上げることで、アップルはそれがオペレーティングシステムの重要な側面であり、私を含む多くの人びとのユーザー体験の重要な一部である、というメッセージを発信するのだ。

HomePodへのハンドオフ(切り替え)

私はHomePodを使って音楽やPodcastを聞いたり、HomeKitデバイスを制御したりすることを楽しんでいる。しかしながら、これまでのHomePodで最も煩わしかった点は、中断したところからの再開ができないということだった。音楽やPodcastを聞きながら、スーパーマーケットから家に帰ってきて、そのまま聞き続けたいと思っても、私はまず再生を止めて、出力先をオフィスのHomePodに切り替えなければならない。それは別に難しいことではないが、アクセシビリティの観点からすると、たくさんの余計なタップを繰り返さなければならない。私はもちろんちょっとした面倒を感じていて、その面倒な手続きを強いられるたびに悪態をついている。

iOS 13では、その面倒はなくなる。私のiPhone XRをHomePodに(設定時と同様に)近付けるだけで、iPhoneは再生中の音声を全て、スピーカーに対してハンドオフ(切り替え)するのだ。繰り返すが、入出力の切り替えは全体からすれば大した話ではない。しかし障害者の1人として、私はほんのわずかな不便さにさえ敏感なのだ。受信したiMessageを自分のAirPodではっきりと読み上げてくれる機能などと同様に、こうしたちょっとした洗練は、長い目でみたときにより楽しくシームレスな体験につながっているだけでなく、体験そのものへのアクセシビリティを高めてくれるのだ。こうした意味で、この技術は様々な意味で魔法のようなものなのだ。

ボイスコントロール(Voice Control)の素晴らしさ

ボイスコントロール(Voice Control)の追加そのものは間違いなくメインテーマの1つだが、その舞台裏が大きく語られることはない。

WWDCの開催週の中で、私が話をしたすべての人たち(同僚のレポーターだろうが、開発者だろうが、あるいはアップルの従業員だろうが)が、同じ意見を持っていた。ボイスコントロールはとても素晴らしいと絶賛していたのだ。実際に、 ジョン・グルーバー(John Gruber)氏のポッドキャスト「The Talk Show」の中で、彼と特別ゲストのクレイグ・フェデリギ(Craig Federighi)氏とグレッグ・ジョシュウィキ(Greg Joswiak)氏が議論している部分はその良い一例だ。それは私が会議で耳にしたことと、完全にかみ合う内容だ。フェデリギ氏は、Appleのアクセシビリティチームのメンバーによる内部デモを見たときに、涙があふれることを抑えることができなかったと語っていた。

同様に、会議の中でのアクセシビリティ集会でもそれは熱い話題の1つだった。多くのエンジニアたちや、アップルのアクセシビリティグループのメンバーたちが、ボイスコントロールを送り出せたことをどんなに誇らしく思っているかを、私に伝えてくれた。私はその開発が、大変な仕事だったことを聞かされており、そこに関わった全ての人びとにとって、それが世界に対してリリースされるところを見ることは、ここまでたどり着くために必要だった困難な道のりを振り返らせ、興奮させるものなのだ。

高いレベルから眺めた時に、ボイスコントロールは、私にとってアップルのアクセシビリティに対する取り組みを象徴するものとして目に映った。では動画を見てみよう。

これはとても信じられない、まるで魔法のように感じられるものだ。だがこれはすべて本物である。そして何より素晴らしいのは、これは非常に多くの人の経験をとても深く素晴らしいものへと変えてくれる、革新的機能だということなのだ。フェデリギ氏が泣いたのも無理はない。これは本当に素晴らしいものなのだ。

[原文へ]

(翻訳:sako)

Google I/Oはアクセシビリティ強化に全力、聴覚障害者にも電車でYouTubeを見るにも便利

マウンテンビューの本社に隣接するアンフィシアターで開幕した今年のGoogle I/Oでは驚くほど長い時間がアクセシビリティの改善に関連する発表に振り向けられた。ライブキャプションなどの新機能はすべて発話とテキストを相互変換するテクノロジーの改善をベースとしている。

テクノロジーとして特に注目すべきなのはこうした音声ベースの自然言語処理の一部が、クラウドとデータをやり取りすることなく、デバイス上で直接実行できるようになった点だ。

Androidの新しいアクセシビリティ機能は聴覚などに障害を持ったユーザーの生活の質を大きく改善するはずだ。ライブトランスクリプションは音声による発話を認識してリアルタイムでテキストに起こす機能だ。また逆に音声合成によりテキストをリアルタイムで音声化することもできる。

音声入力機能はGoogleが以前から重点項目として挙げていた。機能として単純だがスピードと精度が高くなれば非常に役立つツールとなる。 現在でもAndroid上でアプリを起動しマイクのアイコンをタップすると音声を聞き取ってテキスト表示してくれる。

現在でもOne Miniなど音声入力、音声出力による機械通訳デバイスが利用できるようになっている。昨日のMicrosoftのBuildカンファレンスでもミーティングの内容をテキストに起こすアプリが発表されていた。こうした機能の必要性ははっきりしており、むしろなぜもっと早く実現しなかったのかというほうが興味ある問題だ。

実は自然言語認識システムはかなり以前から実用化されていたが、特定のユーザーが静かな環境かつ一定のボキャブラリーで話す内容の聞き取りにとどまっていた。これに対して不特定多数のユーザーが雑音の多い駅やカフェで友だちと自由に会話するのを認識するのは非常に困難な作業だった。リアルタイム通訳となれば当然複数のユーザーの話す内容を聞き取らねばならない。出力も自然な音声合成が必要となる。これらを商品として実用に耐えるレベルにまで改善するのは控え目に言ってもチャレンジだった。

今回のアップデートでは音声認識にさらに新しい機能が追加された。これはライブキャプションといい、上に述べた音声認識テクノロジーをビデオに適用してリアルタイムで字幕を表示できるものだ。ユーザーはYouTubeビデオを見ながら登場人物が何を言っているのかリアルタイムで字幕で見ることができる。これはビデオメッセージ、ボイス・メッセージにも利用できる。

この機能は聴覚にハンディキャップがある人々に便利なのは当然として、対象言語の聞き取り能力が不足しているが音声をテキスト化してもらえば判読できるという何千万人ものユーザーにとっても朗報だ。あるいは職場や交通機関内で音声をミュートしてビデオを見るときにも使える。ベッドでビデオを見ながら眠ってしまいそうなときも音を消して字幕にしてしまえれば好都合だ。リアルタイムで自然言語を認識しテキスト化する能力が使える場面はこれ以外にも無数に考えられる。

Gif showing a phone conversation being captioned live.

サンダー・ピチャイCEOによれば通話へのライブキャプションの適用は「まだ開発途上」ということだったが、「ライブリレー」というデモがステージで披露された。ユーザーが聴覚にハンディキャップがあるか、いろいろな理由でうまく発話できない場合、通常の音声通話はほとんど意味ないものとなる。しかしライブリレーが実用化すれば着信ないしマイクで入力された音声をライブでテキスト化して表示、あるいは送信できるようになる。

ライブキャプションはAndroid Qの機能として実装される。デバイスによって機能の一部に制限が生じる可能性はある。ライブテキスト化は現在でも利用できるが、まだベータ段階だ。ライブリレーは上述のように未公開だが、デモの完成度から判断すると公開される時期はそう遠くないはずだ。

【Japan編集部追記】ソースネクストから販売されているリアルタイム翻訳デバイス、ポケトークは複数の音声認識エンジンを利用しており、日本語/英語翻訳のエンジンはGoogle翻訳をカスタマイズして利用している。

原文へ

(翻訳:滑川海彦@Facebook

Googleが導入する聴覚障がい者用アクセシビリティ機能2つ

Googleは、今朝、聴覚障がい者や難聴者のためのAndroidの新機能を2つ発表した。同社が今朝のブログ記事でも触れているように、WHOは聴覚に障がいのある人は、2055年までに9億人に達すると推定している。特にAndroidというモバイルデバイスの普及率の高さを考えると、そうした人々にコミュニケーションの扉を開く確実な可能性を提供することができるはずだ。

その2つの機能のうちで、より有力なのはLive Transcribeだ。その名前が示すように、この機能は音声をリアルタイムで文字に書き起こすもの。聴覚に障がいのあるユーザーも、音声をテキストとして読むことができるので、双方向の会話が可能になる。デフォルトでは、黒の背景に白のテキストを表示するので読みやすい。また、外部マイクを接続すれば、さらに良好な結果を得ることができる。

この機能は、同社の提供するテキストの読み上げや翻訳機能を、さらに強化することになる。今日から、Pixel 3ユーザー向けの限定的なベータ版として展開される。いずれ、70以上の言語と方言に対応することになっている。

一方、昨年のGoogle I / Oで発表されたSound Amplifierは、周囲の環境音や、不要な雑音を除去するもの。最初から大きな音は増幅しない。これはヘッドフォンで機能し、効果の強さはユーザーが手動で自由に調整できる。これについては、すでにPlay Storeで入手できるようになっている(訳注:日本語版は「音声増幅」)。

[原文へ]

(翻訳:Fumihiko Shibata)

Microsoft Code Jumperで視覚ハンディキャップ児童もプログラミングが可能に

教育システムのトレードショー、 BETTがロンドンで開催中だ。Microsoftはさきほど多数のプロダクトを発表したが、中でも興味あるのはCode Jumperだ。これは視覚にハンディキャップがある児童がプログラミングできるようにするデバイスでパソコンに接続して利用する。

Code JumperはMicrosoftが2017年に発表したProject Torinoの一環で、 イギリスMicrosoftのケンブリッジ・ラボが「物理的接触でプログラミングできる言語」の開発に取り組んでいる。これはレゴブロックのような部品を組み合わせることでプログラミングができるようにしようとするものだ。

Microsoftはプレスリリースで「子どもたちにプログラミングの初歩を教えるのにもっとも効果的なのはブロック・コーディングと呼ばれる手法だと発見したことからこのこのプロジェクトは始まっている。しかしブロック・コーディングにはアクセシビリティーにおいて改善すべき点があった。視覚にハンディキャップがある場合、スクリーン読み上げや拡大といった方法を用いても自分が何をしているのか理解することが難しかったからだ」と述べている。

Microsoftは視覚障害者の自立を支援するNPO、American Printing House for the Blindにテクノロジーと各種データを提供する。今年中に オーストラリア、カナダ、イギリス、アメリカでプロダクトは入手可能になる。その後、他の国にも拡大される予定だ。

( 原文へ)

滑川海彦@Facebook Google+

Google Slidesの解説ナレーションがリアルタイムで自動的に字幕表示される

GoogleのプレゼンテーションツールSlidesに、プレゼン中のリアルタイムの自動字幕というおもしろい機能が加わる。耳の不自由な人や、聴くより読んだ方がよく分かるという人には、とても便利だろう。

この新しい機能は、画面読み上げツールの改良や、Braille、Google Docs/Sheets/Slidesの拡大表示などを作った同社のアクセシビリティーチームの作品だ。この自動化字幕は社内のハッカソンで生まれ、それが今回からは、デフォルトの言語がアメリカ英語である人がChromeブラウザーを使ってる場合に利用できる。対応言語は今後徐々に増やしていく予定だ。

この機能はSlidesのナビゲーションボックスの“CC”ボタンを押すと使えるようになる。あとは、コンピューターのマイクロフォンに向かって、ふつうに話すだけだ。

これはアクセシビリティーの機能であるだけでなく、プレゼンのナレーションの書き起こしを作って、それを後で何かに利用するためにも使える。

なお、最近MicrosoftのTeamsにも、同様の字幕/書き起こし機能が加わった。GoogleとAWSとMicrosoftは、その音声書き起こし技術をAPIとして提供しているので、自分のアプリケーションにこの機能を組み込むデベロッパーも徐々に増えている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleが音声でスマートフォンを操作できるAndroidアプリをローンチ、障害者でなくても便利

Googleが今日(米国時間10/2)、体の不自由な人がスマートフォンを使えるためのAndroidアプリを発表したVoice Accessという名前のそのアプリは、手を使わずにアプリを使ったり、テキストを書いたり編集したり、そしてもちろん、Google Assistantに話しかけたりできる。

つまりこのアプリを使うと、ボタンのクリック、画面のスクロール、アプリの画面内での移動などのコントロール機能が音声でできる。今は英語だけだが、ほかの言語も準備中だ。

Googleはこのアプリの主なユーザーを、パーキンソン病や多発性硬化症、関節炎、脊髄損傷などの患者と想定しているが、ほかの作業で手がふさがっている人にも便利だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Echo Showの画面をタップ、Alexaがテキスト表示で応答するなど、アクセシビリティ機能が充実

Amazonが今朝(米国時間7/23)、Echo系列のアクセシビリティを強化するための新しい機能をいくつか発表した。そのリストの最上位にあるTap to Alexa(Amazon Tapと混同しないように)は、音声を使わずにEcho Showと対話できる。

その新しい機能を設定のときクリックしておくと、音声デバイスをタッチスクリーンタブレットとして使えるようになる。ホーム画面に、いくつかのショートカットを加えることもできる。「ニュースと天気予報」や、何かのスマートホームデバイスをon/offする、テキスト入力を使用する、などなどだ。

音声でパソコンを操作できることは、昔の、いや今でも、アクセシビリティ機能の上位にあるが、Echoのような音声操作デバイスでは、音声が使えない人を考慮しなければならない。Echoにディスプレイ付きのバージョンが登場したからには、アクセシビリティとしてタップを実装するのも当然だよね。

Tapの次は、Alexa Captioning(字幕機能)だ。数か月前にアメリカのユーザーには導入されたが、これからはイギリス、ドイツ、日本、インド、フランス、カナダ、オーストラリア、ニュージーランドのユーザーも利用できる。この機能では、Echo ShowとSpotでAlexaの応答が画面のテキストで出るようになる。

「タッチ入力」と「テキスト表示」…Amazonの音声アシスタントがついに音声を超えて、ユーザー層を拡大しようとしている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AirPodsがiOS 12でライブリスニングをサポート――デバイスの聴覚増強機能が使えるようになる

(編集部:この記事はSteven Aquinoの投稿。Aquinoはフリーランスのテクノロジー・ライターでiOSにおけるアクセシビリティー機能の専門家)

月曜のWWDCキーノートで触れられなかったがAppleは重要なハードウェア能力の増強を予定している。iOS 12のユーザーはライブリスニングLive Listen) 機能をAirPods.で利用できるようになる。ライブリスニングはこれまでAppleのMade for iPhone補聴器のみサポートしていた。

iPhoneの「設定、一般、アクセシビリティ」を開いて設定すれば、デバイスを強力な指向性マイクとして利用できる。たとえば騒がしいレストランでもiPhoneをテーブルに置いてAirPodsを装着すればiPhoneが相手の声を聞き取りAirPodsに届けてくれる。

ライブリスニングはAppleが2014年に公開した機能で、iPhoneを補聴器として使うことができる。あるいはレストランや大教室など雑音の多い環境ではっきり音声を聞き取るのにも役立つ
。利用するにはAirPodsをペアリングする際にライブリスニングを有効にし、音量を調整するだけでよい。ここでアクセシビリティ・ショートカットを設定することもできる。

ライブリスニングのサポートはAirPodsの普及にあたって大きな役割を果たすはずだ。AirPodsはここ何年かでもっとも優れたAppleの新製品だと称賛されているが、ライブリスニング機能が加われば一層魅力を増すだろう。近く、誰でも専用ハードウェアを買わずにAirPodsでライブリスニングができる。聴覚になんらかのハンディキャップがある場合は特に有用だ。

ただしAirPodsによるライブリスニングは補聴器を完全に代替することを意図したものではない。補聴器として使うことを考えている場合、専門医、専門家と相談した上でその指示に従うことをお勧めする。

〔日本版〕ライブリスニングはiPadでも利用可能。設定→一般→アクセシビリティ→聴覚サポート→MFiヒアリングデバイスの順に開いてペアリングする。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

マイクロソフトのXbox Adaptive Controllerは「インクルーシブデザイン」の刺激的なお手本

障害をもつゲーマーは、さまざまな理由で特有の課題に直面している。アクセシビリティー対応のゲーム機周辺装置の少なさもそのひとつだ。Microsoft は、Xbox Adaptive Controller(XAC)でこの問題の解決に向けて大きな一歩を踏み出した。このデバイスは通常のゲームパッドが選択肢にないゲーマーのニーズに答えるべく開発された。

XACは最近のイベントで正式公開されたが、数日前にリークもされていた。デバイスは2つの巨大なプログラマブルボタンと大型の十字ボタンからなっている。後部の3.5 mmポートには、ブローチューブ、ペダル、Microsoft製のアクセサリーなど実に様々な種類のデバイスを接続できる。

これはオールインワンのソリューションではなく、障害をもつゲーマーが最小限の手間で自分専用の操作環境をつくるためのハブのようなものだ。自分のもつ能力、心地よいもの、すでにもっている道具など、どんなものでもXACなら生かしてしてくれる。

本来なら私が詳しく紹介するところだが、Microsoftの驚くほど興味深くて詳細なXACの紹介記事を超えられそうにない。記事にはハードウェアの起源、テスト担当者や開発者の逸話などが満載されている。間違いなく時間を割いて読む価値がある。

このシステムについて、あるいはユーザーがどのように使うかについて追加情報をたのしみにしている。インクルーシブやアクセシビリティーがこのように実用的かつ慎重に研究された形で追求されるところを見るのはうれしいものだ。

[原文へ]

(翻訳:Nob Takahashi / facebook

iOSのカメラアプリHalideは写真の位置データを削除できる、セルフタイマーもサポート

iOS用の高度なカメラアプリHalideは、AppleのデザイナーだったSebastiaan de WithとTwitterのエンジニアBen Sandofskyが昨年ローンチし、そして今日(米国時間4/30)はこれまでで最大のアップグレードを発表した。このアップグレードには、セルフタイマーや、写真レビュアーの新設計、障害者等向けアクセシビリティの改善、などが含まれる。でも、おそらく、今回の最良の機能は、写真のプライバシーの保護だろう。写真を他と共有する前に、その写真のメタデータから位置情報をなくせるのだ。

Halideがとくに優れているのは、プロフェッショナルなカメラ機能を簡単なジェスチャーで使えることだ。だからアマチュアにもプロにもどちらにとっても、魅力的なアプリだ。

今ある主な機能は、手動の焦点調節ダイヤルや、その逆の自動焦点モード、RAWとJPGをサポート、グリッド/レベルツール、ライブのヒストグラムなどだ。

そして今回のアップデートで、Apple Watchコンパニオンなど、さらに便利な機能が加わった。

Apple Watchのアプリをインストールすると、リモートでフレームを決めたり、Halideのシャッターを切ったり、タイマーをセットしたりできる。つまり、自分の手首から撮影をコントロールできる。

Apple Watchがなくても、セルフタイマー機能がある。設定は3秒、10秒、30秒の三種類だ。起動するとシャッターボタンが押された状態になり、ボタンの近くのアイコンにカウントダウンが表示される。

フォトレビュアーも新しくなった。撮影済みのグリッドをスクロールして、そこからすぐに撮影状態に戻れる。

アクセシビリティの改善ではDynamicとBold Typeが加わり、VoiceOverがサポートされた。Halideの作者たちによると、30秒のタイマーもアクセシビリティを意識した結果だ。素早く動けない人でも、利用できるように。

しかし、今回の最大の変化は、写真のプライバシーだ。

今の写真には、大量のプライベートデータが含まれていることを知らない人や、忘れている人は多い。写真ファイルのメタデータには、カメラやレンズやフラッシュに関する情報や、日付時刻、写真の位置情報などが隠されている。そんな情報は、共有したくないと思うこともあるだろう。Webやソーシャルメディアにポストするときには、とくに。

今度のHalideでは、トグルスイッチのon/offで位置データを削除できる。それにより、FacebookやInstagramやWhatsAppなどに写真を投稿するとき、個々の写真ごとに、位置の共有を制限できる。

アプリのダウンロード数は公表されていないが、Appleのオプトイン方式のアナリティクスによると、月間ユーザー数は10万あまりだ。サードパーティによるユーザー追跡は、行われていない。プロシューマー層というニッチを対象とする有料アプリにしては、いい数字だね。

Sandofskyはこう言っている: “うちはメールやプッシュ通知みたいな成長戦術をやっていないから、この数字を誇りに思うね。このアプリは、多くの人たちの本当のニーズを満たしているのだ、と思う”。

Halideは、App Storeから5ドル99セントでダウンロードできる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

右半身麻痺の友だちがNintendo Switchを片手でプレイできるためのアダプターを3Dプリントで作った

Julio Vazquezは、脳血管の傷害で右手が効かなくなった友だちのRami Wehbeが、Nintendo Switchをプレイできる方法を見つけたいと思った。Wehbeはたとえば、Breath Of The WildをJoy-Conコントローラーでプレイできない。二つのスティックを操作するためには両手が必要だからだ。エンジニアであるVazquezは、ゲームを左手だけでプレイできるための簡単なモジュールの、プロトタイプを作った。

“一週間のあいだに、失敗作のプロトタイプをいくつも作り、やっと今の形に落ち着いた。容易に3Dプリントできることと、軽くて実用的であることを目指したからね。テストの結果は上々だったから、これをシェアすることに決めた。同じ問題を抱える人たちにも、きっと役に立つと思う”、Vazquezはそう書いている。プリントモデルはここで入手できるから、だれもが自分ちでプリントできる。

3Dプリントのちょっとした発想で、わりと簡単に人助けができるなんて、ぼく自身も眼から鱗だね。Yodaの頭寝ている豚をプリントするのも楽しいけど、こうやって身の回りの問題解決に利用するようになったら、3Dプリンターの未来はもっともっと大きいだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

BlindPADのタブレットは突起の集合で情報を触覚的に表現し伝える、目の不自由な人だけでなく一般的な用途も

指先の操作だけで大量の情報にアクセスできるようになったことは、本当に素晴らしいけれども、でも文字通り自分の指先でしか情報にアクセスできない人たちはどう思っているだろう?。ここにご紹介する新しい画期的なタブレットは、磁力を利用して突起〔点字の‘点’に相当〕を並べ替え、地図などの画像情報も触覚に翻訳できる強力なツールになるかもしれない。

このまだ名前のないタブレットは、ヨーロッパのBlindPADプロジェクトの一環として過去数年間、進化し改良されてきた。その目的は、タッチスクリーンデバイスの安価でポータブルな代替機を作ることだ。開発は、スイス連邦工科大学ローザンヌ校(EPFL)の研究者たちが担当している。

その最新のプロトタイプはやや厚いiPad miniぐらいの大きさで、巧妙なメカニズムで突起を上げ下げすることによって、画像や文字や点字を表す(点字用には大きすぎるかもしれない)。小さな突起には磁石がついていて、磁石はつねに二つのスチール層のどちらかにくっついている。電流を流すとコイルの力で層が切り替わる。eペーパーの画面と同じく、現在の形を保つのに電力を使わないから、とても効率的だ。

突起の反応はとてもはやいので、動きや振動でフィードバックを伝えられる。また、手による押し下げや滑らしも検出する。

しかし目的は、目の見えない人のためのKindleではない。点字ディスプレイはもっと密度が必要だから、Blitabが使ってるような、もっと違う触覚ディスプレイが必要だ。BlindPADの突起の数は横12行、縦16列だ。それらを、“taxelだ”(tactile element, 触覚的成分)と呼ぶ人もいる。言葉で説明するより、見た方がよく分かるだろう:

EPFLのHerbert Sheaは、こう説明している: “人びとは点字ディスプレイを読めるし、近くの障害物を白い杖で見つける。われわれの安上がりなタブレットは、グラフィック情報をリアルタイムで提供するから、部屋や道路の配置を事前に知ることができる”。

たとえば安全な横断歩道が角道のどこにあるかを示したり、二つのドアのどっちが正しいロッカールームかを教えたりできる。また健常者と一緒にグラフや幾何学の問題を考えることもできる。昨年の研究では、このタブレットと紙の上の盛り上がった点が、児童にほぼ同じ学習効果をもたらした。

われわれの結果は、プログラマブルな地図が教育やリハビリの現場でグラフィカルなコンテンツを表示する効果的な方法であることを、示している。従来の、紙を使う方法と変わらないし、柔軟性や多用性はもっと優れている。

BlindPADの突起タブレットはまだ開発途上だが、研究を始めてからかなりの年月が経っている。現状はかなり効率的で、ワイヤレス、そしてある程度はポータブルだ。

Sheaによると、このテクニックは、手で押す手袋のような形で健常者も利用でき、同じような空間的情報や、仮想現実における触覚的フィードバックを与えたりできるだろう。

今週デンバーで行われるACM CHIカンファレンスで、チームの最新の結果が展示される。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

より良い「双方向」脳=コンピューターインターフェイスの研究が進んでいる

今回スタンフォード大学、そしてジュネーブ大学からそれぞれ発表された研究は、脳=コンピューターインターフェイス(BCI)の進化の速度が高まっていることを示す良い例だ。決してすぐにはマウスやキーボードの代わりになるというものではないし、未熟ではあるものの、この技術は障害を持つ人たちのための変革を予見するものだ。

まずスタンフォードの研究を紹介しよう。改善されたマイクロ電極アレイとコンピューターシステムを用いて、オンスクリーンカーソルを用いた文字入力を、麻痺したユーザーに対して可能にするものだ。

スタンフォード-BCI

「小さなアスピリンサイズの」電極アレイは100の電極を持ち、それぞれの電極が個別のニューロンをモニターすることができる。これを運動皮質に差し込み、利用者がカーソルを動かしたい方向へ腕を動かすイメージを思い浮かべると、何人かの人は、わずかの訓練で既存システムによる能率を凌ぎ、助力なしで1分間に何十文字もの入力を行えるようになる。

スタンフォード大学工学部教授でありレポートの共同執筆者であるKrishna Shenoyは、「この研究は、これまでに報告されていたものよりも、速度と正確さで3倍の成績を示しました」とニュースリリースの中で述べている。

当然ながら、望まれているのは、可能な限り簡単なセットアップで、麻痺に襲われた人びとのコミュニケーションできる速度を向上させることだ。そして、簡単かつ正確に画面上でカーソルを移動することができるということは、通常のコンピューターとの対話も遥かに簡単になるということを意味する。なので、文字入力を簡単にすることに加えて、人びとはウェブをナビゲートしたり、ゲームをしたりといった行為を簡単に行うことができるようになる。

「今回の実験は、安全性並びに実現可能性を確かめるためのものです」と、教授であり共著者でもあるJaimie Hendersonはスタンフォードビデオの中で語っている。「しかし、私はそう遠くない将来に、麻痺を持つ人びとを助けることのできるシステムを展開できるようになると信じています」。

彼らの研究は(米国時間)21日に発行されたeLife Sciencesで読むことができる。

次に紹介するのは、より理論的な性質のものだが、ジュネーブ大学のチームによるものだ。彼らはカーソルや腕の制御をするだけではなく、対象物からのフィードバックを脳に戻すことのできるBCIメカニズムを試作した。

mouse_bci

ジュネーブ大学の発表に実際に添えられている画像

BCIにありがちな課題は、脳から読み出した情報を元に行われた動作(バイオニックアームを動かしたり、スクリーン上のカーソルを選択したりといったもの)の結果を、利用者が視覚的に確認する必要があるというものだ。しかし、手足を有することの感覚の中には、位置に関する情報も含まれている。これは私たちが固有受容感覚(proprioception)と呼ぶもので、関節がどのくらい曲がっているか、手がどのくらい高く上がっているか、といった感覚を与えるものだ。こうしたフィードバックを生み出すための研究が行われてきたが、今回ともあれマウスを使って、より単純なプロセスを示すことができた。

研究者たちは、光を用いた顕微鏡的技術を利用して、マウスの脳内の細胞群をモニターした。マウスが、研究者によって選ばれた特定のニューロンを使うと(それ自身は何も行わないが、その活性化が明かりをつけたり、腕を動かしたりする外部の仕掛けに対応付けられている)、その動作結果に対する報酬とフィードバックパルスを、光を当たることで刺激を受けるように改変された感覚皮質の細胞を用いて受け取るようになっている。

この実験で示されたものは、研究者たちが選んだニューロンの活性化に対して、戻される人工的な感覚を、マウスの中で光刺激を用いて関連付けることができた、ということだ。これはプリミティブではあるが機能するフィードバックループである。

もちろん、人間がこうした感光ニューロンを手に入れるために、遺伝子治療を施されることはない、この研究はスタンフォードのものよりも、更にプリミティブなものだ。しかし、この研究は基本的な仕組みが働くこと、そして人間への応用が可能であることを示唆している。これらのフィードバックループをいくつか装着することで、目を閉じている時にも人工義肢のおおよその位置を感じることができるようになるかもしれない。

この論文はNeuronジャーナル上で、米国時間22日に発表された。

[ 原文へ ]
(翻訳:Sako)

Facebook、Internet.orgの取り組みで4000万人にインターネットアクセスを提供した

internet-org-feature

Facebookの記録破りのQ3の決算発表で、Mark ZuckerbergはInternet.orgで4000万人のインターネットアクセスを支援したと発表した。Internet.orgはFacebookのインターネットへのアクセシビリティを促進する取り組みで、この数字は世界の人口の0.5%にインターネット接続を提供したことになる。

Facebookは前四半期からのユーザー数の伸び率は3.63%から4.57%へと上昇したと発表し、Internet.orgの取り組みもこれに貢献したという。ユーザー数は17億9000万人に到達した。

Facebookはキャリアの協力を得てFree BasicsアプリとExpress Wifiのハブからインターネットアクセスを提供している。最終的にFacebookは自社で開発しているソーラーパワードローンAquilaや衛星を始め、先進テクノロジーを使って遠隔地域にもインターネットアクセスを提供したい考えだ。Facebookのこの取り組みでは、データプランを購入できない人たちとインターネットアクセスがない地域に住む人たちの両方をターゲットとしている。

4000万人までの数値を追ってみると、2014年7月の時点で300万人だった利用者数は、昨年同時期には1500万人となり、今年の5月には2500万人となった。年間の伸び率は166%だ。Internet.orgのFree Basicsアプリは、最大の市場と見込んだインドでは禁止されたにも関わらず、これは強い成長だ。

それに、アフリカにインターネットアクセスを提供するため、Internet.orgは最初の衛星を打ち上げる予定だったが、この衛星を積んだSpaceXのロケットは離発着場所で爆発したため、この計画も台無しになっている。

facebook-internet

FacebookがInternet.orgでの取り組みを続けるなら、世界の隅々までインターネットを張り巡らすこと、そしてFacebookの広告を視聴することになるユーザーをさらに獲得するという2つのミッションを同時に遂行することができるかもしれない。

[原文へ]

(翻訳:Nozomi Okuma /Website