フェイスブック、YouTube上で使える体が不自由な人のためのTobiiの視標追跡アプリ

今日までのアプリやサービスには標準のアクセシビリティがなく、通常のスマートフォンやマウス、キーボードなどを使えない人たちのための良質な代替手段がないことが多い。視標追跡(eye-tracking)技術のリーダーであるTobiiは、一連の人気アプリを視線でコントロールできる方法を発明した。

アクセシビリティの専門家であるサードパーティのデベロッパーと協力して同社がこれまでに作り上げたアプリはFacebook(フェイスブック)、FB Messenger、WhatsApp、Instagram、Google(グーグル)、Google Calendar、Google Translate、Netflix(ネットフリックス)、Spotify、YouTube、MSN、そしてAndroid Messagesだ。

これらのカスタムアプリは、Tobiiの視標追跡タブレットであるI-Series、またはTobiiのハードウェアとソフトウェアを使用するWindows PC用だ。

しかしこれまでのユーザーは、これらのサービスのための一般的なウェブインターフェイスを使うか、ネイティブアプリになんらかのレイヤーを追加する必要があった。しかしボタンやメニューなどは視標追跡向けに設計されておらず、小さすぎて操作しづらかったりことも多かった。

ニューバージョンもウェブアプリがベースだが、視標追跡を念頭に置いて設計されているため、大きくわかりやすいコントロールが用意されており、アプリの通常のインターフェイスが右側にある。シンプルな方向を示すコントロールはもちろん、コンテキストやアプリ固有の指定ができるコントロールもある。例えばネットフリックスを閲覧するときは「ジャンル」を使うことができる。

同社は上記写真に写っている1人のユーザーであるDelaina Parrish(デライナ・パリッシュ )に紹介している。彼女はInstagramなどアプリを使ってFearless Independence(怖くない自立)というブランドを立ち上げているが、脳性小児麻痺のため十分にアプリを使いこなせないことがある。彼女はTobiiのプレスリリースで「これらのアプリにアクセスできるようになり、毎日の生産性とコミュニケーションのチャネルが、プライベートと仕事の両方で改善され、多くのことを自分でできるようになりました」と語っている。

障碍者が使える「十分に良い」ツールやインターフェイスと、アクセシビリティを最初から目標として作られたものとの違いを課題評価することは難しい。新しいアプリは、互換性のあるデバイスなら今すぐ利用できる。

画像クレジット: Tobii

[原文へ]
(翻訳:iwatani、a.k.a. hiwa

自動運転技術を車いす利用者向けにチューニングしたシャトルカー

輸送や交通の自動化を目指すMay Mobilityが、いわゆる自動運転技術に関しては単なるアクセシビリティー以上のものを実現しようとしている。その同社は最近、自動運転シャトル車の車いすバージョンの開発を始めた。そのプロトタイプのテストが最初の供用予定地オハイオ州コロンバスで行われ、コミュニティの人びとからのさまざまなフィードバックを集めた。

車いす利用者のための乗車と下車の便宜および、シャトルの走行中の安全確保が設計に導入されている。最初に得られたフィードバックからは乗下車のためのが補助スロープがもっと長くて傾斜がゆるくないといけないことが分かった。関連して、乗車と下車のための停車場の設計にも、問題があった。

本格供用に向けて改善点がまだいろいろあるが、最初のパイロット的運用はもうすぐコロンバスとプロビデンス、およびグランドラピッズで行われる予定だ。

同社によると最終的には、そのソリューションは少なくとも、今の公共交通機関における車いす介助方式と同等、とユーザーに感じてもらえるものでなければならない。

may mobility alisyn malek

May Mobilityの共同創業者でCOOであるAlisyn Malek氏が2019年7月10日のTechCrunch Sessions: Mobilityに登場

May Mobilityの共同創業者でCOOのAlisyn Malek(アリサイン・マレック)氏は、TechCrunch Sessions: Mobilityでこう語った。「どうやって、交通を誰にとっても容易なものにできるだろうか?この問題意識の中でとくに重要なのが誰にとってもの部分だ」。

このような低速の電気自動車に関しては、米国など多くの国でまだその設計や安全性機能に関して明確な指針や規制がない。そこで同社が考えたのが、障害者向けの設計に関して最初からコミュニティと協働することだ。自動運転車を作っている企業のほとんどが「まるで決まり文句のように、これまで自動車に乗れなかった人でも乗れるようになる」と言う。しかし実際には、そんなアクセシビリティーのために具体的で現実的な工夫を実装しているところはほとんどない。

しかしごく一部の企業、例えばライドシェアサービスのLyftは、自動運転車を開発しているAptivおよび全米視覚障害者連合とパートナーして、目の不自由な人でも利用できる自動運転車サービスを設計している。しかしMay Mobilityのシャトルサービスは、ひとつの会社や機関としての完全な管理体制の中で商用のコミュニティサービスとして展開できる。つまり同社のアクセシビリティー対策は、既存のバス会社やタクシー会社、もしくは一部の行政サービスなどでもすぐに採用して実用化できる。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

車いすのユーザーが近づくと自動的にドアが開くBluetooth Low Energyボタン

押すと自動的にドアが開くボタンやプレートがあると建物のアクセス性はよくなるが、常に最良のソリューションとは限らない。上体の動きが自由でない人が車いすに乗っていると、ボタンは押しづらいだろう。ボタンの位置が高すぎたり低すぎたり、あるいはドアから遠すぎて閉まってしまうこともある。

Portal Entrywaysは、そういう既存のボタンをもっと使いやすくする。同社が作ったデバイスをボタンの上にかぶせると、車いすの人が近づけばドアが自動で開き、開いた状態を維持する。ボタンを前と同じように単純にボタンとして使うこともできる。

Portalの製品には二つの部位があり、ひとつは既存のドア開閉システムにくっつけるBluetooth Low Energyのデバイス、もうひとつは車いすのユーザーのスマートフォンで動く付属アプリだ。アプリはそのBluetooth Low Energyデバイスを探す。通信範囲内にひとつ見つけたらコマンドを送ってドアを開き、ユーザーがその出入り口を通過するまでドアを開いたままにする。Portalを装備している出入り口にはステッカーがあるので、ユーザーは自分が近づけば開くとわかる。

PortalはY Combinatorの2019冬季クラスに参加している。でもその始まりはブリガムヤング大学のイノベーション事業における学生プロジェクトで、その課題は、現実世界の問題を解決すること、だった。共同創業者のSam Lew氏によると、最初彼らは建物のアクセシビリティとは全然関係のない、物流関連のプロジェクトを始めた。でもキャンパスで、友だちがドアを開ける時間のスケジュール表を作ったり、手が届かないボタンを押してあげている人物に会ったとき方針を変えた。

まだ始まったばかりだが、彼らは早い成功をねらっている。これまで250台近くのデバイスを据え付けたが「今月中に1250台ぐらいの契約を取りたい」と言っている。

今は、同社の創業者たちが自分でデバイスの据え付けをやっている。ボタンもモーターもドアによってまちまちだ。有線で接続しているところもあれば、すべてワイヤレスのところもある。それらすべてに接続するには、今のところ特殊な知識がいる。しかし共同創業者のJosh Horne氏によると、既存の人気製品のほとんどすべてで動作する。「骨董品でなければ動くはずだ」と彼は言う。

同社が今集中しているのは、大学やモールなど公開的な施設建物のドアだ。どれぐらいの使用料にするかまだ決めてないが、ドア1つにつき1年で100ドルか200ドルぐらいを想定している。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

写真に写ってるものを音声で聞けるマイクロソフトのSeeing AIアプリ

Microsoft(マイクロソフト)のSeeing AIは、目の不自由な人が視覚データをオーディオに変換できるアプリだが、今回、便利な機能がひとつ増えた。ユーザーが、写真の中のオブジェクトや人間をタッチして調べることができるのだ。

それはもちろん、機械学習のオブジェクトや情景の認識機能を利用している。写真を撮ったり、ビューワーの中で開いたりしたら、その上のどこでもいいからタップするだけだ。

「この新しい機能でユーザーは、タッチ画面に表示されている画像を指でタップして、そこに写っているものやそれらの空間的関係の説明を聞くことができる」と、Seeing AIの主席開発者Saqib Shaikh氏がブログ記事でそう述べている。「このアプリは、人の肉体的な外見や彼らの気分も説明できる」。

顔認識機能もあるので、友だちの写真を撮ったら誰がどこで何をしているのか聞くことができる。その写真の中に犬がいることもわかる(こいつは重要だ!)。これは、下図に示すように、全画面的にはすでに実現していた。

でも今度からは、ユーザーがあちこちをタップして、どんなオブジェクトがどこにあるか知ることができる。それは新奇な機能というより、写真を見る際には本来とても重要なことだ。説明書にはないが、もっと細かいこと、たとえば前景に花があるとか、背景に映画のポスターがある、なども分かる。

しかもこのアプリはiPadをサポートするようになったので、アップルのタブレットがいろんなメディアや対話の主要なインタフェイスとして役に立つだろう。今回のアップデートでは、このアプリから好きなものを注文できるようになった。

Seeing AIは無料で、iOSデバイス用にここからダウンロードできる。

画像クレジット: Microsoft

[原文へ]
(翻訳:iwatani、a.k.a. hiwa

Googleが音声でスマートフォンを操作できるAndroidアプリをローンチ、障害者でなくても便利

Googleが今日(米国時間10/2)、体の不自由な人がスマートフォンを使えるためのAndroidアプリを発表したVoice Accessという名前のそのアプリは、手を使わずにアプリを使ったり、テキストを書いたり編集したり、そしてもちろん、Google Assistantに話しかけたりできる。

つまりこのアプリを使うと、ボタンのクリック、画面のスクロール、アプリの画面内での移動などのコントロール機能が音声でできる。今は英語だけだが、ほかの言語も準備中だ。

Googleはこのアプリの主なユーザーを、パーキンソン病や多発性硬化症、関節炎、脊髄損傷などの患者と想定しているが、ほかの作業で手がふさがっている人にも便利だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

VR技術が老眼を救う

目の前1インチのところに仮想現実世界を描いて見せるVR技術が、現実世界のスマート眼鏡を生み出すことになるかもしれない。開発中のデバイスは「Autofocals」という名前で、これを使えば視力の低下によりもたらされる問題を解決することができるよ。深度センサーおよび視線追跡機能を利用して、自力で焦点調節をできない人が、正しく物を見ることをサポートする。スタンフォードの研究者たちが手がけるもので、現在のところはプロトタイプ段階だ。

研究チームのリーダーであるNitish Padmanabanに、バンクーバーで開催されているSIGGRAPHにて話を聞くことができた。彼自身を含む研究チームが、イベント会場にて最新版の紹介を行なっていたのだ。Padmanaban曰く、このシステムは近くのものが見にくくなる「老眼」による不便さを軽減することができるとのこと。老眼には多くの人が苦しんでおり、若い頃に素晴らしい視力を誇っていた人も悩まされている。

もちろん、現在でも乱れたピントを正すために、二重焦点レンズや累進レンズなどがある。これらは焦点を合わせるために光を屈折させるという方法をとる。純粋に光学的な解決策で、値段も安くて便利に使っている人も多い。しかしこの方法では度数も固定され、視野も限られることになる。度数を調整ができる眼鏡も存在するが、利用するには眼鏡横のダイアルを手動で調節してピントを合わせる必要がある。眼鏡を使っている人の目的(見る対象物)に応じて、自動的に対応できるレンズはできないだろうか、というのが本プロダクトのスタート地点であったそうだ。

そうした目的に向かって進み始めたのがPadmanabanおよびRobert Konrad、そしてGordon Wetzsteinだ。現時点のプロトタイプは武骨で、実用にはほど遠いものだ。しかし仕組み自体のもつ可能性については、注目している人も多いようだ。

PadmanabanはこれまでVR系技術の研究をしてきた。その頃から、眼の調節作用(convergence-accommodation problem)について研究してきている。これは(その当時の研究対象でいえば、VRの世界で)遠くを見てから近くを見るときに、焦点が正しく合わないことについて研究するものだ。焦点をうまくあわせられず、目眩や吐き気などを感じてしまう問題だ。VRの世界では10フィートの視点移動もスムーズに行なえないことがあり、そうした中で、見ているものに自動的に焦点を合わせる技術が研究されてきた。そしてこの技術を、現実の世界で焦点を合わせるのに困難を感じる人のために活用してみようというのが、Padmanabanらのアイデアだ。

写真は以前に開発したプロトタイプ

仕組みとしては、まず眼鏡に備えられた深度センサーが利用者の前面に広がる景色を把握する。たとえば14インチ向こうに新聞があり、テーブルは3フィートあちら側、などといった具合だ。そして視線追跡システムが、今現在どこを見ているのかを認識して、見ているものにピントを合わせるわけだ。

20インチより近いところに焦点を合わせにくい人に使ってもらってみたところ、うまくレンズを調節して、みたいものを見せることができたそうだ。

上の具体的ケースでいえば、利用者がテーブルの上や部屋の奥を見ているような場合には、近距離を見るための仕組みを作動させる必要はない。しかし新聞に眼をやった場合、直ちにレンズを調節(右目、左目を独自に調節するのだろう)し、きちんと焦点を合わせることができるようにするわけだ。

視線を検知して、見たいものまでの距離を判断して調節するのに150ミリ秒ほどかかるのだとのこと。これは「流れるように」というわけではなく、利用者にワンテンポの遅れを感じさせるものだ。しかし老眼の人が見る対象を変更して、そして焦点を合わせようとするには3、4倍の時間がかかるのが一般的だ。開発中のデバイスは確かに利用者の役に立つものとなりそうだ。

「Autofocalsは未だプロトタイプ段階ですが、すでに従来の老眼対策の仕組みに対抗し得るものになっており、ケースによっては優位にたつ能力を発揮しています」と、SIGGRAPHで配布されている短い資料には記されている。「自然な感覚で利用することができ、Autofocalsは広く受け入れられることになるでしょう」。

開発チームは現在、本システムの利用に伴うメリットを検証し、またあり得る悪影響や不具合などについてテストしているところだとのこと。まだ商用化には超えなければならない壁が多く残されているが、しかしPadmanabanによればいくつかの企業がこのシステムに興味をもち、そして製品化を有望視しているのだとのこと。実験段階に一段落ついた時点で、詳細な方向性が明らかになってくるのだろう。

原文へ

(翻訳:Maeda, H

Echo Showの画面をタップ、Alexaがテキスト表示で応答するなど、アクセシビリティ機能が充実

Amazonが今朝(米国時間7/23)、Echo系列のアクセシビリティを強化するための新しい機能をいくつか発表した。そのリストの最上位にあるTap to Alexa(Amazon Tapと混同しないように)は、音声を使わずにEcho Showと対話できる。

その新しい機能を設定のときクリックしておくと、音声デバイスをタッチスクリーンタブレットとして使えるようになる。ホーム画面に、いくつかのショートカットを加えることもできる。「ニュースと天気予報」や、何かのスマートホームデバイスをon/offする、テキスト入力を使用する、などなどだ。

音声でパソコンを操作できることは、昔の、いや今でも、アクセシビリティ機能の上位にあるが、Echoのような音声操作デバイスでは、音声が使えない人を考慮しなければならない。Echoにディスプレイ付きのバージョンが登場したからには、アクセシビリティとしてタップを実装するのも当然だよね。

Tapの次は、Alexa Captioning(字幕機能)だ。数か月前にアメリカのユーザーには導入されたが、これからはイギリス、ドイツ、日本、インド、フランス、カナダ、オーストラリア、ニュージーランドのユーザーも利用できる。この機能では、Echo ShowとSpotでAlexaの応答が画面のテキストで出るようになる。

「タッチ入力」と「テキスト表示」…Amazonの音声アシスタントがついに音声を超えて、ユーザー層を拡大しようとしている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

このスマート「足首」は悪路にも順応する

人工装具は日々改善され、パーソナル化されているが、便利であるとはいえ本物には遠く及ばない。しかしこの新しい人工足首は、他と比べて本物に近い。ユーザーの歩き方や地面の状態に合わせて自ら動く。

人が歩くとき、足首は数多くの仕事をしている。地面に引きずらないように足先を上げ、着地の衝撃を緩和したり荷重を調節するために足の傾きを調整しながら、地上の凸凹や障害物を避ける。こうした動きを模倣しようとした義肢はほとんどなく、バネの曲がりや詰め物の圧縮など原始的な方法を用いている。

しかし、ヴァンダービルト大学機械工学教授のMichael Goldfarbが作ったこの足首のプロトタイプは、受動的な衝撃吸収のはるか先を行く。関節の中にはモーターとアクチュエーターがあり、内蔵のチップが動きを感知、分類して歩き方を制御する。

パラグアイのPoは3Dプリントされたカスタマイズ義肢を南米の貧しい人びと向けに開発

「この装置は何よりもまず周囲の状況に適応する」と、義肢を説明するビデオでGoldfarbは説明した。

「斜面の上り下り、階段の上り下りも可能で、装置が常に利用者の動きを認識し、それに合わせて機能する」と大学のニュースリリースで彼が述べた

歩き出そうとして足が地面を離れたことを感知すると、装置はつま先を上げてぶつからないようにすると同時に、足が下りるときにかかとをつけて次の一歩に備える。また、上から(人が足をどのように使っているか)と下から(斜面や地面の凹凸)の圧力を感知することで、歩き方を自然にすることができる。

数多くの義肢を使ってきたベテランのMike Sasserがこの装置を試して良い感想を述べた。「水圧式のマイクロプロセッサーをもたないタイプの足首を試したことがあるが、不格好で重く行動的な人間には制約が多かった。これは違う。」

現在の装置は、かなり実験室に縛られていて電源は有線で供給されている——外出には便利とは言えない。しかし、もしこの関節が設計通り動くのであれば、電源問題は二の次だ。課題が解決すれば数年のうちに商品化する計画だという。GolfarbのCenter for Intelligent Mechatronicsでの研究については、こちらで見ることができる。

[原文へ]

(翻訳:Nob Takahashi / facebook

マイクロソフトのXbox Adaptive Controllerは「インクルーシブデザイン」の刺激的なお手本

障害をもつゲーマーは、さまざまな理由で特有の課題に直面している。アクセシビリティー対応のゲーム機周辺装置の少なさもそのひとつだ。Microsoft は、Xbox Adaptive Controller(XAC)でこの問題の解決に向けて大きな一歩を踏み出した。このデバイスは通常のゲームパッドが選択肢にないゲーマーのニーズに答えるべく開発された。

XACは最近のイベントで正式公開されたが、数日前にリークもされていた。デバイスは2つの巨大なプログラマブルボタンと大型の十字ボタンからなっている。後部の3.5 mmポートには、ブローチューブ、ペダル、Microsoft製のアクセサリーなど実に様々な種類のデバイスを接続できる。

これはオールインワンのソリューションではなく、障害をもつゲーマーが最小限の手間で自分専用の操作環境をつくるためのハブのようなものだ。自分のもつ能力、心地よいもの、すでにもっている道具など、どんなものでもXACなら生かしてしてくれる。

本来なら私が詳しく紹介するところだが、Microsoftの驚くほど興味深くて詳細なXACの紹介記事を超えられそうにない。記事にはハードウェアの起源、テスト担当者や開発者の逸話などが満載されている。間違いなく時間を割いて読む価値がある。

このシステムについて、あるいはユーザーがどのように使うかについて追加情報をたのしみにしている。インクルーシブやアクセシビリティーがこのように実用的かつ慎重に研究された形で追求されるところを見るのはうれしいものだ。

[原文へ]

(翻訳:Nob Takahashi / facebook

Microsoft、Windows 10のアクセシビリティー機能を大幅に強化

Microsoftは、Windows 10に視覚障害者向けの新機能を数多く追加する計画を今日(米国時間3/19)のブログ記事で発表した。Windows 10の次期バージョンに追加される機能の中で特に目立つのが「簡単操作」設定パネルの変更だ。

改訂された画面は、視覚、聴覚、操作の各グループに分けられ、よく使われる機能が先頭に置かれている。新たに追加された機能として、「すべてを大きくする」や「すべてを明るくする」などもある。

同社の画面読み上げアプリ、ナレーターが微調整されてキーボード入力への反応がよくなり、連続的な読み上げが改善された。Edgeブラウザーでは「ページ読み込み中」などの情報が追加されたほか、ユーザーは声の抑揚によってテキストのスタイルを制御できるようになった。つまり、テキストを太字にするために「太字開始」と言う代わりに、声の調子によって文字スタイルを調整できる。

視線制御も改善され、制御の一時停止が可能になった。ただし、この機能はまだベータテスト段階のようだ。なお、一部の新機能はInsiderビルドを通じて、早いもの好きの人たちはすでにプレビューしていた。

Microsfotは今年中にさらにアクセシビリティー機能を強化する。CEO Satya Nadellaが去る2015年に約束した「わが社のプロダクトデザインと企業文化の受容性を高める」ことが目的だ。

[原文へ]

(翻訳:Nob Takahashi / facebook

Googleマップ、 乗り換え案内に車椅子対応オプションを追加

Google マップは目的地までの道順のデータはかなり充実しているが、身体障害のある人たちにとっては事態は簡単ではない。駅によっては、車椅子にやさしくなかったり、エレベーターが壊れていたりする。最新のアップデートで追加されたオプションでは、車椅子の利用に配慮した経路を選ぶことだできる —— ただし、まだ始まったばかりの段階だ。

ロンドン、ニューヨーク、東京、メキシコシティ、ボストン、およびシドニーのユーザーは、経路のオプションで車椅子が利用可能かどうかを指定できる。乗り換え回数や最短距離を指定するのと同様で、さらに機能が追加される予定だ。

これは、障害者やベビーカーを使っているひと、あるいは重い荷物を持ち歩くひとたちが、便利になることは間違いない。

しかし地図というものは、Googleマップのように著しく詳細なものであっても、身体障害のある人たちにとって不可欠な情報が著しく欠けている。歩道の状態やグレード、ガードレールの切れ目、横断歩道とボタン、建物の車椅子用出入り口、などもっと多くの事柄を考慮した徒歩経路などを、世界一使われている地図プラットフォームなら取り入れてほしい。

作るのが可能であることはわかっている。何人もの学生が夏休みプロジェクトで作っているからだ。たとえばAccessMapは、手作りのデータと公開データを組み合わせることで、歩道が安全か、移動には危険がともなうかどうかをラベル付けする。現在はワシントン州シアトル限定だが(学生に全国対応は望めない)コンセプトは有望だ。

Googleには、膨大なリソースを少しでも投入して、マップのアクセシビリティー対応を改善してくれることを願っている。喜ぶひとはいくらでもいる。

[原文へ]

(翻訳:Nob Takahashi / facebook

Airbnb、障害者の使いやすい施設を検索可能に

Airbnb は、障害のある人たちが利用しやすい宿泊施設を見つけるためのシステム変更を行った。Airbnbは21種類のアクセシビリティー・フィルターを追加して、段差のない部屋、車椅子が通れる廊下、エレベーター、車椅子で利用できるロールインシャワーなどのある施設を検索できるようにした。

これまでAirbnb利用者は、車椅子を使える部屋を探すことはできたが、それだけだった。今回適切なフィルターを選ぶために、AirbnbはCalifornia Council of the Blind、California Foundation for Independent Living Centers、およびNational Council on Independent Livingの協力を得た。

Airbnbが障害者を積極的に受け入れようとする意欲の背景には、LyftUberが車椅子利用者のためのオプションを提供せず、訴訟されたという事実がある。今後もホストと利用者双方の意見を聞き、便利で正確なフィルターを提供する努力を続けていく。

「新しいアクセシビリティー機能とフィルターをホストと顧客に提供したことは、われわれのアクセシビリティー改善に向けた第一段階にすぎない。できるだけ多くの人がフィルターを利用してフィードバックを返してくれることを願っている」とAirbnbのアクセシビリティー責任者、Srin Madipalliがブログに書いた

[原文へ]

(翻訳:Nob Takahashi / facebook

視覚障害者のテクノロジー利用を拡大する

テクノロジーは、世界2億8500万人の視覚あるいは視力障害者にとって生活の中心をなす ―― ただし、使い方を知っていれば。視覚・視力障害者の支援団体、LightHouse for the Blind and Visually Impairedのアクセステクノロジー担当ディレクター、Erin Lauridseに話を聞いた。

Lauridsenの役目は、視覚障害者が「生活に必要なテクノロジーの利用方法を知る」手助けをすることだと、本誌のBullishシリーズ最新回のインタビューで私に話した。支援はコンピューターリテラシーやスマートフォンの利用からスクリーンリーダー、拡大機能といった補助機能の使い方まで多岐にわたる。

彼女はGoogle、Uber、Lyft、FacebookなどのIT企業のユーザーテストに協力して、「すでに存在するものと今作られているものが、視覚に障害のある人たちでも等しく利用できること」を確認しているとLauridsenは言った。

しかし、米国で法律上失明している人たちの失業率は70%だ。この統計データは1970年代から更新されていないが、今も数値は高いとLauridsenは言う。IT業界にどの程度の失明者や視力障害者がいるのかわからないが(IT企業は通常このデータを報告しておらず、プライバシーの懸念もある)、おそらく極めて少ない。

視覚障害者が就職するうえでの障壁のひとつはリテラシーだとLauridsenは言う。点字など視覚障害者対応の資料が利用できなければ、リテラシーの格差は人生のごく最初の段階から生まれる。

「そうした教育を受け仕事の世界に入ると、ほとんどが認識の問題だ」とLauridsenは言う。「雇用担当者にとってあなたが初めて会う障害者であれば、面接の間中どうやってここまで来たのか、どうやって靴紐を結ぶのか気になってばかりで、おそらくあなたのスキルには集中していない。つまりは認識の問題がある」。

もう一つの問題は、デベロッパーツールのアクセシビリティ対応だとLauridsenは言う。彼女には素晴らしいプログラマーである盲目の友人が何人かいるが、デベロッパーツールがアクセシビリティ対応していないために就けない職があるという。

Lauridsenが最終的にIT企業に望むのは、アクセシビリティを「プロセスの最後にある小さなコンプライアンス用のチェック欄」以上に考えることだ。彼女の願いはアクセシビリティが「ものづくりの開発サイクルにとって重要で必要な部分になること。なぜなら障害のある人たちはハッカーでありイノベーターであり、それが私たちのふだんしていることだから。」

[原文へ]

(翻訳:Nob Takahashi / facebook

Uber、今度は車いす対応車両の不足で訴えられる

The Brooklyn Center for Independence for the Disabledを始めとする障害者権利支援団体は、Uberの車いす対応車両が不十分でニューヨーク市人権法に違反しているとして訴訟を起こした。Reutersが報じた

この集団訴訟にはDisabled in Action of Metropolitan New YorkおよびTaxis for All Campaignも原告として加わっており、Uberは「差別を助長し続けている」なぜなら5万8000台以上のUber車両のうち車いすで利用できる車は200台ほどしかない、と指摘している。

ここ数か月の間にUberは、ミシシッピー州ジャクソンの車いす利用者ワシントンDCのThe Equal Rights Centerからも訴えられている。昨年には、シカゴの障害者権利団体が同じような理由でUberを訴えた

Uberは障害のある人々にもサービスを提供してはいるが、問題は障害者が平等に利用できるために必要な対応車両が足りていないことだ。

Uberは障害者に向けた最初のサービスとして、2014年にUber Accessをスタートした。乗客はUber Accessを通じてUberASSISTおよびUberWAVをリクエストできる。これは車いすで乗れる車が迎えに来ることを意味している。ただし注意すべきなのは、Uber AccessがUberの全サービス地域で提供されているわけではなく、Uber Accessが利用できるかどうかは、Uberが民間サービス事業者と提携できるかどうかで決まっているらしいことだ。

英国でUberはアクセシビリティ対応を拡大している。今年Uberは、リバプール、リーズ、ウルヴァーハンプトン、ブラッドフォートなど英国7都市でUber Accessを提供開始した。先月には障害者支援チャリティーのWhizz-Kidzと組んで車いす利用者を投票所まで無料で運んだ

今回のニューヨークの裁判で原告団は、Uberが身体障害者に対して同社サービスの「完全かつ平等な利用」を約束するよう要求している。

「Uberのテクノロジーは、障害をもつ人々を含むあらゆる乗客に信頼できる移動手段を提供し、障害者が収入を得る新しい方法を可能にした」とUber広報担当者がTechCrunch宛ての声明で語った。「すべき仕事はもちろんまだあるが、今後も車いす対応車両を必要とする人たちに信頼できる移動手段を手頃価格で提供するサービスを提唱し続けていく」。

[原文へ]

(翻訳:Nob Takahashi / facebook

BlindPADのタブレットは突起の集合で情報を触覚的に表現し伝える、目の不自由な人だけでなく一般的な用途も

指先の操作だけで大量の情報にアクセスできるようになったことは、本当に素晴らしいけれども、でも文字通り自分の指先でしか情報にアクセスできない人たちはどう思っているだろう?。ここにご紹介する新しい画期的なタブレットは、磁力を利用して突起〔点字の‘点’に相当〕を並べ替え、地図などの画像情報も触覚に翻訳できる強力なツールになるかもしれない。

このまだ名前のないタブレットは、ヨーロッパのBlindPADプロジェクトの一環として過去数年間、進化し改良されてきた。その目的は、タッチスクリーンデバイスの安価でポータブルな代替機を作ることだ。開発は、スイス連邦工科大学ローザンヌ校(EPFL)の研究者たちが担当している。

その最新のプロトタイプはやや厚いiPad miniぐらいの大きさで、巧妙なメカニズムで突起を上げ下げすることによって、画像や文字や点字を表す(点字用には大きすぎるかもしれない)。小さな突起には磁石がついていて、磁石はつねに二つのスチール層のどちらかにくっついている。電流を流すとコイルの力で層が切り替わる。eペーパーの画面と同じく、現在の形を保つのに電力を使わないから、とても効率的だ。

突起の反応はとてもはやいので、動きや振動でフィードバックを伝えられる。また、手による押し下げや滑らしも検出する。

しかし目的は、目の見えない人のためのKindleではない。点字ディスプレイはもっと密度が必要だから、Blitabが使ってるような、もっと違う触覚ディスプレイが必要だ。BlindPADの突起の数は横12行、縦16列だ。それらを、“taxelだ”(tactile element, 触覚的成分)と呼ぶ人もいる。言葉で説明するより、見た方がよく分かるだろう:

EPFLのHerbert Sheaは、こう説明している: “人びとは点字ディスプレイを読めるし、近くの障害物を白い杖で見つける。われわれの安上がりなタブレットは、グラフィック情報をリアルタイムで提供するから、部屋や道路の配置を事前に知ることができる”。

たとえば安全な横断歩道が角道のどこにあるかを示したり、二つのドアのどっちが正しいロッカールームかを教えたりできる。また健常者と一緒にグラフや幾何学の問題を考えることもできる。昨年の研究では、このタブレットと紙の上の盛り上がった点が、児童にほぼ同じ学習効果をもたらした。

われわれの結果は、プログラマブルな地図が教育やリハビリの現場でグラフィカルなコンテンツを表示する効果的な方法であることを、示している。従来の、紙を使う方法と変わらないし、柔軟性や多用性はもっと優れている。

BlindPADの突起タブレットはまだ開発途上だが、研究を始めてからかなりの年月が経っている。現状はかなり効率的で、ワイヤレス、そしてある程度はポータブルだ。

Sheaによると、このテクニックは、手で押す手袋のような形で健常者も利用でき、同じような空間的情報や、仮想現実における触覚的フィードバックを与えたりできるだろう。

今週デンバーで行われるACM CHIカンファレンスで、チームの最新の結果が展示される。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Mac用のデスクトップクライアントがOS Xのセキュリティを侵しているという批判にDropboxが答える

dropbox_-_log_in

Dropboxが、同社のクラウドストレージサービスの、Apple MacOS用のデスクトップクライアントの実装をめぐる懸念に答え、またその統合化機能や、OSにリクエストしているパーミッションに関しては、もっとユーザーとコミュニケーションすべきだった、と反省を述べた。

Dropboxでデスクトップクライアントを担当するチームのBen Newhouseが、こう述べる: “DropboxのOSとの統合について、もっとよく伝えるべきだったことは明らかだ。パーミッションは一回求めているが、何をどうしているのかを説明しなかった。それは、直さなければならない”。

Dropboxのデスクトップクライアントに関する懸念は今日(米国時間9/10)Hacker NewsTwitterに載ったが、それらはAppleのhelpのブログにあった最近の二つの記事がきっかけだ。その記事の筆者は、DropboxによるOS Xのセキュリティのハック、という言い方をして、それを詳しく説明している。AppleHelpWriterの記事には、Dropboxが“TCCデータベースに対するSQL攻撃を使ってAppleの認証ポリシーを迂回している”、と書かれている。

その申し立ては、Dropboxが偽のダイアログボックスを作って、ユーザーのパスワードが正しくないと騙そうとしている、というものだが、さらに続けて、OS XのセキュリティダイアログボックスのDropboxによる実装は、ユーザーを騙してアドミンのパスワードを入力させ、DropboxがMacのアクセスパーミッションリストからシステムにrootアクセスするためだ、と批判している。

//platform.twitter.com/widgets.js

Newhouseは、デスクトップクライアントが必要とするパーミッションのスコープに対する批判に対してこう言う: “実際に使う特権しか求めていない。でも残念ながら一部のパーミッションは、われわれが望むような細かい粒度ではない”。

“アクセシビリティのAPIをDropboxのバッジ(Officeの統合)や、そのほかの統合(ウィンドウを見つけるなどのUIの対話的操作)に使っている”。

“内蔵のファイルシステムAPIで不十分なときは、上位のアクセスを使っている。このような依存性を取り除くよう、今Appleと協働しており、もうすぐわれわれが必要とする状態になるだろう”。

Newhouseは、Macユーザーのアドミンパスワードを見たり保存したりはしていない、と断言した。

“アドミンパスワードは絶対に見ないし保存しない。表示されるダイアログボックスはネイティブのOS X API(Appleが作ったもの)だ”、と彼は語る。

ではなぜそもそも、Dropboxはアドミン特権を必要とするのか? 彼は言う、“最初に特権をチェックしセットする。そのねらいは、Dropboxが正しく機能し、OSの複数のアップデートにも対応できるためだ。人びとを心配させたり、彼らの選択を無視するためではない”。

“今うちでは、全員がこの問題に取り組んでいる。われわれが起こしてしまった怒りや不安や混乱については、お詫び申し上げたい。こういう問題では、今後はもっと良いやり方をしなければならない、と自覚している”。

でも結局DropboxはAccessibilityを利用してrootアクセスを獲得しているわけだから、一部の批判者は納得しない。

Newhouseの声明に対してHacker Newsのコメンターriobardが書いている: “現時点では、Dropboxがそのような迂回路を必要とする理由について、十分な説得力のある技術的な詳細説明が得られないかぎり、非難はやまないし、壊れた信頼を再建することもできないだろう”。

“あなた(Newhouse)のレスに挙げられている、Accessibility APIを必要とする理由は、かなり曖昧である。とくに、Microsoft製品を持っていないMacユーザーにとっては、自分のシステムを汚されたことになる。ぼくは、DropboxをMacから削除した。リーズナブルな説明と対策が得られるまで、二度と再インストールしないだろう”。

おなじくHacker Newsのコメンターkybernetykは、パーミッションの粒度が大きいというNewhouseの説明を、“何でもできる(catch all)パーミッションを、やわらかくぼかして言ってるだけだ”、という。

“これからはマルウェアがDropboxのスクリプトをターゲットにして、ユーザーのシステムにタダ乗りするだろう”、とHacker Newsのユーザーpartycoderは書いている。

Dropboxのやり方に納得しなかったMacユーザーや、アプリケーションにrootアクセスを認めることにセキュリティの不安を感じる方は、AppleHelpWriterのこの記事を読んでみよう。DropboxをOS Xの Accessibilityのプリファレンスから削除するやり方が、詳しく書かれている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

マラケシュ条約、著作権を制限して視覚障害者の書籍利用を容易に

Child learning to read braille at Bombali School for the Blind in Sierra Leone. | Location: Bombali, Sierra Leone.

視覚障害者にとって、見えることを前提にした書籍や出版物を読むことはそもそも困難だが、コンテンツがアクセス可能な形式で提供されなければ完全に不可能だ。幸いなことに、問題を緩和するための国際的な合意が、今日大きな節目を迎え、年内には発効される運びとなった。

マラケシュ条約は、国連の一部門である世界知的所有権機関(WIPO)が提唱した、国境を越えて知的財産問題を緩和する一連の規則だ。条約は著作権法に例外を設け、点字、オーディオブック、電子書籍等のアクセシビリティー形式による作品の複製を認め、こうした作品の国際流通の制約を緩和する。

障害、ニーズ、利用方法は極めて多岐にわたる。麻痺があったり手を失った人々の要件は、視覚障害者や失読症の人たちとは大きく異なる。

マラケシュ条約は新しいアイデアではない。条約の準備や交渉は10年近く続いた ― 大きな国際合意はあらゆる意味で簡単でないので、それは驚きではない。もちろん、MPAAを始めとする主要な著作権所有団体が反対したことも邪魔をしている ― 例えば、字幕等を制限の対象から外した。

皮肉なことに、米国はこの条約が国際化を進める著作権制限を既に実施している、数少ない幸運な国の一つだ ― そして多くの組織が積極的に推進している。実際、つい昨日(米国時間6/30)、HathiTrust(大学図書館書籍アーカイブ事業)と全米視覚障害者連合は、視覚障害者および読書に不自由のある人々のために1400万冊以上の書籍をオンラインで公開すると発表した。

反対はあるものの、事態は良い方向へと進んでいる。エクアドルとグアテマラが昨日条約に加盟し、今日カナダが続いたことで、マラケシュの重要な20番目の加盟国となり、条約に「効力を生じ」させた。

Representatives from Canada (left), Guatemala (center), and Ecuador present documents to WIPO's Francis Gurry.

カナダ(左)、グアテマラ(中央)、およびエクアドル(右)の代表者が、WIPOのFransis Gurryに書類を提出した。

「マルケシュ条約が広く世界中で受け入れられれば、視覚障害のある人々が、より平等で差別のない方法で書物を利用できるようになる」と、WIPOのFrancis Gurry事務局長はプレスリリースで言った。

条約に効力が生じるということは、WIPOが加盟国に対し、約束を守り条約の規定を実際に法制化するよう促し始められることを意味している。発効日は9月30日だが、10月1日から点訳書が溢れることを期待してはいけない ― 法律が制定され、翻訳と配布のプロセスを監督する組織の選定あるいは設立が必要だ。

たとえゆっくりでも、何もないよりずっと良い。数年以内に、通常の書籍を読むことのできない人々が、今よりずっと簡単に代替手段を見つけられるようになるはずだ。

[情報提供に感謝:EFF

[原文へ]

(翻訳:Nob Takahashi / facebook

Amazon、視覚障害者向けアクセシビリティー機能のVoiceViewを、Kindle Paperwhiteにも提供

bundle-angled-_v294978805_

Amazonは、VoiceView機能をFireタブレットに続き、専用Eリーダーにも提供する。このアクセシビリティー機能は、視覚障害者に向けられたもので、まずPaperwhiteに導入され、端末とセットで出荷される。

「FireタブレットのVoiceViewと同じく、VoiceView for Kindleも、リニアおよびタッチによるナビゲーションに対応し、スピーチフィードバックと通知音も同じく幅広く設定できる」と同社のアクセシビリティー・アーキテクト、Peter Kornがブログ記事に書いている。「複数のレッスンから成るチュートリアルも開発した。ユーザーはいつでも戻ることができる」。

140ドルのパッケージには、6インチ画面の端末に加えて、Kindle AudioAdapterが付属している。これをPaperwhiteの充電ジャックに差し込むと、音声読み上げ機能が有効になり、視覚障害のある人は、ヘッドホン(別売り)をつないで本を音声で読むことができる。Amazonは、20ドルのAmazonアカウントクレジットを提供して価格差を相殺している。61utSTCg1VL._SL1500_

アダプターは単体でも(偶然ではなく)20ドルで販売され、一回の充電で約6時間使用できる。VoiceViewの他に、Amazonは独自のOpenDyslexicフォントを、Kindleリーダーの最新機種、およびKindle iOSアプリに提供する。

[原文へ]

(翻訳:Nob Takahashi / facebook

Facebookの視覚障害者用画像説明ツールがまずiOSでローンチ、独自のオブジェクト認識技術を使用

image_accessibility_team

Facebookが、視覚障害者に同サイト上の画像が“わかる”ためのツールAutomatic Alternative Text(ALTテキスト自動生成)をローンチした。画面上に何が表示されているのか知りたい人のためにATTは、オブジェクト認識技術を使って、Facebook上の写真の説明文を生成する。このツールは、Facebookのアクセシビリティチーム(上図)が数か月かけて作った

Facebookの初めての視覚障害者の技術者であるMatt Kingが、昨年10月に次のように語った:

“ニューズフィードのどれぐらいにビジュアルがあるだろうか。たぶん、ほとんどのニュースにあるだろう。コメントも、写真に関するものが多いし、ニュースをポストする人も写真について何か言ってることが多い。でもそんなテキストからは、その写真に何が写ってるのか分からないね。ぼくみたいな者にとっては、そこで何が行われているのか、何について話しているのか、それを知りたいんだけどね”。

ATTの前には、その写真を共有している人の名前は聞けた。Facebookに写真を投稿した人の、写真に関する説明文も聞けた。しかしATTなら、“画像には戸外で三人の人が写っていて微笑(ほほえ)んでいる”、といったテキストを聞ける。

  1. image_product_shot1.png

  2. image_product_shot2.png

  3. image_product_shot3.png

このFacebookのATTを駆動しているオブジェクト認識技術は、パラメータの数が何百万もあるニューラルネットワークを、何百万ものオブジェクトで訓練したものを使っている。ニューラルネットワークは、機械学習の基本形式の一つだ。画像認識の場合、ニューラルネットワークはパターン認識システムだ、と考えればよい。

ATTが使っているFacebookの技術は、画像と言葉をいくつかのカテゴリーに分類しながら認識する:

・交通(自動車、ボート、オートバイ、などなど)
・自然(アウトドア、山、波、太陽、草、などなど)
・スポーツ(テニス、水泳、スタジアム、などなど)
・食品(アイスクリーム、寿司、デザート、などなど)

また、物の外見を説明する語として、(赤ちゃん、眼鏡、微笑んでいる、宝石、セルフィー、などなど)も使用する。

AATが今対応しているのはiOSの画面のみ、言語は英語のみだ。視覚障害者のFacebook利用は、iOSデバイス上がいちばん多い。ただしもちろん、今後はほかのプラットホームや言語にも対応していく。ATTが実際に使われている様子を、下のビデオでご覧いただこう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Appleの自閉症を扱った短編映画は、アクセシビリティー機能の重要性を証明する


【日本語版編集部:Appleの日本語ページで日本語字幕付きビデオを見られる】
Appleは週末にかけて2本のビデオを公開した。主役はDillan Barmacheという自閉症で言葉を発しない16歳の少年だ。それは迫力ある映像であり、アクセシビリティー機能や、自閉症の人々のための専用アプリ等の特長に焦点を当てている。

自閉症は,社会的なコミュニケーションや行動に影響を及ぼす。自閉症の人々は世界とのコミュニケーションに苦労している。しかし、それは彼らに言いたいことがない、という意味ではない。

この病気になると、周囲の人と話すのが困難なため殻に閉じこもりがちになり、人々の言っていることを理解していることをわかってもらえず、悪いときには、人々が本人に代わって話し、誤って伝えてしまうこともある。

Dillanの人生はテクノロジーのおかげで大きく変わった。映画にはiPadと3つのアプリが登場する ― Proloquo4TextAssistive Express、およびKeebleだ。彼はiPadでタイプしてまわりの人々と話すことができる。映画はiPadの基本的ユーザーインターフェースや、ノートPCと比べていかに簡単かを詳しく紹介している。

テクノロジーは驚くほど強力であり、われわれのコミュニュケーションや情報共有、あるいは学習の手段に大きな影響を与える。人々と物事とサービスを、従来不可能だった形で結びつける。多くの会社は、主要な消費者サービスを使う数億人の人々に関わる問題に焦点を当てている。しかし、われわれのまわりにいる人々の人生を変える機会のある大きな分野が他にあることを忘れないことも重要だ。

ITエコシステムには責任がある。われわれはコミュニティーとして、現実世界のためのテクノロジーにも注目する必要がある。アクセシビリティー機能によって大きな利益を受ける人たちにとっての、次なる目玉を見つけなければならない。

自閉症受容月間に、Appleがこうして自閉症に光を当てたのはとても良いことだ。この会社は iOSのアクセシビリティー機能に大きく力を入れている他、他の極めて重要な取り組みにもリソースを割り当てている。他の会社も注目してほしい。多くの起業家は、大衆のために小さな問題を解決している。しかし、人生活を変えるような問題を解決することもできるのだ。

[原文へ]

(翻訳:Nob Takahashi / facebook