写真に写ってるものを音声で聞けるマイクロソフトのSeeing AIアプリ

Microsoft(マイクロソフト)のSeeing AIは、目の不自由な人が視覚データをオーディオに変換できるアプリだが、今回、便利な機能がひとつ増えた。ユーザーが、写真の中のオブジェクトや人間をタッチして調べることができるのだ。

それはもちろん、機械学習のオブジェクトや情景の認識機能を利用している。写真を撮ったり、ビューワーの中で開いたりしたら、その上のどこでもいいからタップするだけだ。

「この新しい機能でユーザーは、タッチ画面に表示されている画像を指でタップして、そこに写っているものやそれらの空間的関係の説明を聞くことができる」と、Seeing AIの主席開発者Saqib Shaikh氏がブログ記事でそう述べている。「このアプリは、人の肉体的な外見や彼らの気分も説明できる」。

顔認識機能もあるので、友だちの写真を撮ったら誰がどこで何をしているのか聞くことができる。その写真の中に犬がいることもわかる(こいつは重要だ!)。これは、下図に示すように、全画面的にはすでに実現していた。

でも今度からは、ユーザーがあちこちをタップして、どんなオブジェクトがどこにあるか知ることができる。それは新奇な機能というより、写真を見る際には本来とても重要なことだ。説明書にはないが、もっと細かいこと、たとえば前景に花があるとか、背景に映画のポスターがある、なども分かる。

しかもこのアプリはiPadをサポートするようになったので、アップルのタブレットがいろんなメディアや対話の主要なインタフェイスとして役に立つだろう。今回のアップデートでは、このアプリから好きなものを注文できるようになった。

Seeing AIは無料で、iOSデバイス用にここからダウンロードできる。

画像クレジット: Microsoft

[原文へ]
(翻訳:iwatani、a.k.a. hiwa

視覚障害者のテクノロジー利用を拡大する

テクノロジーは、世界2億8500万人の視覚あるいは視力障害者にとって生活の中心をなす ―― ただし、使い方を知っていれば。視覚・視力障害者の支援団体、LightHouse for the Blind and Visually Impairedのアクセステクノロジー担当ディレクター、Erin Lauridseに話を聞いた。

Lauridsenの役目は、視覚障害者が「生活に必要なテクノロジーの利用方法を知る」手助けをすることだと、本誌のBullishシリーズ最新回のインタビューで私に話した。支援はコンピューターリテラシーやスマートフォンの利用からスクリーンリーダー、拡大機能といった補助機能の使い方まで多岐にわたる。

彼女はGoogle、Uber、Lyft、FacebookなどのIT企業のユーザーテストに協力して、「すでに存在するものと今作られているものが、視覚に障害のある人たちでも等しく利用できること」を確認しているとLauridsenは言った。

しかし、米国で法律上失明している人たちの失業率は70%だ。この統計データは1970年代から更新されていないが、今も数値は高いとLauridsenは言う。IT業界にどの程度の失明者や視力障害者がいるのかわからないが(IT企業は通常このデータを報告しておらず、プライバシーの懸念もある)、おそらく極めて少ない。

視覚障害者が就職するうえでの障壁のひとつはリテラシーだとLauridsenは言う。点字など視覚障害者対応の資料が利用できなければ、リテラシーの格差は人生のごく最初の段階から生まれる。

「そうした教育を受け仕事の世界に入ると、ほとんどが認識の問題だ」とLauridsenは言う。「雇用担当者にとってあなたが初めて会う障害者であれば、面接の間中どうやってここまで来たのか、どうやって靴紐を結ぶのか気になってばかりで、おそらくあなたのスキルには集中していない。つまりは認識の問題がある」。

もう一つの問題は、デベロッパーツールのアクセシビリティ対応だとLauridsenは言う。彼女には素晴らしいプログラマーである盲目の友人が何人かいるが、デベロッパーツールがアクセシビリティ対応していないために就けない職があるという。

Lauridsenが最終的にIT企業に望むのは、アクセシビリティを「プロセスの最後にある小さなコンプライアンス用のチェック欄」以上に考えることだ。彼女の願いはアクセシビリティが「ものづくりの開発サイクルにとって重要で必要な部分になること。なぜなら障害のある人たちはハッカーでありイノベーターであり、それが私たちのふだんしていることだから。」

[原文へ]

(翻訳:Nob Takahashi / facebook