Amazonの画面付きスマートスピーカーはキッチンにある物体をカメラで識別

Amazonは、画面付きスマートスピーカーのEcho Showに、視覚障害者向けの新機能を追加した。ユーザーが台所にある物体をAlexaのカメラに向けると、それがなにかを教えてくれる。画像認識と機械学習の技術を組み合わせてEcho Showの見たものを識別するのだ。

Echo ShowはAlexa搭載スマートスピーカーのひとつで、キッチンに置いて使うことを想定している。タイマーを設定したりやレシピビデオを見たりできるほか、料理をしながら音楽やテレビも楽しめる。

しかし、目の不自由なユーザーのために、Echo Showは新しい役割を果たすことになる。台所に置かれた品物の中でも、缶や箱に入った食品、スパイスなどのように触れただけでは区別が容易でないものの識別を手伝うことだ。

この機能を利用するには、「Alexa, what am I holding?」「Alexa, what’s in my hand?」(Alexa、私が持っているものはなに?)などと言うだけでいい。するとAlexaは、カメラの前に物体を置くように言葉と効果音で指示を与える。

Amazonによると、この機能は視覚障害をもつAmazon社員と共同開発した。その一人である主任アクセシビリティ・エンジニアのJosh Miele(ジョッシュ・ミーレ)氏は、開発過程で全盲および弱視の利用者からフィードバックを集めた。

「視覚障害者にとって、商品の識別には苦労することが多く、Alexaの助けが欲しいことの一つだと知った」とAmazonのAlexa for Everyoneチームの責任者であるSarah Caplener(サラ・カプレナー)氏は説明した。「食料品を買い物袋から取り出すときやキッチンカウンターの上に置かれたものが何かを知りたいとき、それを手伝ってユーザーにとって必要な情報を必要なときに提供できるようにしたい」とカプレナー氏は言う。

スマートホーム機器やAlexaのようなAIアシスタントは、サーモスタットや照明の調節、ドアのロック、ブランドの上げ下げなどさまざまな場面で障害をもつ人たちの生活の改善に役立ってきた。この「Show and Tell」機能によって、Amazonは全盲や弱視の人たちの市場への本格的参入を期待している。世界保健機関によると、現在世界で視覚に何らかの障害を持つ人の数は13億人に上ると推計されている。

ただし、Echoスピーカーは全世界で入手できるわけではない。 また、販売されている国であっても、地元の言語に対応しているとは限らない。さらに、今回発表された機能は開始時点では米国のみで利用できる。

アクセシビリティをスマートスピーカーのセールスポイントにしているのはAmazonだけではない。Googleは今年のGoogle I/Oカンファレンスで、一連のアクセシビリティ製品を発表した。リアルタイムで文字起こしを行うLive Caption、聴覚障害者の通話を手助けするLive Relay、しゃべらないひとがスマートアシスタントを使うのを助けるProject Diva、発話障害者の話し言葉の認識を手伝うProject Euphoniaなどだ。

Show and Tellは、米国内の第1、第2世代Echo Showデバイスで利用できる。

[原文へ]

(翻訳:Nob Takahashi / facebook