文字を音声に変換する視覚障がい者向けスマートグラスの量産に向けたクラウドファンディングが開始

eng-logo-2015視界に入った文字を読み上げるスマートグラス「OTON GLASS」のクラウドファンディングが始まりました。

OTON GLASSは、文字認識・音声再生機能を備えたスマートグラス。内蔵カメラ、画像認識用クラウド、スピーカーからなり、OTON GLASSをかけた状態で読みたい文字の方を向いて、テンプル部分のボタンを押して使います。

内蔵カメラが撮影した写真をクラウドにアップロードし、クラウド上の画像認識エンジンが抽出した画面内の文字列を音声データに変換することで、スピーカーから音声が流れる仕組み。使用時にはネットワーク環境が必要です。

同等の機能はスマートフォンなどでも実現可能ですが、本機が眼鏡型であることのメリットは「読み上げる対象の方を向く」という自然な所作によって、「文字を読む」ことができる点。文字認識の際にスマートフォン内蔵カメラを用いると、アプリの立ち上げや撮影のための動作を必要とするため、煩雑かつ不自然な動きになってしまうほか、両手が塞がることから、最終的にスマートグラスという形に落ち着いたといいます。

現在、視覚障がい、読字障がい、低視力者などに向けて、一般販売の準備を進めているとのこと。製品自体は実用化一歩手前の段階であり、今回のプロジェクトでは、実際にOTON GLASSを必要とする人々に製品を届けるための活動資金を募っています。障がいを持つ人々にOTON GLASSを実際に使ってもらうことで有用性を立証し、福祉機器として低価格で普及させる第一歩とする見通し。

支援額としては5000~1000万円までを用意。20万円につき1人に届く計算です。バッカー(支援者)へのリターンは、最少額の5000円でサンクスメールとオリジナルステッカー、1万円からは活動報告の冊子、2万円からはコミュニティイベントへの招待、10万円からは当事者のOTON GLASS体験会見学への招待、40万円からは本機モックの進呈、1000万円で本機特別版ワーキングモデルの贈呈を行います。2019年2月頃より順次リターンの送付を行なう予定。

OTON GLASSは開発の過程で、視覚障がい者の支援施設や眼科医などと共同研究を行っており、一部施設で導入が始まっています。また今回のプロジェクトは、目標金額を達成しない場合でも集まった支援金を受け取れる「All-in方式」を採用しており、集まった金額分だけ確実に当事者の元へ製品を届けられる見込みです。

スマートグラスといえば、視界の情報を拡張するAR用途で使われるイメージですが、OTON GLASSは頭の動きに追従することで「視界上の文字情報」を「音声」に変換する福祉機器として開発されています。用途を「読字」に限定し、視覚の代わりに聴覚を用いることから、いわゆる人工視覚のように電極などを用いることなく、きわめて低い侵襲性で、当事者に対して一定の利便性をもたらすことが可能です。

Engadget 日本版からの転載。

Intel、Google GlassパートナーのLuxotticaと提携してスマートグラス分野への参入を画策中

Intelは、本気で(顔面)ウェアラブル市場への参入を目指しているようだ。次バージョンのGoogle Glassに搭載されるチップを提供予定であるとの話も入ってきた。それに加えて、Google GlassのパートナーでもあるLuxotticaと提携するとのアナウンスも発表されたのだ。ちなみにLuxotticaはOakley、Persol、Armani、あるいはCoachなどのブランドの眼鏡を手がけているメーカーだ。今回の提携によって今後、複数年にわたってリサーチや開発などを共同で手がけ、今後のスマートグラスの普及に道筋をつけたいとしている。

どのような役割分担で、どのような行動をしていくのかということについての詳細は明らかになっていない。しかし、2015年にはLuxotticaおよびIntelの共同作業に基づくプロダクトをリリースしようという考えであるとのことだ。Intelの狙いとしては、ウェアラブル分野でぜひとも主導権を握りたいということがある。大いに普及した「モバイル」プロダクトでは主役の座をQualcommなどに奪われたこともあり、その轍を踏むまいとして具体的な行動に移ってきているのだ。

スマートグラスが今後どのようなポジションを占めるようになるのかは、未だいっさい不明の段階ではある。しかしIntelとしては、ともかくモバイル分野で陥ってしまった大失敗は避けたいという考えがあるわけだ。モバイルの重要性を見損じていたという反省があるのは間違いない。Luxotticaの関わるブランドの影響力を考えても、Intelの積極的な動きが市場に何らかの影響を及ぼすことは間違いない。

原文へ

(翻訳:Maeda, H


視力に応じて自動的に表示を調節するMITのテクノロジーで老眼鏡がいらなくなる

MIT〔マサチューセッツ工科大学〕の研究者グループはカリフォルニア大学バークレー校と協力して、ユーザーの視力に合わせて自動的に表示を調整するテクノロジーを開発中だ。これが実用化されれば、たとえば、老眼鏡をかけなくてもスマートフォンやカーナビの表示が読めるようになる。

この視度対応ディスプレイには裸眼3Dテクノロジーが応用されている。ただし3D表示とは異なり、左右の目に対して異なる像を表示するのではなく、それぞれの瞳孔の異なる部分に向けて少しずつ異なる像を表示する。これによって水晶体の焦点距離が補正され、網膜に正しい像が結ばれるようになる。その代償として解像度が若干低下するがこれはさほど大きなものではない。しかし、瞳孔の特定部分に光を送るために微細なピンホールを利用しているため表示の明るさは大幅に低下する。そういう難点はあるものの、十分に商用化可能なテクノロジーだ。

このディスプレイの用途についてMITのチームは、主として遠視として現れる加齢に伴う視力低下の補正に特に有効だろうとしている。2焦点、あるいは多焦点レンズのメガネをかけないとカーナビが読めない老眼の人々に、そういうわずらしいメガネがいらなくなるわけだ。

このテクノロジーがKindleのようなタブレットに組み込まれたら素晴らしいだろう。私自身もいずれ2焦点メガネが必要になるはずなので、それまでにこのディスプレイが実用化されていることを切に願うものだ。

[原文へ]

(翻訳:滑川海彦 Facebook Google+