見つめるだけでコンピュータを操作できたら便利だろう。簡単にいえばこれがEyefluenceのビジョンだ。このシリコンバレーのスタートアップはハンズフリーのコンピュータ・ナビゲーションを開発中だ。
Eyefluenceのチームがテストしているプロトタイプは、一種のフェイス・コンピュータで、拡張現実メガネにカメラが装備されている。このカメラからの情報でユーザーが画面のどこを見ているかを判断する。ユーザーはアイコンを見るだけでクリックすることが可能だ。
これまで固く秘密を守っていたチームはTechCrunchにテクノロジーの一端を公開し、デモを見せてくれた。上のビデオにもあるように、この製品は一般ユーザーのショッピングやメッセージ・アプリでの会話(「アイ・メッセージ」と呼びたいのだそうだ)にも利用できる。
このテクノロジーは「思考同様に速く動く」とファウンダー、CEOのJim Marggraffは言う。他の視線追跡テクノロジーと異なり、Eyefluenceは「作動のためにいちいちウィンクする必要も、結果を待つ必要もない」ということだ。
Eyefluneceはカギとなるのはバイオメカニクスのノウハウだと強調する。Eyefluenceのデバイスは「視覚と脳を直結させた最初のユーザー・インターフェイス」を実現しているとMarggraffは述べた。
Eyefluenceのビジネス・プランは、有力企業、ブランドの新製品にこのテクノロジーを組み込ませることだが、それがいつ、どのように実現するかという詳細を明らかにすることは避けた。Marggrafは「われわれヘッドマウントディスプレイの有力メーカーと協力して作業している」とだけ述べるにとどまった。
だが、このテクノロジーを必要とするユーザーの数は多く、それに適した製品も多数が登場するだろうという。Marggraffは「デスク以外で活動する職業人は4000万人おり、そのユースケースは建設現場から病院の手術室まで無数に考えられる」としている。
[原文へ]
(翻訳:滑川海彦@Facebook Google+)