米国時間12月11日の、TechCrunch Disrupt Startup Battlefieldで発表したチームの1つであるMindAffectは、私たちの周囲のデバイスを脳波で制御できるようになればどんなことが可能になるのかを探求したいと考えている。そして他の人にもその可能性を探ってほしいと考えている。
MindAffectは、今回のイベントに出場している企業の中から、ワイルドカードエントリーとしてStartup Battlefieldに選ばれた。このチームの初期の1つの研究目的は、ALSや脳卒中などの神経障害によって、目以外はどこも動かせなくなった人が、文字をタイプすることでコミュニケーションできるよう支援することだった。
その研究を通じて、チームは既存の脳波図(EEG)ハードウェアと、独自の点滅パターンを使用するブレインコンピューターインターフェイスを設計した。ユーザーの目の動きと脳で生成された信号のみを使用してデバイスをコントロールできるようにするもの。このインターフェイスを他の人も利用できるよう、来月のCESで開発キットも発売する予定だ。用途はチームがこれまでに探求してきた医療分野に限らず、ゲームやエンタメ分野でも構わない。
MindAffectを利用して実際にAppleTVをコントロールする様子。
すでに、目の動きを追跡してコンピューターを制御するソリューションはある。しかし、このアプローチはこれまでの概念をひっくり返すものだ。
目の動きを追跡する方法のほとんどは、カメラと、目によって反射する赤外線を使用して、ユーザーの見ている方向を検出する。それに対してMindAffectのアプローチは、脳からの信号を分析して、ユーザーが見ているものを特定する。
これを可能にするため、MindAffectは、インターフェイス上の各ボタン、たとえば画面に表示したキーボードのすべてのキーを、それぞれ異なる周波数で点滅させる。ユーザーが1つのボタンを注視すると、視覚を司る大脳皮質も、そのボタンの点滅の周波数に応じた固有の信号を発生する、と同社は説明している。非侵襲型のEEGヘッドセットが、そうした信号を検出して増幅し、MindAffectのアルゴリズムによって、元の動作や入力から得られるはずの信号を逆算する。MindAffectによれば、現在のアルゴリズムでも、ほとんど、あるいはまったくトレーニングしなくても、正確に機能させることができるという。
このような方式の違いを考えたとき、カメラを使った視線の追跡と比較して、MindAffect方式の利点はどこにあるのだろうか。今回の発表の直前に、楽屋裏でMindAffectのCEO、Ivo de la Rive Box氏と、それについてちょっと話してみたが、彼らもまだそれを把握しようとしているところだという。彼の話では、少なくとも、照明の条件が通常の視線追跡を妨害するような環境では、MindAffect方式が有利だとのこと。
MindAffectは、この技術が特に有利となるようなユースケースを探している。開発キットを公開することは、それに役立つだろう。
2017年9月に設立された同社は、現在までに100万ドル(約1億860万円)を調達している。
[原文へ]
(翻訳:Fumihiko Shibata)