音声コンピューティングには、大きな問題がつきまとっている。まわりにほかの人たちがいるところで音声アシスタントに話しかけたら、たいがいおかしな結果になるだろう。音声コンピューティングが家の中で普及し始めたのには、理由がある。家の中なら、マシンに話しかけるとき、あまり自分を意識せずにすむからだ。
言葉を使わない、マシンに話しかけないデバイスが登場してきたのも、必然的なことだ。あるMITのチームもそんなデバイスに挑戦しているが、しかしそのハードウェアはまだ、完全に自分を意識しないで使えるところまでは、行ってないようだ。
そのAlterEgoと名付けられたデバイスは、頭に、というより顎(あご)に装着する。そしてその電極が、神経筋の信号を読む。それにより、“頭の中の言葉”を読める、という。
“知性拡張(intelligence-augmentation)デバイス、略してIAデバイスを作りたい”、と院生のArnav Kapurがニューズリリースで言っている。“人間の外部ではなく、内部にあるコンピューティングプラットホームを、作れないものだろうか。人間とマシンが融合して、まるで自分の意識の延長のように感じられるコンピューターを作れるはずだ”。
これまで10名の被験者がそれぞれ、そのマシンが自分の神経を読めるようになるまで訓練した。一定の調整を経てそれは、92%の確度でコマンドを読めるようになった。92%なら、ぼくが今使ってる音声アシスタントといい勝負だ。
機械が自分の頭の中の言葉を読む、という一種の気持ち悪さを克服できたら、このようなデバイスは消費者にさまざまな利便性をもたらすだろう。中世の歯科医の道具のような外観も、なんとかしてほしいね。チームは今、骨伝導によるオーディオ再生に取り組んでおり、それが完成したらシステムを完全に無音にできる。そして、もっと特殊な目的にも使えるようになるだろう。