GoogleのATAPが今日のI/Oカンファレンスで発表したSoliプロジェクトは、今日(こんにち)ますます小型化していくデバイスや画面を、手や指でもっと容易に操作するための仕組みだ。そのために何かのツールを使うのではなく、“手の動きで表現されるボキャブラリ”を使ってデバイスをコントロールする。目の前にそのデバイスが、なくてもよい。
ユーザは自分の手をごく自然に動かすだけだが、システムは動きの微妙な違いを精密に検出する。センサと手のあいだに物が介在していてもよい(たとえばデスクの下面にセンサがあるなど)。その秘密はレーダーを使うからで、画面の大小に関わらず正確な操作ができる。物理的肉体的にタッチするときに生ずる‘点のサイズ’という問題がないからだ。
人間の手から自然に生ずる触覚的なフィードバックも利用される。たとえば、指と指が触れ合うときの皮膚の摩擦だ。つまりSoliは、ユーザの手そのものを自分のユーザインタフェイスとして参照する。そのためにはもちろんセンサが必要だが、ハードウェアに関してそれ以外の要件はない。
Soliはスマートウォッチのような小さなデバイスや、何かの‘面’の上、あるいは、デバイス本体と隔てられている‘距離’がある環境で使われることを想定している。そういう環境にはセンサとしてレーダーがベストだが、問題はそのサイズだ。そこでATAPはレーダーの小型化に努力した。何度も試作を重ねて、今では家庭用ゲーム機の1/4よりも小さくなっている。
ATAPは、大量生産も実現した。開発に要した時間は10か月だ。検出の精度は、個々の指の位置まで分かる。そこで、アプリケーション側では、わずかな動きにも反応できるから、高精細な3D画像のドローイングなども可能だ。
デベロッパは、その信号をAPIから受け取り、どんな用途にも利用可能だ。
Soliは、今年の終わりごろ、それに対応する実用製品、たとえばスマートウォッチなどを出す予定だ。Android Wearのハードウェアは、相当能力アップすると思われるから、クリスマス商戦に間に合うといいね。