極小画面のデバイスでも人間の手の自由な動きで細かく制御できる新しいインタフェイス技術、Google ATAPのSoliプロジェクト

google-io-2015-atap0025

GoogleのATAPが今日のI/Oカンファレンスで発表したSoliプロジェクトは、今日(こんにち)ますます小型化していくデバイスや画面を、手や指でもっと容易に操作するための仕組みだ。そのために何かのツールを使うのではなく、“手の動きで表現されるボキャブラリ”を使ってデバイスをコントロールする。目の前にそのデバイスが、なくてもよい。

ユーザは自分の手をごく自然に動かすだけだが、システムは動きの微妙な違いを精密に検出する。センサと手のあいだに物が介在していてもよい(たとえばデスクの下面にセンサがあるなど)。その秘密はレーダーを使うからで、画面の大小に関わらず正確な操作ができる。物理的肉体的にタッチするときに生ずる‘点のサイズ’という問題がないからだ。

人間の手から自然に生ずる触覚的なフィードバックも利用される。たとえば、指と指が触れ合うときの皮膚の摩擦だ。つまりSoliは、ユーザの手そのものを自分のユーザインタフェイスとして参照する。そのためにはもちろんセンサが必要だが、ハードウェアに関してそれ以外の要件はない。

  1. google-io-2015-atap0037.jpg

  2. google-io-2015-atap0036.jpg

  3. google-io-2015-atap0038.jpg

  4. google-io-2015-atap0039.jpg

  5. google-io-2015-atap0020.jpg

  6. google-io-2015-atap0022.jpg

  7. google-io-2015-atap0021.jpg

  8. google-io-2015-atap0024.jpg

  9. google-io-2015-atap0023.jpg

  10. google-io-2015-atap0025.jpg

  11. google-io-2015-atap0026.jpg

  12. google-io-2015-atap0027.jpg

  13. google-io-2015-atap0028.jpg

  14. google-io-2015-atap0029.jpg

  15. google-io-2015-atap0030.jpg

  16. google-io-2015-atap0031.jpg

  17. google-io-2015-atap0033.jpg

  18. google-io-2015-atap0032.jpg

  19. google-io-2015-atap0035.jpg

  20. google-io-2015-atap0034.jpg

  21. google-io-2015-atap0017.jpg

Soliはスマートウォッチのような小さなデバイスや、何かの‘面’の上、あるいは、デバイス本体と隔てられている‘距離’がある環境で使われることを想定している。そういう環境にはセンサとしてレーダーがベストだが、問題はそのサイズだ。そこでATAPはレーダーの小型化に努力した。何度も試作を重ねて、今では家庭用ゲーム機の1/4よりも小さくなっている。

ATAPは、大量生産も実現した。開発に要した時間は10か月だ。検出の精度は、個々の指の位置まで分かる。そこで、アプリケーション側では、わずかな動きにも反応できるから、高精細な3D画像のドローイングなども可能だ。

デベロッパは、その信号をAPIから受け取り、どんな用途にも利用可能だ。

Soliは、今年の終わりごろ、それに対応する実用製品、たとえばスマートウォッチなどを出す予定だ。Android Wearのハードウェアは、相当能力アップすると思われるから、クリスマス商戦に間に合うといいね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa