MITのCSAIL(コンピュータ科学・人工知能研究所)の研究者は、人間にとっては当たり前だと思われていること、視覚と触覚など、複数の感覚をリンクさせる能力をロボットに持たせる新たなシステムを開発した。
CSAILが作成した新しいシステムには、触覚を利用して見ることを学んだり、その逆に、視覚を利用して触れることを学んだりする予測AIが含まれている。それはかえって混乱を招くように思われるかもしれないが、実は人間が毎日のようにやっていることを真似したに過ぎない。たとえば、物の表面の状態や材質を見て判断することで、もし触ったらどのような感触が得られるかを予測することができる。柔らかいのか、ザラザラしているのか、あるいはぐにゃぐにゃしているのか、といったことだ。
またこのシステムは、触覚、つまり接触による入力を取り込んで、それがどのように見えるかを予測することもできる。ちょうど外からは中が見えない穴の空いた箱に手を突っ込んで、手に触れた物体が何なのかを当てる遊びのようなものだ。
このような例を挙げても、こうしたシステムが実際にどのように役立つのかを明確にすることはできないかもしれない。しかし、CSAILが提示している例を見れば、それも明らかになるはずだ。研究チームは、ロボットアームがついたシステムを使って、オブジェクトそのものは見せずに、それがどこにあるのかを予測させ、感触によってそれが何であるかを認識させた。こうした能力によって、スイッチ、レバー、あるいは取り上げようとしている部品に触ることで、それが正しいものか、そうでないかを判断させることができる。これは、ロボットを補助的に使って作業する人間のオペレーターにとって有用であることは想像できるだろう。
このタイプのAIを利用すれば、たとえば薄暗い環境でも、高感度のセンサーを必要とせずに、効率的かつ効果的にロボットを動かすことができるはずだ。そして、また別の感覚のシミュレーション技術と組み合わせることで、一般的なシステムのコンポーネントとして利用することが可能となるだろう。
画像クレジット:Willyam Bradberry/Shutterstock
[原文へ]
(翻訳:Fumihiko Shibata)