音を使ってロボットの知覚を改善するカーネギーメロン大学の研究

ロボットは主に、視覚と触覚という2つの基本的な感覚に依存している。しかしその触覚さえも、先行する視覚のスピードに追いつくにはまだまだ長い時間がかかるだろう。現在、カーネギーメロン大学(CMU)の研究者たちが、機械が周囲の世界に対する知覚を高める手助けになる潜在的な追加感覚として(CMUリリース)、聴覚に注目している。

CMUの新しい実験は、Rethink Robotics(リシンク・ロボティクス)のSawyer(ソーヤー)を使い、金属製のトレイ内で物体を動かして、回転したり、滑ったり、側面にぶつかったりしたときに発生する音を収集している。工具、木製ブロック、テニスボール、リンゴなど全部で60種類の物体があり、1万5000回の「相互作用」が記録され、カタログ化されている。

チームによって「Tilt-Bot」(傾けるロボット)と名付けられたこのロボットは、金属製のドライバーとレンチといった比較的違いの小さな物体を決定する場合でも、76%の正確さで物体を識別することができた。音のデータを使うことで、このロボットは、物体の材質をしばしば正しく決定することができた。

CMUのOliver Kroemer(オリバークローマー)助教授は、この調査に関連するリリースの中で、「本当にエキサイティングだったのは、ロボットが失敗したときだったと思います。失敗するだろうなと思っていたものに対して本当に失敗をしていました」と述べている。「しかし、もしそれがブロックとカップのように別の物体である場合には、それを区別することはできました」。

これはまだ研究初期段階のものであり、最初の結果が公開されたばかりだが、研究は、ロボットの感知道具に加わる新しいツールとして、音検出を利用する可能性を探っている。さまざまな可能性の中には、「杖」も含まれている。機械は材質をより正確に判断するために物体を叩くことができるのだ。

カテゴリー:ロボテックス

タグ:カーネギーメロン大学

原文へ
(翻訳:sako)