ロボットの皮膚に触覚能力があり柔らかいフルーツでもつぶさない…CMUのFingervisionシステム

Fingervisionは、見ておもしろいものではない。最初ちょっと見るとそれは、誰かが食べ物のラップとわずかなプラスチックから取り出したアクションカメラGoProのケースをマクガイバーして、その作品を25000ドルもする産業用ロボットに取り付けたものに見える。しかも実は、それは真実からそれほど遠くない。そのシステムは安っぽいデザインで、だからかえって、それにできることがすごいと思える。ありあわせの一般市販のパーツを組み合わせてカーネギーメロン大学(CMU)で作られたその装置は、ロボットに触覚らしきものを与えるのだ。

ロボット工学で博士課程を終了したAkihiko Yamaguchiが投稿した一連のビデオには、産業ロボットBaxterが、二本の腕の先端にこのFingervisionシステムを装着して、さまざまな仕事を上手にこなす様子が映っている。その産業用ロボットは、(ちょっとぎごちないが)バナナの皮を剥き、ピンク色の羽毛で触られるたびに反応する

CMUの研究室でYamaguchiは、Baxterの手が慎重に花に接近して、それをCoronaビールの瓶から持ち上げる様子や、折り紙で作った脆(もろ)い箱を持ち上げるところを見せてくれた。いずれもこのシステムの、ソフトタッチ能力のデモだ。(ふむ、彼は大学の研究室でビールを飲んでいるのか)。

このシステムは昨年発行されたペーパーに概要が書かれている。3Dプリントで作られたロボットの握り部分に透明なシリコンのラップをかぶせて、黒い斑点で装飾している。その中に50ドルで買った小さなカメラがある。Yamaguchiによると、スマートフォンのカメラが一般化したおかげで、ここ数年、小型カメラは超安いパーツになったのだそうだ。そして黒い斑点は実は装飾ではなくて、そのカメラを使った視覚系が、点の動きを見て、ロボットの安物の透明な皮膚が物に触ったときの“歪(ゆが)み”を検出する。

ロボット工学の相当な難問なのに、その解は超簡単だ。Fingervisionを使うと、重さ300ポンド(140キログラム)のロボットが、バナナや折り紙のような脆弱な物を扱えるようになり、手の中で何かが滑ったらそのことが分かり、物をしっかり握り直すこともできる。今後はこのような皮膚的能力を、ロボットの手以外のものに応用したい、とチームは考えている。

Yamaguchiは説明する: “本当は全身をこのようなセンサーで覆いたいんだけど、もうちょっとパーツが安くならないとね”。彼によると、全身を触覚能力のある皮膚でおおわれたロボットは、もっと安全に人間との共同作業ができるだろう、と。

  1. o92a0971_1.jpg

  2. o92a0982.jpg

  3. o92a0987.jpg

  4. o92a0989.jpg

  5. o92a0998_1.jpg

  6. o92a10041.jpg

  7. o92a1015.jpg

CMUはいずれこのFingervisionをオープンソースにするつもりだ。だから、あなたが自宅の地下室で自作するロボットも、皮膚感覚を持てるようになるね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

投稿者:

TechCrunch Japan

TechCrunchは2005年にシリコンバレーでスタートし、スタートアップ企業の紹介やインターネットの新しいプロダクトのレビュー、そして業界の重要なニュースを扱うテクノロジーメディアとして成長してきました。現在、米国を始め、欧州、アジア地域のテクノロジー業界の話題をカバーしています。そして、米国では2010年9月に世界的なオンラインメディア企業のAOLの傘下となりその運営が続けられています。 日本では2006年6月から翻訳版となるTechCrunch Japanが産声を上げてスタートしています。その後、日本でのオリジナル記事の投稿やイベントなどを開催しています。なお、TechCrunch Japanも2011年4月1日より米国と同様に米AOLの日本法人AOLオンライン・ジャパンにより運営されています。