昨年TechCrucnhがボストンで開催したロボティクスに関するTC SessionsのステージでデビューしたMIT(マサチューセッツ工科大学)のCheetah 3ロボットがさらに進化して戻ってきた。Sangbae Kim准教授はCheetah 3の新機能を10月にマドリッドで開催されるロボッティクスのカンファレンス、iROS 2018で公式に発表する予定だが、同准教授のラボで公開しているビデオを紹介しよう。
なかでも強い印象を受けるのは「視覚センサーを使わない階段上り」で1:48から見ることができる。優雅な動作というわけにはいかないが、われわれ普通の人間が目をつぶって(あるいは暗闇で)階段を上るのに比べてずっと上手いと思う。しかも階段には小さく切った材木の切れ端が散乱していてさらにハードルをアップしている。これはロボットが捜索・救難に用いられた場合に現場で遭遇する状況をシミュレーションしているのだという。
Cheetahロボットはカメラのような視覚センサーを使わず、blind locomotionと呼ばれる平衡感覚と触覚だけを頼りにした動作で階段を上っている。なぜこうした高度な能力があるロボットが視覚センサーを利用しないのだろうか?発表で次のように説明している。
ロボットは視覚的情報に頼りすぎることなく、さまざまな予期せぬ状況に対処することができなければならない。視覚情報には多量のノイズが含まれ、不正確だったりそもそも状況によっては入手不可能だったりする。もし視覚情報に頼りすぎたり、すべての動作を正確なものにしようとすると結局ロボットは遅くなる。そこでわれわれは触覚的情報を多用する試みを行った。これによりロボットは高速で移動しているときに予期せぬ障害に遭遇しても対処することが可能となる。
Cheetahロボットには、触知とモデル予測コントロールという2つの重要なアルゴリズムが搭載されている。これらのアルゴリズムがロボットがスリップするなどしてバランスを崩しても即座に態勢を立て直すことを可能にしている。ロボットは足が地面に着いているべきか空中にあるべきかを瞬時に判断することができ、危なっかしいながら粘り強く階段を上っていく。
こうした新しい機能の開発も、障害物を飛び越えたり、時速22キロで走ったりするような既存の機能と並んで、Cheetahを災害時の捜索・救難現場で活用できるようしようとする大きなビジョンに基づくものだ。このロボットは人間が近づくには危険するぎるような区域で活動できることを目標としてデザインされている。
〔日本版〕 Cheetah 2ロボットがAlexaを通じて質問に答えたり能力を披露したりしている。
[原文へ]
(翻訳:滑川海彦@Facebook Google+)