人によるコントロールと機械学習を融合したスマート義手

義肢は年々良くなっているが、それらの強度と精度が使いやすさや能力(実際にできること)に貢献していないこともあり、とくに手足を切断手術した人たちがごく初歩的な動作しかできない場合が多い。

スイスの研究者たちが調べた有望と思われるやり方では、手動では制御できない部分をAIが引き受ける。

問題の具体的な例として、腕を切断した人が膝の上でスマート義手を制御する場合を考えてみよう。残存する筋肉に取り付けられたセンサーなどからの信号で、義手はかなり容易に腕を上げ、ある位置へ導き、テーブルの上の物をつかむ。

でも、その次はどうなる?指をコントロールするたくさんの筋肉と腱はない。そして義手の人工的な指を、ユーザーが望む曲げ方や伸ばし方ができるように解析する能力もない。ユーザーにできることが、単に総称的な「握る」や「放す」の指示だけなら、実際に手でできていたことを実行するのほぼ不可能だ。

そこが、スイス連邦工科大学ローザンヌ校(École polytechnique fédérale de Lausanne、EPFL)の研究者の出番だった。義手に「握れ」と「放せ」と命令したあと、それから先の動作を特に指示しなくても最良の握り方を見つけられるなら問題はない。EPFLのロボット工学の研究者たちは長年、「握り方の自動的な見つけ方」を研究してきた。だから今の義手の問題を解決するには、彼らがうってつけなのだ。

epfl roboarm

義手のユーザーは、本物の手がない状態でさまざまな動きや握りをできるだけうまく試みながら、そのときの筋肉信号を機械学習のモデルに解析・訓練させる。その基礎的な情報で、ロボットの手は自分が今どんなタイプの把握を試みているのかを知り、目的物との接触領域を監視して最大化することによって、手はリアルタイムで最良の握りをその場で作り出す。落下防止機構も備えており、滑落が始まったら0.5秒以内に握りを調節できる。

その結果、目的物はユーザーが基本的には自分の意思でそれを握ってる間、しっかりとやさしくその状態を維持する。目的物の相手をすることが終わってコーヒーを飲んだり、ひと切れのフルーツをボウルから皿に移したりするときは、その目的物を「離し」、システムはこの変化を筋肉の信号で感知して実際に離す行為を実行する。

関連記事:SmartArm’s AI-powered prosthesis takes the prize at Microsoft’s Imagine Cup【AIで動く義肢がMicrosoftのImagine Cupを勝ち取る、未訳)

MicrosoftImagine Cupを取った学生たちのやり方を思い出すが、それは手のひらにカメラを付けた義手の腕が目的物のフィードバックを与え、正しい握り方を教えていた。

一方こちらはまだまだ実験段階で、サードパーティ製のロボットアームと、特別に最適化していないソフトウェアを使っている。でもこの「人とAIとの共有コントロール」には将来性が感じられ、次世代のスマート義手の基盤になるかもしれない。チームの研究論文はNature Machine Intelligence誌に掲載されている。

画像クレジット:EPFL

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

投稿者:

TechCrunch Japan

TechCrunchは2005年にシリコンバレーでスタートし、スタートアップ企業の紹介やインターネットの新しいプロダクトのレビュー、そして業界の重要なニュースを扱うテクノロジーメディアとして成長してきました。現在、米国を始め、欧州、アジア地域のテクノロジー業界の話題をカバーしています。そして、米国では2010年9月に世界的なオンラインメディア企業のAOLの傘下となりその運営が続けられています。 日本では2006年6月から翻訳版となるTechCrunch Japanが産声を上げてスタートしています。その後、日本でのオリジナル記事の投稿やイベントなどを開催しています。なお、TechCrunch Japanも2011年4月1日より米国と同様に米AOLの日本法人AOLオンライン・ジャパンにより運営されています。