SEERは人間のようにアイコンタクトできる――日本のアーティスト、ロボットで目の表情を精緻に再現

われわれはすでにロボットが蹴られたり邪魔されたりするのをみて見て気持ちをかき乱されてきた。たとえそのロボットがいかにロボット的な外観であってもやはりかわいそうだと思ってしまうのだから、ロボットの表情が人間そっくりでアイコンタクトを続ける能力があったらもっと厄介な事態になるだろう。ましてロボットをいじめるとそれに応じた表情をするのであればなおさらだ。そうは言ってもこれがわれわれが選んだ未来なのだから止むえない。

SEERは感情表現シミューレーション・ロボット(Simulative Emotional Expression Robot)の頭文字で、 今年初めにバンクーバーで開催されたSIGGRAPHで発表された。このヒューマノイド・タイプの小さな頭部の製作者は日本のアーティスト、藤堂高行(Takayuki Todo)氏で、 直近の人間とアイコンタクトをとり、その人物の表情を真似することができる。

それだけ聞くとさほど革命的には聞こえないかもしれないが、高いレベルで実行するための仕組みは非常に複雑だ。SEERにはまだ多少の不具合はあるものの、これに成功している。

現在SEERロボットには2つのモードがある。イミテーション・モードとアイコンタクト・モードだ。どちらも近くの(あるいは内蔵の)カメラの情報を利用し、人間をトラッキングし、表情をリアルタイムで認識する。

イミテーション・モードでは対象となる人間の頭部の位置、眼球とまぶたの動きを認識してSEER側で再現する。実装はまだ完全ではなく、ときおりフリーズしたりランダムに振動したりする。これは表情データからのノイズ除去がまだ完全でないためだという。しかし動作がうまく行ったときは人間に近い。もちろん本物の人間の表情はもっとバリエーションが豊富だが、SEERの比較的単純で小さい頭部には異常にリアルな眼球が装備されており、その動きはいわゆる「不気味の谷」に深く分け入り、谷を向こう側にほとんど抜け出すほどのインパクトがある。

アイコンタクト・モードではロボットは当初まず能動的に動く。そして付近にいる人間の目を認識するとアイコンタクトを継続する。これも不思議な感覚をもたらすが、ある種のロボットの場合のような不気味さは少ない。ロボットの顔の造形が貧弱だとできの悪いSFXを見せられているような気分になるが、SEERには突然深いエンパシーを抱かせるほどのリアルさがある。

こうした効果が生まれる原因としては、感情としてとしてはニュートラルで子供っぽい顔となるようデリケートに造形されていることが大きいだろう。また目がきわめてリアルに再現されている点も重要だ。もしAmazon Echoにこの目があったら、Echoが言ったことをすべて覚えていると容易に実感できるだろう。やがてEchoに悩みを打ち明けるようになるかもしれない。

今のところSEERは実験的なアート・プロジェクトだ。しかしこれを可能にしているテクノロジーは近い将来、各種のスマートアシスタントに組み込まれるに違いない。
その結果がどんな善悪をもたらすのかは今後われわれ自身が発見することになるのだろう。

〔日本版〕SEERロボットは東京大学生産技術研究所の山中俊治研究室で6月に開催された「Parametric Move 動きをうごかす展」でもデモされている。下のビデオは藤堂氏の以前のロボット作品、GAZEROID「ろぼりん」。



原文へ


滑川海彦@Facebook Google+

投稿者:

TechCrunch Japan

TechCrunchは2005年にシリコンバレーでスタートし、スタートアップ企業の紹介やインターネットの新しいプロダクトのレビュー、そして業界の重要なニュースを扱うテクノロジーメディアとして成長してきました。現在、米国を始め、欧州、アジア地域のテクノロジー業界の話題をカバーしています。そして、米国では2010年9月に世界的なオンラインメディア企業のAOLの傘下となりその運営が続けられています。 日本では2006年6月から翻訳版となるTechCrunch Japanが産声を上げてスタートしています。その後、日本でのオリジナル記事の投稿やイベントなどを開催しています。なお、TechCrunch Japanも2011年4月1日より米国と同様に米AOLの日本法人AOLオンライン・ジャパンにより運営されています。