われわれはすでにロボットが蹴られたり邪魔されたりするのをみて見て気持ちをかき乱されてきた。たとえそのロボットがいかにロボット的な外観であってもやはりかわいそうだと思ってしまうのだから、ロボットの表情が人間そっくりでアイコンタクトを続ける能力があったらもっと厄介な事態になるだろう。ましてロボットをいじめるとそれに応じた表情をするのであればなおさらだ。そうは言ってもこれがわれわれが選んだ未来なのだから止むえない。
SEERは感情表現シミューレーション・ロボット(Simulative Emotional Expression Robot)の頭文字で、 今年初めにバンクーバーで開催されたSIGGRAPHで発表された。このヒューマノイド・タイプの小さな頭部の製作者は日本のアーティスト、藤堂高行(Takayuki Todo)氏で、 直近の人間とアイコンタクトをとり、その人物の表情を真似することができる。
それだけ聞くとさほど革命的には聞こえないかもしれないが、高いレベルで実行するための仕組みは非常に複雑だ。SEERにはまだ多少の不具合はあるものの、これに成功している。
現在SEERロボットには2つのモードがある。イミテーション・モードとアイコンタクト・モードだ。どちらも近くの(あるいは内蔵の)カメラの情報を利用し、人間をトラッキングし、表情をリアルタイムで認識する。
イミテーション・モードでは対象となる人間の頭部の位置、眼球とまぶたの動きを認識してSEER側で再現する。実装はまだ完全ではなく、ときおりフリーズしたりランダムに振動したりする。これは表情データからのノイズ除去がまだ完全でないためだという。しかし動作がうまく行ったときは人間に近い。もちろん本物の人間の表情はもっとバリエーションが豊富だが、SEERの比較的単純で小さい頭部には異常にリアルな眼球が装備されており、その動きはいわゆる「不気味の谷」に深く分け入り、谷を向こう側にほとんど抜け出すほどのインパクトがある。
アイコンタクト・モードではロボットは当初まず能動的に動く。そして付近にいる人間の目を認識するとアイコンタクトを継続する。これも不思議な感覚をもたらすが、ある種のロボットの場合のような不気味さは少ない。ロボットの顔の造形が貧弱だとできの悪いSFXを見せられているような気分になるが、SEERには突然深いエンパシーを抱かせるほどのリアルさがある。
こうした効果が生まれる原因としては、感情としてとしてはニュートラルで子供っぽい顔となるようデリケートに造形されていることが大きいだろう。また目がきわめてリアルに再現されている点も重要だ。もしAmazon Echoにこの目があったら、Echoが言ったことをすべて覚えていると容易に実感できるだろう。やがてEchoに悩みを打ち明けるようになるかもしれない。
今のところSEERは実験的なアート・プロジェクトだ。しかしこれを可能にしているテクノロジーは近い将来、各種のスマートアシスタントに組み込まれるに違いない。
その結果がどんな善悪をもたらすのかは今後われわれ自身が発見することになるのだろう。
〔日本版〕SEERロボットは東京大学生産技術研究所の山中俊治研究室で6月に開催された「Parametric Move 動きをうごかす展」でもデモされている。下のビデオは藤堂氏の以前のロボット作品、GAZEROID「ろぼりん」。
〔原文へ〕