最近のゲームのグラフィックス精度には目を見張るが、クリエーターが表現に苦労することの一つが人間の滑らかな動きだ。本物のモーションキャプチャーデータを利用したニューラルネットワークに基づくアニメーションシステムを使えば、アバターの歩いたり走ったりジャンプする動きをもっと自然にできるかもしれない。
もちろん最近のゲームをプレイしたことのある人なら、すでに多くのゲームでスムーズな動きが実現しているのをご存知だろう ―― しかしそのためには、アニメーターたちがさまざまな動きをライブラリーから選びあらゆる場面にリンクさせる忍耐強い作業が必要だ。女性キャラクターが2階に登りながら弓を引き、さらにかがみこんだらどうなるのか?彼女が細い棒の上でバランスを取っている間に撃たれたらどうなるのか?可能性は無限にある。
エジンバラ大学とMethod Studiosの研究者が、さまざまな動きのモーションキャプチャーの部品を組み合わせる機械学習システムを作った。例えば「この方向へ行く」と入力すれば、地形を考慮して、例えば駆け足から小さな障害物を飛び越える場面にもっとも適したアニメーションを出力する。
駆け足からジャンプへと遷移するカスタムアニメーションを作る必要はない。アルゴリズムが判断してスムーズな動きを生成し、アニメーションのタイプが切り替わる際の不快な動きはない。多くのゲームエンジンが、足の位置やアニメーションのブレンドなど間に合わせの機能を提供しているが、これはもっと本格的なものを目指す新しい方法だ。
機械学習は以前からこの分野に導入されてきたが、ビデオでも言っているように、生成されるシステムはかなり原始的だった。動きが間違っていたりアニメーションが抜けることがあり、それはどれを使えばいいのかシステムにはわからないからだった。アニメーションの状態を決めつけすぎて動きがぎこちなくなることもある。
これを避けるために研究者らは、ニューラルネットワークにフェーズ機能を追加することで、例えばジャンプの途中で歩く、といった異なるタイプのアニメーションをあやまって混ぜることを防いだ。
「われわれの方法はデータ駆動なので、キャラクターは単にジャンプのアニメーションを再生するのではなく、障害物の高さに基づいて動きを連続的に調節している」と新しい方法を説明するビデオで研究者が語った。
これをそのままでゲームに使うことはもちろんできないが、アニメーションのブレンディングや作成のもっと高度な方法を作るための出発点になるだろう。これは、アニメーターの不満が減り、キャラクターの動きはもっと自然になるという意味かもしれない。あとは、エイリアンや蜘蛛やその他の生き物など、ふだんモーションキャプチャースタジオで見かけないものはどうするかだけが問題だ。
Daniel Holden、Taku Komura(以上エジンバラ大学)、Jun Saito(Method Studios) の3名が今年のSIGGRAPHで発表する。Holdenのウェブページに詳しい情報がある。
[原文へ]
(翻訳:Nob Takahashi / facebook)