布や衣服の超リアルな表現技術が完成(今のゲーム専用機のメモリ容量では無理)

布を表現しシミュレートするのは難しいけど、でもゲームや科学的な分析やCGIではそれが重要だ。そこで、カリフォルニア大学バークレイ校とカーネギーメロン大学の連中が6か月かけて、アニメのキャラクターに着せる布製のローブの、ありとあらゆる表現方法を研究しつくし、今われわれが見るものとしては最良の、布のシミュレーションを作り出した。彼らの研究報告は、今日(米国時間7/23)発表されるSIGGRAPHの論文に載っている。

“データ駆動型テクニックを批判する人たちは、あらゆるものをコンピューティングで求めることはできない、と言う”、カーネギーメロンのコンピュータ科学/ロボット工学の准教授Adrien Treuilleはそう語る。“10年前なら彼らは正しかったかもしれないが、今はそのころと全然違う”。

上のビデオで見られる布は頂点が29000あり、それらが60fpsで描画される。非常になめらかで、本物の布のようだが、それは一種のグラフデータ構造を使って毎フレームごとに、動きに伴って変化するすべての頂点のありえる位置を、計算しているからだ。そこまですることによって、たとえば人間が着ている服のリアルなシミュレーションができ、ゲームが今よりもクールになるだけでなく、天候などさまざまな条件下での素材の質感や動きを知ることもできる。つまり、画面上の仮想ロボットに本物の服を着せられるのだ。

もうすぐ、この技術を使ったゲームが見られるだろうか? 今のゲーム専用機では無理である。

データ駆動型テクニックの最大の問題は、ランタイムにおけるメモリの容量だ。服を着たキャラクター1体につきおよそ70MBを要するから、今のゲーム専用機では対応できない(たとえばXbox 360はRAMが512MBしかない)。しかし今のPCなら(そして次世代のゲーム機なら)数GBのメモリを搭載しているから、コスト的にも十分に見合うと思われる。しかしわれわれはまだ、二次元グラフの圧縮による布の表現方法を、完全に探求し尽してはいない。したがって今後は、圧縮アルゴリズムの改良と、二次元グラフの各部分をストリーミングするランタイム技術の向上(コア的な部分は再描画しない、など)が期待される。

このビデオでは、ローブの下の人体の動きがリアルなのがすばらしい。衣服の表現としては、われわれは新時代に突入したのではないだろうか。あと数か月もしたら、彼らは、お腹の垂れ下がった腕の太い肥満中年男〔筆者自身のこと?〕が着ているものも、リアルに表現できるようになるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))