Epic Gamesが顔の動きをキャプチャするCubic Motionを買収

米国時間3月12日、ゲームタイトルの「フォートナイト」やゲームエンジンの「Unreal Engine」で知られるEpic Gamesが、英国のコンピュータビジョン企業Cubic Motionの買収を発表した。Cubic Motionは、複雑なカメラリグとソフトウェアでリアルなフェイシャルアニメーションをキャプチャするプラットフォームを構築しているスタートアップだ。

Epic GamesはCubic Motionとともに、ここ数年で技術デモをたくさん制作してきた。そのデモの中心は、アクターの顔の動きをリアルタイムでデジタルキャラクターに変換するものだった。2019年に登場したCubic MotionのPersonaシステムは、ソフトウェアとモーションキャプチャ用のハードウェアリグをセットにしたものだ。

Cubic Motionのテクノロジーは、ソニー・インタラクティブエンタテインメントの「ゴッド・オブ・ウォー」やInsomniac Gamesの「Marvel’s Spider-Man」といった大ヒットゲームタイトルで使われている。

Cubic MotionはNorthEdge Capitalから2200万ドル(約24億円)以上を調達していた。買収の条件は明らかにされていない。両社のプレスリリースによれば、Cubic Motionは今後も既存の顧客にサービスを提供すると同時に、自社の技術とUnreal Engineの統合を加速させるという。

Epic GamesとそのライバルであるUnityは、これからも自社のリアルタイムゲームエンジンが大手ゲームメーカーに採用されることを狙っていくが、一方で今回のような買収には、そのゲームエンジンがゲーム以外の業界にもっと浸透していくだろうという期待も感じられる。この買収は多額の予算を使えるゲームメーカーがシーンを作り込むために間違いなくプラスになるだろうが、ワークフローにリアルタイムレンダリングを取り入れたいと考えている映画製作会社からも注目を集めることになるだろう。

2019年、Epic Gamesは人間のリアルなアバターを制作するゲームスタジオの3Lateralを買収した。このことと今回の買収を合わせて考えると、Epic Gamesは人間のキャラクターやアバターのリアルさは投資に値する分野だと見ているのだろう。

[原文へ]

(翻訳:Kaori Koyama)

体の動きを記録できるNotchはスポーツや作業の上達に必須のアイテムになるだろう

Notchを作ったEszter OzsvaldとStepan Boltalinは、このプロジェクトに2013年から取り組み、今年やっとDisrupt Berlinのステージでその完成した姿を披露できることになった。すでにSOSVenturesやHax Acceleratorが投資しているNotchは、ユーザーが自分の体の動きを走査し、動きを軌跡として記録できる。ゴルフのスイングや体操、作業など、どんな動きでも分析できる。

同社は今、パートナーたちと一緒に、ゴルフの教習やプロのゴルファーのプレイなどを3Dで記録しようとしている。また、4DMotionSportsというパートナーは、陸上選手の3D記録を作って、その再生利用をするつもりだ。

Ozsvaldは曰く、“Notchは初めて、本格的なモーションキャプチャーをスマートフォンに持ち込んだ。また、モーションキャプチャーを利用するアプリを誰でも作れるようにAndroidとiOS用のSDKを提供しているのも、うちが初めてだ。スポーツや作業分析ばかりでなく、消費者向けのおもしろい動き分析アプリが作れると思う。Notchが類似製品と違うのは、使用するセンサーの数にスケーラビリティがあること(最大12まで)、そしてコストがそれらの1/10ぐらいと安いことだ”。

  1. notch-0114.jpg

  2. notch-0111.jpg

  3. notch-0106.jpg

  4. notch-0113.jpg

  5. notch-0109.jpg

  6. notch-0108.jpg

センサーを6つ搭載したNotchは387ドルで、すでにこれまでに1万台を売った。

同社はKickstarterでも資金集めに成功し、そして今では本格的な商用製品とアプリをリリースしている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Rokokoから低価格モーションキャプチャースーツ――バレリーナがTCスタジオでデモ

新しいスタートアップ、Rokokoはゲーム制作者やインディーの映像作家のために手頃な価格で入手できる高品質なモーションキャプチャー・スーツを開発した。

ハリウッドやテレビ局のスタジオではグリーンバックの前でスポットマークを付けた専用スーツを着た俳優やスタントマンがさまざまな動作を撮影されている場面を見たことがあるだろう。RokokoのSmartsuit Proはこれらとほとんど同様の精度で、かつインディー映像作家にも入手可能なモーションキャプチャー・スーツを提供する。予定価格は2500ドルだ。

Rokotoの製品は見たところニンジャのコスチュームのようだ。19個のジャイロセンサーを内臓しており、着用者の動作を記録する。このスーツには専用のソフトウェアがバンドルされているが、取得されたデータはUnity、Blender、Mayaなどポピュラーなアニメーション・プラットフォームにエクスポート可能だ。

ファウンダーのJakob Balslevは8年の経験をもつベテラン映像作家でもある。Rokotoは最初の予約分、300着の出荷を開始したところだという。Baslevによれば、スター・ウォーズの撮影にも関わっているプロを含め、多くのビッグネームが購入しているという。

Baslevはサンフランシスコ・バレエのプリンシパルの一人、Fran Chungと共にTechCrunchのスタジオを訪問してデモを披露してくれた。Chungの驚くべきバレエの動作がどのようにアニメーションに変換されるか上のビデオをご覧いただきたい。このスーツの能力がよくわかると思う。

  1. mg_9649.jpg

  2. mg_9466_black_background.jpg

  3. mg_9384_black_background.jpg

  4. mg_9425_black_blackground.jpg

  5. mg_9447_black_background.jpg

  6. mg_9720.jpg

  7. mg_9901.jpg

  8. mg_9998.jpg

[原文へ]

(翻訳:滑川海彦@Facebook Google+

ニューラルネットワークを使って、ゲームのアニメーションのぎこちなさを減らす

最近のゲームのグラフィックス精度には目を見張るが、クリエーターが表現に苦労することの一つが人間の滑らかな動きだ。本物のモーションキャプチャーデータを利用したニューラルネットワークに基づくアニメーションシステムを使えば、アバターの歩いたり走ったりジャンプする動きをもっと自然にできるかもしれない。

もちろん最近のゲームをプレイしたことのある人なら、すでに多くのゲームでスムーズな動きが実現しているのをご存知だろう ―― しかしそのためには、アニメーターたちがさまざまな動きをライブラリーから選びあらゆる場面にリンクさせる忍耐強い作業が必要だ。女性キャラクターが2階に登りながら弓を引き、さらにかがみこんだらどうなるのか?彼女が細い棒の上でバランスを取っている間に撃たれたらどうなるのか?可能性は無限にある。

エジンバラ大学とMethod Studiosの研究者が、さまざまな動きのモーションキャプチャーの部品を組み合わせる機械学習システムを作った。例えば「この方向へ行く」と入力すれば、地形を考慮して、例えば駆け足から小さな障害物を飛び越える場面にもっとも適したアニメーションを出力する。

駆け足からジャンプへと遷移するカスタムアニメーションを作る必要はない。アルゴリズムが判断してスムーズな動きを生成し、アニメーションのタイプが切り替わる際の不快な動きはない。多くのゲームエンジンが、足の位置やアニメーションのブレンドなど間に合わせの機能を提供しているが、これはもっと本格的なものを目指す新しい方法だ。

機械学習は以前からこの分野に導入されてきたが、ビデオでも言っているように、生成されるシステムはかなり原始的だった。動きが間違っていたりアニメーションが抜けることがあり、それはどれを使えばいいのかシステムにはわからないからだった。アニメーションの状態を決めつけすぎて動きがぎこちなくなることもある。

これを避けるために研究者らは、ニューラルネットワークにフェーズ機能を追加することで、例えばジャンプの途中で歩く、といった異なるタイプのアニメーションをあやまって混ぜることを防いだ。

「われわれの方法はデータ駆動なので、キャラクターは単にジャンプのアニメーションを再生するのではなく、障害物の高さに基づいて動きを連続的に調節している」と新しい方法を説明するビデオで研究者が語った。

これをそのままでゲームに使うことはもちろんできないが、アニメーションのブレンディングや作成のもっと高度な方法を作るための出発点になるだろう。これは、アニメーターの不満が減り、キャラクターの動きはもっと自然になるという意味かもしれない。あとは、エイリアンや蜘蛛やその他の生き物など、ふだんモーションキャプチャースタジオで見かけないものはどうするかだけが問題だ。

Daniel Holden、Taku Komura(以上エジンバラ大学)、Jun Saito(Method Studios) の3名が今年のSIGGRAPHで発表する。Holdenのウェブページに詳しい情報がある。

[原文へ]

(翻訳:Nob Takahashi / facebook

Disney Researchが考案したリアルタイムのモーションキャプチャーシステムはできるだけ少数のセンサーしか使わない

runningman

本格的なモーションキャプチャーは、大量の光学マーカーや内部のセンサー、あるいはその両方を使う。組み立ても分解もたいへんだし、膨大な量のデータを作り出す。Disney Researchのこのプロジェクトは、体の動き方に関するお利口な想定を利用して、わずかばかりのセンサーを使用し、高品質な結果を作り出す。

研究者たちは、ありとあらゆるものがセンサーの理想的な数と配置の邪魔をすることに気づいた。マーカーや衣装、粗悪な照明なども邪魔をする。そこで彼らは、それでもなおかつ良質なリアルタイムの結果を作り出す、最小限のシステムを提案している。

彼らのシステムでは、慣性ユニットが両手、両足、頭と尾てい骨、計6つある。同じ場所に光学マーカーがあり、計測された相対的動きを、参照カメラが見た絶対位置に関連付ける。

とても少ないセンサーでうまくいくのは、送られてくるデータを、体の動きを多少知っている物理モデルに入力するからだ。マーカーの位置と、検出した力に基づいて、“物理的に正しい”位置と動きを計算し、それをさらに、既知の動き、関節の位置、および姿勢と照合して、おかしな情報でないことをチェックする。

だから、センサーは、肘は後ろに曲がらない、とか、膝はそんなおかしなねじれ方をしない、と言ってくれなくても、システムは体のシミュレーションに基づいて、それはありえないと判断できる。トップの静止画像では、青い男はセンサーの正規の組み合わせが作り出した地上真実(ground truth)だ。緑の男はモデルが計算したもの。そして黄色の男は、各コマを“動き優先(motion priors)”で捉えたもので、ときどき全然おかしくなる。

研究者たちが提案している最小のセットアップとリアルタイムのフィードバックは、モーションキャプチャーや仮想現実で役に立ちそうだ。Kinectやヘッドセットのセンサーが捉える体の動きは、多くの点で限界がある。でもそれらを、50の部分から成り、計算に1時間を要するシステムでリプレースすることはできない。プレーヤーが、全身を覆う完全なボディースーツを着るわけにもいかない。でも伸縮性のバンド2本にセンサーが付いてるだけなら、着脱は容易だし、日常的なVRアプリケーションには十分以上の良好な結果が得られるだろう。

このシステムを記述している論文は今日(米国時間12/12)、ロンドンで行われたConference on Visual Media Productionでプレゼンされた。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))