NASAの最近アップグレードしたPleiadesスーパーコンピュータは宇宙空間に星ができていく過程をシミュレーションする

klein_pleiades_simulation

NASAの科学者たちは、最近チューンナップした世界最強クラスのコンピューターを使って、“星はどこから来たのか”、という疑問に答えようとしている。今度子どもにそれを尋ねられたら、あなたもこんなお利口なことを言えるかもしれない: “超高密度な伸長型ステラフィラメント(stellar filaments)だよ”、なんて。

NASAのメインのスーパーコンピュータPleiadesは、最近の数か月でハードウェアを一新した。酷使され古くなった16ラックのWestmere Xeon X5670sに代わって、1008基のBroadwellノードが、理論的ピーク時性能6.28ペタフロップスをたたき出す。これはHöchstleistungsrechenzentrum StuttgartのHazel Henや、Swiss National Supercomputing CentreのPiz Daintよりも上だ。〔これらの表(別表)にはチューンナップ後のPleiadesは載っていない。〕

SpectraLogicWrap_big

もちろん、研究者たちにとっては速い方が良い。複数の望遠鏡や観測機器から集めたデータと理論的モデルを使って、星の誕生をシミュレーションするORION2プロジェクトは、NASAのニューズリリースによると、“重力、超音速乱流、流体力学(分子ガスの動き)、放射線、磁界、高エネルギーガス流出”など、さまざまな力を組み合わせた計算を行う。

そういう膨大な計算の結果を、NASAのAmes Research Centerの視覚化チームが処理すると、目もくらむような画像や映像ができあがる。たとえば下のビデオは、ORION2がシミュレートした90万年間にわたる“巨大分子雲”の生成過程だ:

これのズームイン・バージョンが、NASAのブログにある。

UC Berkeley(カリフォルニア大学バークリー校)とLawrence Livermore National Laboratory(ローレンス・リバモア国立研究所)を経てNASAに来た天体物理学者Richard Kleinが、星の形成の研究を指揮している。

ニューズリリースの中で彼は、“NASAの莫大な計算機資源がなければ、これだけ巨大で複雑なシミュレーションは不可能だっただろう”、と述べている。

そして彼らは一体何を学んだのか? それは、二つの空域の星間ガスがお互いに激しく愛しあうと、彼らは重力に屈して乱流になり、やがて崩壊して星状クラスタの連鎖になり、星の新生児たちが生まれる、という過程だ。

以上は実際の観測結果ともほぼ一致しているが、人間が宇宙に開けた窓は当然ながら限界があるので、100万年かかると言われる原始星の形成を実際に見ることはできない。モデルとシミュレーションが、それを補う。

次の課題は、解像度の向上だ。もっと精細なシミュレーションが可能になれば、たとえばステラディスク(stellar disk)の形成を研究できる。そのディスク状の構造体が合体して惑星になる、と考えられている。

Kleinは曰く、“星の形成を理解することはとても大きな課題であり問題だ。いずれは、われわれが今やっているシミュレーションの結果が、恒星と惑星の起源を知るというNASAの科学的目標に寄与し、宇宙全体の起源を知るというより大きなチャレンジにも貢献するだろう”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

布や衣服の超リアルな表現技術が完成(今のゲーム専用機のメモリ容量では無理)

布を表現しシミュレートするのは難しいけど、でもゲームや科学的な分析やCGIではそれが重要だ。そこで、カリフォルニア大学バークレイ校とカーネギーメロン大学の連中が6か月かけて、アニメのキャラクターに着せる布製のローブの、ありとあらゆる表現方法を研究しつくし、今われわれが見るものとしては最良の、布のシミュレーションを作り出した。彼らの研究報告は、今日(米国時間7/23)発表されるSIGGRAPHの論文に載っている。

“データ駆動型テクニックを批判する人たちは、あらゆるものをコンピューティングで求めることはできない、と言う”、カーネギーメロンのコンピュータ科学/ロボット工学の准教授Adrien Treuilleはそう語る。“10年前なら彼らは正しかったかもしれないが、今はそのころと全然違う”。

上のビデオで見られる布は頂点が29000あり、それらが60fpsで描画される。非常になめらかで、本物の布のようだが、それは一種のグラフデータ構造を使って毎フレームごとに、動きに伴って変化するすべての頂点のありえる位置を、計算しているからだ。そこまですることによって、たとえば人間が着ている服のリアルなシミュレーションができ、ゲームが今よりもクールになるだけでなく、天候などさまざまな条件下での素材の質感や動きを知ることもできる。つまり、画面上の仮想ロボットに本物の服を着せられるのだ。

もうすぐ、この技術を使ったゲームが見られるだろうか? 今のゲーム専用機では無理である。

データ駆動型テクニックの最大の問題は、ランタイムにおけるメモリの容量だ。服を着たキャラクター1体につきおよそ70MBを要するから、今のゲーム専用機では対応できない(たとえばXbox 360はRAMが512MBしかない)。しかし今のPCなら(そして次世代のゲーム機なら)数GBのメモリを搭載しているから、コスト的にも十分に見合うと思われる。しかしわれわれはまだ、二次元グラフの圧縮による布の表現方法を、完全に探求し尽してはいない。したがって今後は、圧縮アルゴリズムの改良と、二次元グラフの各部分をストリーミングするランタイム技術の向上(コア的な部分は再描画しない、など)が期待される。

このビデオでは、ローブの下の人体の動きがリアルなのがすばらしい。衣服の表現としては、われわれは新時代に突入したのではないだろうか。あと数か月もしたら、彼らは、お腹の垂れ下がった腕の太い肥満中年男〔筆者自身のこと?〕が着ているものも、リアルに表現できるようになるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))