NASAの最近アップグレードしたPleiadesスーパーコンピュータは宇宙空間に星ができていく過程をシミュレーションする

klein_pleiades_simulation

NASAの科学者たちは、最近チューンナップした世界最強クラスのコンピューターを使って、“星はどこから来たのか”、という疑問に答えようとしている。今度子どもにそれを尋ねられたら、あなたもこんなお利口なことを言えるかもしれない: “超高密度な伸長型ステラフィラメント(stellar filaments)だよ”、なんて。

NASAのメインのスーパーコンピュータPleiadesは、最近の数か月でハードウェアを一新した。酷使され古くなった16ラックのWestmere Xeon X5670sに代わって、1008基のBroadwellノードが、理論的ピーク時性能6.28ペタフロップスをたたき出す。これはHöchstleistungsrechenzentrum StuttgartのHazel Henや、Swiss National Supercomputing CentreのPiz Daintよりも上だ。〔これらの表(別表)にはチューンナップ後のPleiadesは載っていない。〕

SpectraLogicWrap_big

もちろん、研究者たちにとっては速い方が良い。複数の望遠鏡や観測機器から集めたデータと理論的モデルを使って、星の誕生をシミュレーションするORION2プロジェクトは、NASAのニューズリリースによると、“重力、超音速乱流、流体力学(分子ガスの動き)、放射線、磁界、高エネルギーガス流出”など、さまざまな力を組み合わせた計算を行う。

そういう膨大な計算の結果を、NASAのAmes Research Centerの視覚化チームが処理すると、目もくらむような画像や映像ができあがる。たとえば下のビデオは、ORION2がシミュレートした90万年間にわたる“巨大分子雲”の生成過程だ:

これのズームイン・バージョンが、NASAのブログにある。

UC Berkeley(カリフォルニア大学バークリー校)とLawrence Livermore National Laboratory(ローレンス・リバモア国立研究所)を経てNASAに来た天体物理学者Richard Kleinが、星の形成の研究を指揮している。

ニューズリリースの中で彼は、“NASAの莫大な計算機資源がなければ、これだけ巨大で複雑なシミュレーションは不可能だっただろう”、と述べている。

そして彼らは一体何を学んだのか? それは、二つの空域の星間ガスがお互いに激しく愛しあうと、彼らは重力に屈して乱流になり、やがて崩壊して星状クラスタの連鎖になり、星の新生児たちが生まれる、という過程だ。

以上は実際の観測結果ともほぼ一致しているが、人間が宇宙に開けた窓は当然ながら限界があるので、100万年かかると言われる原始星の形成を実際に見ることはできない。モデルとシミュレーションが、それを補う。

次の課題は、解像度の向上だ。もっと精細なシミュレーションが可能になれば、たとえばステラディスク(stellar disk)の形成を研究できる。そのディスク状の構造体が合体して惑星になる、と考えられている。

Kleinは曰く、“星の形成を理解することはとても大きな課題であり問題だ。いずれは、われわれが今やっているシミュレーションの結果が、恒星と惑星の起源を知るというNASAの科学的目標に寄与し、宇宙全体の起源を知るというより大きなチャレンジにも貢献するだろう”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

中国の世界最高速のコンピューターの記録を中国製の新しいスーパーコンピューターが破る

nasa-x-15

これまでの世界最速のスーパーコンピューターTianhe-2が、Sunway TaihuLightにその座を譲った。この中国のスーパーコンピューターは、無錫の国立スーパーコンピューターセンターに置かれている。

スーパーコンピューターのベンチマークには、Linpackベンチマークが使われることが多い。Sunway TaihuLightは93ペタフロップスを記録した。アメリカの最速機は17ペタフロップスで世界第三位だ。〔参考記事&リンク

93ペタフロップスは、浮動小数点演算(FLOP)を毎秒ほぼ93千兆回行うこと(93千兆FLOPS)に等しい。ちなみにiPad 2はの演算能力は、約16億FLOPSだ。ということは、Sunway TaihuLightの演算速度はiPad 2の約5800万倍である。

このスーパーコンピューターの構築には政府資金2億7000万ドルが投じられた、とJack DongarraのReport on the Sunway TaihuLight Systemが言っている。この記事によると、開発にあたってはエネルギー効率のアップにとくに注力された。15基のClimaveneta社製水冷式冷却装置を磁気浮揚させることにより、電力消費をそうしない場合の45%下げることに成功した。

Sunway TaihuLightのようなスーパーコンピューターは、複雑な非線形力学系の問題を解くために使われることが多い。天気予報は、そういう問題の典型であり、ほかに、金融や神経活動のモデリングなどもある。一般的に、データの量がきわめて多く、しかも変数(変項)の数が非常に多い問題は、特別に強力なコンピューティングパワーを必要とする。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

$30Mを投じたスーパーコンピューターStampede 2は18ペタフロップスを誇り利用は研究者向けに一般公開へ

stampede1

世界のスーパーコンピューターの上位5機たちの、地位が危うくなってきた。テキサス大学が3000万ドルを投じたStampede 2が、追い上げている。そのピーク時処理能力18ペタフロップスは、CrayのTitanやIBMのSequoiaと肩を並べる。中国のTianhe-2(天河二号, 33.86pFLOPS)には、まだ及ばないが。

その建造目的は、大規模な数値処理を必要とする研究者が誰でも利用できる、世界クラスのスーパーコンピューターを作ることだた。たとえば原子力工学や環境科学の分野では、シミュレーションに膨大な計算力を要する。それらはデスクトップコンピューターなら数年かかるが、スーパーコンピューターなら数日で完了する。

たとえば下図のコロイド状ゲルのシミュレーションでは、75万個の粒子類似体のすべての動きと相互作用を究明しなければならない。

Zia_Colloidal_Gel_Panel2[1]

あるいは下図の、創始期超新星のレンダリングでは、2000立方キロメートルの一般相対論的電磁流体中のすべての擬粒子(?)のエントロピーを追跡しなければならない。

magnetohydrodynamics

お分かりかな?

テキサス大のプレスリリースで、Texas Advanced Computing Center(TACC)のディレクターDan Stanzioneが語っている: “StampedeやStampede 2のような大規模なコンピューティングとデータ能力は、どんな研究開発分野においてもイノベーションのために必要不可欠だ。Stampedeは、住宅および商用建造物の耐震基準の策定のために、これまででもっとも大規模な数学的証明を提供してきた”。

その2013年3月に稼働を開始したStampedeの2倍の能力を持つのがStampede 2だ。それらは、どちらも、米国科学財団(National Science Foundation, NSF)の助成金によりテキサス大学オースチン校で作られた。

2倍というのは、必ずしもコア数のことではない。製造技術がStampedeの22nmから14nmのXeon Phiチップに(コードネーム”Knights Landing”)に進化し、そのほかの“将来世代的な”プロセッサーも使われている。コア数は、61コアから72コアに増えた。

RAMもストレージもデータの帯域も倍増した。いくら処理能力が速くても、データの移動が遅ければ無意味だ。Stampede 2は毎秒100ギガビットへと高速化し、そのDDR4 RAMは十分に高速でかつ巨大な第三段キャッシュと、通常のメモリの役を担う。

また、Intelの最新のメモリ技術3D Xpointによる不揮発メモリも採用している。それはNANDよりも高速でDRAMより安いと言われ、高性能を要求されるストレージの理想の媒体と見なされている。Stampede 2はそれを本格的に採用した初の実用機となるが、いずれはわれわれデスクトップのユーザーにも恩恵が回ってくるだろう。

しかしその十分すぎるスペック(参考記事)は、正当な開発動機があったとはいえ、ポルノのように誘惑的だ。テキサス大のプレスリリースによると最近の10年間で、TACCを利用する機関の数は倍増、上級研究者たちの数は三倍増、一般のアクティブユーザーは五倍増した。自然を研究調査する分野と、新しいツールやサービスを開発する分野の両方で、ディープなデータ分析の新たに発見される用途が増え続けているから、ユーザーの数は今後ますます増え続けるだろう。

Stampede 2の稼働開始がいつになるのか、それはまだ決まっていないが、資金には問題がないようだから、あと一年あまり、というところか。もちろんその間に、スーパーコンピューターの上位5機は、競争がますます混み合ってくるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))