米国立科学財団が量子コンピュータ研究に約80億円を助成へ

量子サイエンスは実用化に向けて最近スタートを切ったばかりだが、すでに理論と応用の両面でいくつかの重要な達成が報告されている。もちろん基礎研究がきわめて重要であることに変わりはない。この観点からNSF(米国立科学財団)は量子サイエンスの進歩のために7500万ドル(80億円)の資金を3つのグループに投じることを決定(NSFプレスリリース)した。

NSFのSethuraman Panchanathan(セトラマン・パンチャナタン)理事長はプレスリリースで「NSFは量子サイエンスの発展のために組織されたコミュニティ、QLCI(Quantum Leap Challenge Institutes)を通じて資金を提供する。向こう5年間でこのコミュニティのメンバーはNSLを量子革命の時代に導くような明確な成果を挙げるものと確信している」と述べた。

資金提供は2500万ドル(約27億円)ずつに分割されるが、対象は個別組織ではなく多数の研究機関からなるコミュニティだ。これには16の大学、8つの国立研究所、22のパートナー組織が含まれている。

3口の資金援助はすべて量子サイエンスの理論、実用面での進歩の促進を目的とするが、それぞれ別個テーマを追求している。

  • 相関的量子状態によるセンサー及び情報利用研究機関(Institute for Enhanced Sensing and Distribution Using Correlated Quantum States)は量子サイエンスを利用して現在よりはるかに進歩したセンサーを開発し、科学のあらゆる基礎分野に貢献することを目標としている。コロラド大学がリーダーとなる。
  • ハイブリッド量子アーキテクチャ及びネットワーク研究機関(Institute for Hybrid Quantum Architectures and Networks)は比較的小数の量子ビット数の量子プロセッサをネットワーク化することにより新しい量子コンピュータを設計し実用化することをテーマとする。 イリノイ大学アーバナ・シャンペン校がリーダーとなる。
  • 現在および将来の量子コンピューティング研究機関(Institute for Present and Future Quantum Computing)は大規模かつ誤り耐性の高い現在よりさらに進歩した量子コンピューティングの実現を目指す。量子コンピュータの可能性に対して根強く向けられている疑念を一掃し、根本的な優秀性を実証するような新たなパラダイムの確立が目的9だ。 カリフォルニア大学バークレー校がリーダーとなる。

これらの組織は、基礎的研究の常として、科学を進歩させると同時に学部生、大学院生を研究者として育成できるような資金が確保できる活発な研究分野とすることを.望んでいる。

NSFは、これ以外にも量子コンピューティング分野における研究に対して小規模なプロジェクトであっても助成を行っている

原文へ

(翻訳:滑川海彦@Facebook

NSFが科学と教育に利用するソフトウェアの改善のために3500万ドルを投入

Integrated Management System and Technology Network as Art

ビッグデータは、ほぼすべての科学分野でこれまでになく重要になっている - そしてデータそのものも今まで以上に大きくなっている。そうしたデータを管理し、科学者と学生たちの手の中に渡す手助けをするために、全米科学財団(NSF)は、2つのソフトウェア研究機関に3500万ドルを投入し、21世紀の研究に必要なツールを作らせることにした。

Molecular Sciences Software Institute(MolSSI – 分子科学ソフトウェア研究所)は - 名前から想像できるように - 分子科学に注力している。量子化学と材料科学から薬理学と分子生物学までの全てを含んでいる。

このレベルの組織で行なわれている研究は、コンピュータのモデルに大いに助けられている。しかし、そうしたモデルは現在、正確なシミュレーションのために必要な要素数、原子数、空間あるいは時間に制約が課されている。MolSSIは、バージニア工科大のコンピュータ化学者Daniel Crawfordによってリードされ、Blacksburgにある同大学のCorporate Research Centerに設置されている。

CRC sign

計画が狙うのは、対象分野で使われるソフトウェアとインフラを改善し、そのリソースを世界で共有することだ。曖昧な目標に聞こえるだろうが、内容を詳細に記述することはおそらく科学者たちが取り組んでいる問題を記述する位難しいことだろう。

「当研究所は、現在世の中で取り組まれているものよりも、遥かに大規模で複雑な問題に、コンピュータを活用する科学者たちが取り組めるようにしていきます」とCrawfordはNSFの発表で述べた。

その他の幾つかの大学も運営委員会に加わる予定である:ライス大、アイオワ州立大、スタンフォード大、ラトガース大、ストーニーブルック大、カリフォルニア州立大学バークレー校そして南カリフォルニア大である。Crawfordはバージニア工科大のニュースサービスに対して、開始までにヨーロッパとアジアからも、さらに協力大学を募る予定であると話した。

MolSSIは5年間で1940万ドルにのぼる資金を供給される、そして今日公式に与えられた最初の580万ドルの多くが、創設科学者メンバーとコーダーを発掘、雇用するために使われる。

全ての原子が考慮されたイオンチャネルのシミュレーション。MolSSIの成果によって可能になることが期待されるものの例のひとつ。

残りの1500万ドル少々の資金はScience Gateways Community Institute(SGCI)に供給される。この研究所はカリフォルニア州立大学サンディエゴ校(UCSD)によって主導される。そのゴールは、学生たちから最先端の研究者までのすべてのレベルで、科学的リソースへのアクセスを改善することである。

Science Gateways Community Instituteが提供を狙うサイエンスゲートウェイは、誰もが例えばウェブを通してアクセスできるツール、サービス、アプリケーションの集まりである。例えば、ある大学がその所有するMRIあるいは天文学実験の全データを、抽出とダウンロード可能なものにしたいとき、ゲートウェイはそのデータと利用者を管理し、その同時にデータを視覚化したり分析したりするツールを提供するだろう。科学データを他の専門家たちや好奇心あふれる一般人たち(納税者たち)が照会し精査できるようにすることは、重要なステップである。

「ゲートウェイは研究者同士のコラボレーションとアイデアの交換を促進します、そして先端的な研究所にいない人たちがしばしば手の届かないリソースへのアクセスを提供することによって、アクセスを民主化することができます」、とプロジェクトの主任調査官であるUCSDのNancy Wilkins-Diehrは言う。

SGCIは2015年に行われた一種の予備的研究結果を受けて設立された。この研究ではリサーチコミュニティの5000人にサーベイが行われ、研究所が焦点を合わせるべき5つの主なエリアが提案された。

gateways-conceptual

手短かに述べれば、以下のようなものだ:アイデアをビジネスに育てるインキュベーション;関連するプロジェクトへの有意義な技術サポートの提供;ゲートウェアイを開発し機能させるための共有され拡張可能なフレームワークの開発;そしてゲートウェイ開発者の発見と訓練 - なお最後の項目には門戸の解放が強く謳われているということを、喜んで付け加えておきたい。更なる詳細はNSFのグラントページSGCIの研究ページで読むことができる。

このプロジェクトも多くのパートナー校を抱えている:ノートルダム大、パーデュー大、テキサス州立大学オースティン校(特にTACC)、ミシガン州立大学アンアーバー校、インディアナ州立大そしてエリザベスシティ州立大。

これはNSFによる大規模な投資であり、とても興味深い参加者たちへの広がりを見せている。彼らの仕事はこの派手な発表に比べると目立たないかも知れないが、とても重要なものだ。科学向けソフトウェアの革新を行うこれらの研究所の成長と成熟の様子を、私たちもしっかりフォローしていきたい。

原文へ
(翻訳:Sako)

$30Mを投じたスーパーコンピューターStampede 2は18ペタフロップスを誇り利用は研究者向けに一般公開へ

stampede1

世界のスーパーコンピューターの上位5機たちの、地位が危うくなってきた。テキサス大学が3000万ドルを投じたStampede 2が、追い上げている。そのピーク時処理能力18ペタフロップスは、CrayのTitanやIBMのSequoiaと肩を並べる。中国のTianhe-2(天河二号, 33.86pFLOPS)には、まだ及ばないが。

その建造目的は、大規模な数値処理を必要とする研究者が誰でも利用できる、世界クラスのスーパーコンピューターを作ることだた。たとえば原子力工学や環境科学の分野では、シミュレーションに膨大な計算力を要する。それらはデスクトップコンピューターなら数年かかるが、スーパーコンピューターなら数日で完了する。

たとえば下図のコロイド状ゲルのシミュレーションでは、75万個の粒子類似体のすべての動きと相互作用を究明しなければならない。

Zia_Colloidal_Gel_Panel2[1]

あるいは下図の、創始期超新星のレンダリングでは、2000立方キロメートルの一般相対論的電磁流体中のすべての擬粒子(?)のエントロピーを追跡しなければならない。

magnetohydrodynamics

お分かりかな?

テキサス大のプレスリリースで、Texas Advanced Computing Center(TACC)のディレクターDan Stanzioneが語っている: “StampedeやStampede 2のような大規模なコンピューティングとデータ能力は、どんな研究開発分野においてもイノベーションのために必要不可欠だ。Stampedeは、住宅および商用建造物の耐震基準の策定のために、これまででもっとも大規模な数学的証明を提供してきた”。

その2013年3月に稼働を開始したStampedeの2倍の能力を持つのがStampede 2だ。それらは、どちらも、米国科学財団(National Science Foundation, NSF)の助成金によりテキサス大学オースチン校で作られた。

2倍というのは、必ずしもコア数のことではない。製造技術がStampedeの22nmから14nmのXeon Phiチップに(コードネーム”Knights Landing”)に進化し、そのほかの“将来世代的な”プロセッサーも使われている。コア数は、61コアから72コアに増えた。

RAMもストレージもデータの帯域も倍増した。いくら処理能力が速くても、データの移動が遅ければ無意味だ。Stampede 2は毎秒100ギガビットへと高速化し、そのDDR4 RAMは十分に高速でかつ巨大な第三段キャッシュと、通常のメモリの役を担う。

また、Intelの最新のメモリ技術3D Xpointによる不揮発メモリも採用している。それはNANDよりも高速でDRAMより安いと言われ、高性能を要求されるストレージの理想の媒体と見なされている。Stampede 2はそれを本格的に採用した初の実用機となるが、いずれはわれわれデスクトップのユーザーにも恩恵が回ってくるだろう。

しかしその十分すぎるスペック(参考記事)は、正当な開発動機があったとはいえ、ポルノのように誘惑的だ。テキサス大のプレスリリースによると最近の10年間で、TACCを利用する機関の数は倍増、上級研究者たちの数は三倍増、一般のアクティブユーザーは五倍増した。自然を研究調査する分野と、新しいツールやサービスを開発する分野の両方で、ディープなデータ分析の新たに発見される用途が増え続けているから、ユーザーの数は今後ますます増え続けるだろう。

Stampede 2の稼働開始がいつになるのか、それはまだ決まっていないが、資金には問題がないようだから、あと一年あまり、というところか。もちろんその間に、スーパーコンピューターの上位5機は、競争がますます混み合ってくるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))