CrayのスパコンがMicrosoft Azureにやってくる

クラウド・コンピューティングに意外なニュースが飛び込んできた。MicrosoftはCray提携し、同社のスーパーコンピューターとストレージをAzure から利用できるようにする。

Crayと聞けば、多くの読者は70年代から80年代にデザイン過剰のスーパーコンピューターを作っていた会社を思い浮かべるかもしれない(あの円筒形のタワー状本体の周囲にベンチが設置されたモデルだ)。

Crayは90年代には何度か浮沈を繰り返し、所有者も変わったが、その後、XCCSシリーズの成功で地位を取り戻した。最新モデルはNvidia GPUとIntelのCPUを採用し標準規格のスーパーコンピューターとなっている(一部のマシンはFPGAも採用している)。単一キャビネットのピークパフォーマンスがペタフロップ級のマシンに仕上がっている。

当然ながら、こうしたマシンは非常に高価だ。Crayのターゲットは現在もハイパフォーマンスを必要とする大学や研究機関だ。最近Crayのマシンは機械学習関連の作業で使われることが多い。

そうはいっても、数分で完了するようなバッチ・ジョブ1本のためにCrayをレンタルすることはできない。そこでMicrosoftとCrayはスーパーコンピューター・システムをMicrosoftのデータセンターに設置し、ユーザーがAzureクラウドサービスを通じてCrayのマシンに容易にアクセスできるようにしようと準備中だ。同様に、今後スーパーコンピューターを必要とするかもしれないユーザーも、Azureを利用すればCrayシステムを利用できる。Microsoftの広報担当者が私に語ったところでは、「Crayマシンはそれぞれが顧客のニーズに合わせて設定をカスタマイズできるようにする」ということだ。

今日(米国時間10/23)、Azure担当のMicrosoftコーポレート・バイスプレジデント、Jason Zanderはブログに 「Microsoft Azureは数多くのエンタープライズで採用され、その能力を十分に証明してきた。ユーザー各社はわれわれのクラウド環境で戦略的にもっとも重要度の高いタスクを実行している。今回は新たにCrayと共同することにより、Azureには専用のスーパーコンピューター能力が与えられる【略】」と書いている。

実はCrayがデータセンターにマシンを設置するのはこれが2度目だ。1991年ごろからCrayはMarkleyというあまり有名でないデータセンターに設置されている。Markleyはアメリカとヨーロッパでトータルで27万平方メートルにもなるデータセンターを運用している。

画像: Yiming Chen/Getty Images

〔日本版〕トップ画像はCrayfish(ザリガニ)とCrayをかけたもの。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Crayの最新のスーパーコンピューターはOpenStackを搭載してオープンソースのビッグデータツールを動かす

ms_front-right-angle_0293_high-res

Crayといえば、スピードとパワーをつねに連想するが、同社の最新の計算怪物Cray Urika-GX systemは、ビッグデータのワークロード専用に設計されている。

しかも、そのベースシステムはオープンソースのクラウドプラットホームOpenStackで、その上でビッグデータを処理するHadoopやSparkなどのツールが仕事をする。

Seymour CrayがCray社を立ち上げたのは70年代の初頭だが、その後のコンピューティングの進化を同社はよく認識している。作っているのは相変わらずハイパワーのコンピューターだが、今ではクラウドコンピューティングという強敵がいる。人びとはコンピューターを買わずに、その都度必要なぶんだけ利用して、料金を払う。

そんな強敵と戦うためにUrkia-GXは2ソケットのIntel® Xeon® v4(Broadwell)を16〜48ノード搭載し、そのコア数は最大で1728、DRAMは最大で22TBを持つ。ストレージは35TB PCIe SSDと192TBのハードディスクを、ローカルストレージとして持つ。

しかも同機はCray特有の高速マシンであるだけでなく、差別化要因として、顧客企業が求めるビッグデータ処理ソフトウェアの完全セットアップサービスがつく。HadoopやSparkだけでなく、顧客が求めるものは何でもインストールし、構成し、実働状態にしてから納品する。

また、同社独自のグラフデータベースCray Graph Engineを標準で搭載する。それは複雑なビッグデータ分析において、既存のグラフソリューションの10倍から100倍は速いそうだ。グラフというデータ構造はいろんなものを複雑に結びつけたり比較する処理に適していて、たとえばeコマースのサイトでは顧客が買った物と似たものを見つけたり、逆にそんな物が好きな友だちをソーシャルネットワーク上に見つけたりという、複雑な関係操作が得意だ。

今クラウドに人気があるのは、ITの面倒な部分をすべてクラウドベンダが肩代わりしてくれるからだ。そのことを認識しているCrayは、クラウド上のSaaSではなく、オンプレミスのSaaS、ソフトウェアのインストールから構成〜実働までのすべての面倒を見るサービスに徹しようとしている。それは、Urika-GXとビッグデータ分析に関して、上で述べたとおりだ。しかもソフトウェアのアップデートも、半年ごとにCrayがすべてやってくれる。

顧客が日常使うのはシステムの最上層のアプリケーションだが、その下の部分は顧客企業のIT部門を手伝いながら主にCrayが担当する。ソフトウェアのメンテナンスのお世話をする、という言葉は単純だが、顧客が上の方の、Crayがせっかくインストールしたソフトウェアの上で黙って勝手なことをして、おかしなことになっても、その修復がCrayの仕事になるから、たいへんだ。

でもCrayのプロダクト担当SVP Ryan Waiteによると、同社は顧客と一緒に仕事をしていく歴史が長いから、どんなにわかりにくい問題が生じても十分対応できるそうだ。

費用についてWaiteは、そのほかのビッグデータ処理ソリューションとそれほど変わらない、と言う。みんなが考えるほど、高くはない、と。ということは、Crayコンピューターの数百万ドルというプライスタグは、すでに過去のものか。彼によると、価格はハードウェアとソフトウェアの組み合わせ次第で変動幅が大きい、という。言い換えると、顧客のニーズ次第、ということだ。

というわけで、まだ表面的なことしか分からないが、Crayが今でも強力なコンピューターのプロバイダであることは確実だ。かつてのギークたちの夢は、どっこい、まだ生きていた。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

スタンフォードの研究者、100万コアのスーパーコンピュータを活用する新たな乱流シミュレーション技術を開発

52208_webスタンフォードの研究チームが、スーパーコンピュータの利用について新たな地平を切り拓いた。利用したスーパーコンピュータはローレンスリバモア国立研究所のSequiaだ。研究チームはこのスーパーコンピュータを使ってリアルタイムでの乱流シミュレーションを行なってきた。Sequoiaは最速のマシンというわけではないが、100万コアを同時に利用して計算を行うことができるのだ。

最速マシンは何かと言えばオークリッジ国立研究所にあるクレイ社製のTitanだ。こちらのプロセッサ数は50万となっている。しかしSequoiaは、先に記したように搭載しているプロセッサを同時に利用することができる。これによりスタンフォードの乱流研究チーム(Turbulence Research)は複雑な流体力学に則ってスーパーソニックジェットエンジンが生じる騒音問題のシミュレーションを行うことができたのだ。

リサーチアソシエイトのJoseph Nichols曰く、「世界の高速コンピュータリストによるとSequoiaはNo.2ですが、最も多くのコアを利用することができるのです」とのこと。「シミュレーションを行う際に100万ものコアを同時に利用できるのは大きな魅力です。いったい何が起こるのかを知るための強力なパワーを備えているわけです」。

「今回の目的は、大量のコアを活用して計算速度を上げることができるかどうかを調査することでした。コードにスケーラビリティがあるのであれば、利用コア数に応じて計測時間を短縮することができることになるのです。結果的にシミュレーションの可能性が飛躍的に向上するわけです」とNicholsは言う。「そして私たちのコードは確かに大量のコアに対応してパフォーマンスを上げていくことができました。実際に何が起こるのかを、正確にシミュレートすることができるようになったのです」。

今回のシミュレーションは、乱流の仕組みを分析して、ジェットエンジンの発生するノイズの仕組みを把握することにより、低ノイズなスクラムジェットエンジンを開発することだ。

「完璧にスケーリングするアルゴリズムを生み出すことができたことで、乱流研究チームには全く新しい地平が拓けたということができます」とNicholsは言う。「複雑系を相手にする分野で、シミュレーション技術がますます向上していくことになるはずです」とのことだ。

via Eurekalert

原文へ

(翻訳:Maeda, H)