人工知能や機械学習などのリソースを大量に消費する作業を、滞りなく処理するためにコンピューティングパワーを増加させるための競争に、IBMは最新世代のPowerチップであるPower9で参戦した。
同社はこのチップを、サードパーティーのメーカーや、Googleなどのクラウドベンダーへ販売する予定だ。一方、Power9チップを搭載した新しいコンピューターAC922もリリースする。また、IBMクラウドに対してもこのチップを投入する予定だ。「私たちは通常、私たちのテクノロジーを完璧なソリューションとして市場に提供しています」と説明するのは、IBMのフェロー兼コグニティブシステム担当副社長であるBrad McCredieである。
同社は、Chainer、TensorFlow、Caffeなどの一般的なAIフレームワークのパフォーマンスを向上させるために、この新しいチップをデザインし、それらのフレームワークで動作するワークロードをほぼ4倍にすると主張している。
もし説明されたように動作するなら、データサイエンティストたちは、Power9を搭載したマシン上でのモデルの構築と実行の効率を上げることができる。そのことにより、仕事を効率的に進め、モデル作成をより素早く完成させることができるようになる筈だ。
Moor Insights&Strategyのプリンシパルアナリスト、Patrick Moorheadは、IBMがこのチップよって、競争から頭ひとつ抜け出すことになると考えている。「Power9は、機械学習で使用されるアクセラレーターに最適化された、新しいシステムアーキテクチャを備えたチップです。IntelはXeon CPUとNervanaアクセラレータを作り、NVIDIAはTeslaアクセラレータを作っています。IBMのPower9は文字通り、機械学習加速のためのスイスアーミーナイフで、膨大な量のIOと帯域幅をサポートしているので、現在市場にあるものの10倍の性能を叩き出すのです」とMoorheadは語る。
もしNvidiaがAI/機械学習ワークロードの世界でかなりの部分を占めているように思っているならば、IBMの関心も免れることはできない。今や彼らもGPUチップメーカーと緊密に協力している。実際、McCredieによれば、IBMは競合システムよりもはるかに高速に、2つのチップ間でワークロードを移動するシステムバスを構築しているということだ
「最新のワークロードは一段と加速しており、その中でもNvidia GPUが一般的に使われているアクセラレータです。私たちはこの傾向が起こりつつあることを感知していました。私たちはPowerシステムとGPUの間に、チームとパートナーシップによる深い関係を構築しました。私たちはプロセッサーとGPUをつなぐユニークなバスを用意し、これによって競合システムに比べて10倍の帯域幅を実現することができました」とMcCredieは説明する。
新しいチップは、ローレンス・リバモアとオークリッジ国立研究所によって開発されたSummitと呼ばれるスーパーコンピューターに搭載される予定である。同氏によれば、このスーパーコンピュータは無数のPower9コンピューターを使って構築され、そのコストは3億2500万ドルに上るということだ。
GartnerのHPC、マシンラーニング、および新興コンピューティング技術のリサーチディレクターであるChirag Dekateは、このリリースは、人工知能のような高成長市場セグメントを獲得するための、IBMの積極的なアプローチの継続である、と述べている。「AI(具体的には機械学習やディープラーニング)のようなセグメント間で、戦略を調整することで、IBMはハイパースケールデータセンターや、より一般的なデータセンター市場での競争力を高めることができます。これにより、IBMの直接的な収益への影響がもたらされ、新しい大規模データセンターの展開も可能になります」とDekate氏は説明する。
Power9チップは、今日(米国時間12月5日)から入手可能だ。
[原文へ]
(翻訳:sako)