NVIDIAがAmpereアーキテクチャのデータセンター用GPUを出荷、タンパク質モデリングなどAI学習の性能が20倍に

NVIDIAは米国時間5月14日、同社のAmpereアーキテクチャをベースにした最初のGPU、NVIDIA A100の生産が軌道に乗り、世界中の顧客に向けて出荷を開始したと発表した。

画像クレジット:Argonne National Laboratory

Ampereは、NVIDIAのGPUアーキテクチャーの世代に大きな飛躍をもたらすもの。同社では、これまでの8世代に渡るグラフィックハードウェアの中で「パフォーマンス的に最大の飛躍」と表現している。

具体的にA100は、これまでのNVIDIA製のデータセンター用GPUと比較しても、AIトレーニングと推論のパフォーマンスを20倍ほども向上させる。例えば、データ分析、タンパク質モデリング、その他の科学的なコンピューターの利用や、クラウドベースのグラフィックレンダリングなど、ほどんどあらゆる種類のGPU集約化型のデータセンターのワークロードに対してメリットを提供できる。

A100 GPUは、ニーズに応じてスケールアップしたり、逆にスケールダウンさせることも可能だ。つまり、1台のユニットを使用した場合には、パーティションに分割することで、最大7つの独立したタスクを処理できる。あるいは、それらをすべて組み合わせて、1つの大きな仮想GPUとして動かし、AIアプリケーションの最大級に難しいトレーニングタスクに取り組むこともできる。特に「マルチインスタンスGPU」と呼ばれるパーティショニング機能は、この世代にとって新機軸のもの。あらゆる規模のクライアントに対してコスパの高いA100の能力を提供できる点は強調に値する。データーセンターで使われているGPUの利用状況に多少の余裕がある場合、理論的には1台で最大7基の独立したGPUを置き換えることができるからだ。

生産と出荷の状況の報告に加えて、NVIDIAは、スーパーコンピューターやデータセンターで使用するために、すでに多くの顧客がA100を採用していることも併せて発表した。たとえば、Microsoft Azure、Amazon Web Services、Google Cloudをはじめとして、現存するほぼすべての重要なクラウドプロバイダーが含まれるという。

さらにNVIDIAは、8基のA100 GPUを独自のNVLinkを使って組み合わせるDGX A100システムも発表した。すでにこれも、NVIDIAから直接、あるいは承認された再販パートナーから入手可能となっている。

原文へ

(翻訳:Fumihiko Shibata)