Nvidiaが今日、同社のAmpereベースのデータセンター用新型GPU「A100 Tensor Core GPU」を、Google Cloud上でアルファ版として公開したと発表した。その名か示すようにこれらのGPUはAIのワークロード、データの分析やハイパフォーマンスコンピューティングソリューション向けに設計されている。
A100は、前世代機に比べて大幅なパフォーマンスの向上を約束している。NVIDIAによると、A100はトレーニングと推論のパフォーマンスを前世代機の20倍以上アップする。実際のベンチマークの成績では6〜7倍ぐらいだろう。単精度のパフォーマンスでは19.5 TFLOPs、Tensor Float 32のワークロードでは156 TFLOPsに達する。
Google Cloudのプロダクト管理のディレクターであるManish Sainani(マニッシュ・サイニ)氏は、本日の声明で「Google Cloudのお客様は、AIや科学的コンピューティングのワークロードでイノベーションを推進するために、最新のハードウェアとソフトウェアのサービスを提供する当社を利用することが多い。新しいVM系列のA2では、私たちがNVIDIA A100 GPUsを市場に提供する初めての大手クラウドプロバイダーになることを誇りに思う。NVIDIAのT4 GPUsでも、私たちが最初だった。新しい機能でお客様がどのようなことをするのか、今から楽しみだ」と述べている。
Google Cloudのユーザーは最大16までのA100 GPUsのインスタンスにアクセスできる。合計640GBのGPUメモリと1.3TBのシステムメモリを利用可能だ。
画像クレジット: NVIDIA