AWSが次世代型GPUインスタンスをローンチ

米国時間11月1日、AWSは、最新のGPUによるインスタンスを立ち上げた。P4と呼ばれるその新しいインスタンスは、AWSが最初のCluster GPUインスタンスを立ち上げてから10年後のローンチとなる。この新世代のインスタンスはIntelのCascade Lakeプロセッサと8つのNVIDIA A100 Tensor Core GPUを使用する。AWSの仕様によると、ディープラーニングのパフォーマンスは旧世代の最大2.5倍となり、モデルの訓練費用は60%安くなるという。

画像クレジット:AWS

現在のところサイズは1つだけで、AWSではp4d.12xlargeインスタンスと呼ばれている。8つのGPUはNVIDIAのNVLink通信インタフェイスで接続され、同社のGPUDirectインターフェイスもサポートされる。

320GBの高速メモリーと400Gbpsのネットワーキングにより、いうまでもなく極めて強力なマシンだ。加えて96のCPUコア、1.1TBのシステムメモリ、そして8TBのSSDストレージを備えたこのインスタンスは、オンデマンドの料金が1時間32.77ドル(約3432円)と聞いても誰も驚かないだろう。ただしその料金は、1年の予約インスタンスなら1時間20ドル(約2095円)、3年の予約インスタンスでは11.57ドル(約1212円)となっている。

画像クレジット:AWS

極端なケースとしては、EC2 UltraClusterとAWSが呼ぶこれらのマシンに4000以上のGPUを組み合わせて、スーパーコンピューターが行うようなハイパフォーマンスコンピューティングに使うこともできる。これだけの料金では、小さな試作アプリでモデルの訓練に使うのも難しいが、AWSはすでに。協力企業は、Toyota Research Institute(TRI)、GE Healthcare、Aonといった数社のエンタープライズ顧客と協力してこれらのインスタンスとクラスターをテストしている。

「Toyota Research Instituteでは、誰もが自由に移動できる未来の研究開発を行っている。前世代のP3インスタンスでは、機械学習のモデルの訓練を数日から数時間に短縮できた。今回のP4dインスタンスではGPUのメモリーが増え、浮動小数点数のより効率的な形式を使えるため、弊社の機械学習チームはさらに複雑なモデルをしかも前より高速に訓練できるだろう」とTRIのインフラストラクチャ工学担当技術長であるMike Garrison(マイク・ギャリソン)氏は述べている。

関連記事:NVIDIAがAmpereアーキテクチャのデータセンター用GPUを出荷、タンパク質モデリングなどAI学習の性能が20倍に

カテゴリー:ハードウェア
タグ:AWS

画像クレジット:Pedro Fiúza/NurPhoto/AP

原文へ

(翻訳:iwatani、a.k.a. hiwa

投稿者:

TechCrunch Japan

TechCrunchは2005年にシリコンバレーでスタートし、スタートアップ企業の紹介やインターネットの新しいプロダクトのレビュー、そして業界の重要なニュースを扱うテクノロジーメディアとして成長してきました。現在、米国を始め、欧州、アジア地域のテクノロジー業界の話題をカバーしています。そして、米国では2010年9月に世界的なオンラインメディア企業のAOLの傘下となりその運営が続けられています。 日本では2006年6月から翻訳版となるTechCrunch Japanが産声を上げてスタートしています。その後、日本でのオリジナル記事の投稿やイベントなどを開催しています。なお、TechCrunch Japanも2011年4月1日より米国と同様に米AOLの日本法人AOLオンライン・ジャパンにより運営されています。