AWS第3のカスタムチップ「Trn1」は機械学習モデルのトレーニングを高速化

顧客のワークロードのパフォーマンスを上げるためにカスタムチップに頼る企業が増えているが、Amazonもその例外ではない。同社は2019年に、機械学習の推論学習を高速化するためにInferentiaチップを導入した。その後、同社は2020年に機械学習のモデルの学習専用である第2のTrainiumチップをローンチした。そして本日、AWSはこれまでの流れの続きとして、最新の機械学習チップ「Trn1」を発表した。

関連記事
AWSがカスタム推論チップのInferentiaを発表
AWSが機械学習トレーニング用の新カスタムチップTrainiumを発表

初めてAWS re:Inventのキーノートを担当するAdam Selipsky(アダム・セリプスキー)氏は米国時間11月30日、最新のチップに関する発表を行った。

「Trainiumからパワーをもらっている新しいチップ、Trm1を発表できることに、私はワクワクしています。Trm1はクラウドでディープラーニングモデルをトレーニングするための最高のコストパフォーマンスと、EC2での最速のパフォーマンスを提供してくれるでしょう」とセリプスキー氏は語った。

続けて「Trn1はEC2のインスタンスとしては初めて、最大で毎秒800ギガバイトの帯域を提供します。そのため、大規模なマルチノード分散型トレーニングのユースケースには絶対に最適です」という。これは画像認識、自然言語処理、不正検知、予測などのユースケースに有効なはずだとのことだ。

さらに、これらのチップをネットワーク化して「ウルトラクラスター」とすることで、より強力なパフォーマンスを発揮することができる。

「これらを一緒にネットワーク化して、何万もの訓練アクセラレーターがペタバイト規模のネットワーキングへ相互接続した状態を、私たちは『ウルトラクラスター』と呼んでいます。そうしたウルトラクラスターの訓練を、強力な機械学習スーパーコンピューターが行い、パラメータが何兆個もあるような複雑な深層学習のモデルでも快速で訓練できます」とセリプスキー氏はいう。

セリプスキー氏によると、同社はSAPなどと協力して、この新しい処理能力の利用を追究していく計画だとのことだ。

画像クレジット:Ron Miller

原文へ

(文:Ron Miller、翻訳:Hiroshi Iwatani)

投稿者:

TechCrunch Japan

TechCrunchは2005年にシリコンバレーでスタートし、スタートアップ企業の紹介やインターネットの新しいプロダクトのレビュー、そして業界の重要なニュースを扱うテクノロジーメディアとして成長してきました。現在、米国を始め、欧州、アジア地域のテクノロジー業界の話題をカバーしています。そして、米国では2010年9月に世界的なオンラインメディア企業のAOLの傘下となりその運営が続けられています。 日本では2006年6月から翻訳版となるTechCrunch Japanが産声を上げてスタートしています。その後、日本でのオリジナル記事の投稿やイベントなどを開催しています。なお、TechCrunch Japanも2011年4月1日より米国と同様に米AOLの日本法人AOLオンライン・ジャパンにより運営されています。