AWS、カスタム推論チップのInferentiaを発表

AWSは米国時間123日にre:InventのカンファレンスにてInferentiaチップのローンチを発表した。この新しいチップは、その存在自体は昨年発表されていたもので、推論、すなわち前もって訓練された機械学習モデルを使用して、非常に高速かつ費用効果の高い推論を行うことができるのが特徴だ。

AWSCEOことAndy Jassy(アンディ・ジャシー)氏は、多くの企業がモデルを訓練するためのカスタムチップに注力していると述べている(ただしGoogleをはじめとする企業は、この意見に反対するだろう)。推論は通常のCPUでもうまくいく傾向があるが、カスタムチップの方が明らかに高速だ。AWSInfiretiaは、EC4上の通常のG4インスタンスにおいてレイテンシが低く、またスループットあたりのコストも40%削減できる。

新しいInf1インスタンスは最大2,000TOPSを達成し、TensorFlowPyTorchMXNetONNXフォーマットといったフレームワーク間でのモデルを移動の統合を特徴とする。今のところはEC2サービスでしか利用できないが、近くAWSのコンテナサービスと機械学習サービスのSageMakerにも提供される予定だ。

[原文へ]

(翻訳:塚本直樹 Twitter

投稿者:

TechCrunch Japan

TechCrunchは2005年にシリコンバレーでスタートし、スタートアップ企業の紹介やインターネットの新しいプロダクトのレビュー、そして業界の重要なニュースを扱うテクノロジーメディアとして成長してきました。現在、米国を始め、欧州、アジア地域のテクノロジー業界の話題をカバーしています。そして、米国では2010年9月に世界的なオンラインメディア企業のAOLの傘下となりその運営が続けられています。 日本では2006年6月から翻訳版となるTechCrunch Japanが産声を上げてスタートしています。その後、日本でのオリジナル記事の投稿やイベントなどを開催しています。なお、TechCrunch Japanも2011年4月1日より米国と同様に米AOLの日本法人AOLオンライン・ジャパンにより運営されています。