AWSは、いかなる市場のいかなる部分といえども、他社に譲るつもりはない。だが現在機械学習チップと言えば、NvidiaやGoogleのような名前が心に浮かぶ。しかし本日(米国時間11月28日)ラスベガスで開催中のAWS re:Inventにおいて、同社はInferentiaという名前の独自の専用機械学習チップを発表した。
「Inferentiaは非常に高スループットで低レイテンシ、そして安定したパフォーマンスを発揮する非常にコスト効果の高いプロセッサです」とAWSのCEOであるAndy Jassyは発表の中で説明した。
Constellation Researchのアナリスト、Holger Muellerは、Amazonはかなり遅れてはいるものの、多くの企業が将来的には機械学習アプローチを差別化しようとしているため、これは良いステップだと指摘した。
「機械学習操作(理想的には深層学習)を実行する速度とコストが、企業にとっての競争力を与える差別化要因となります。速度による優位性が、企業の(そして紛争を考えたときには国家の)成功を左右するのです。そうした速い速度は、カスタムハードウェアでのみ実現することが可能です。Inferentiaはそうしたゲームに参加するためのAWSの最初のステップなのです」とMuellerはTechCrunchに語った。彼が指摘したように、GoogleはTPUインフラストラクチャを用いて、この件に関しては2年から3年先行している。
InferentiaはINT8(8ビット整数)、FP16(16ビット浮動小数点)および混合精度をサポートする。さらに、それは複数の機械学習フレームワークをサポートする、例えばTensorFlow、Caffe2、そしてONNXなどが含まれる。
当然、Amazonの製品の1つとして、EC2、SageMaker、そして本日新しく発表されたElastic Inference Engineといった通常のAmazon製品からのデータを扱うことが可能だ。
チップは本日発表されたものの、Andy Jassyは、チップが実際に使えるのは来年からになると述べた。
[原文へ]
(翻訳:sako)