AMDのインテル対抗機EPYC RomeプロセッサーをGoogleとTwitterは早くも使用

AMDは米国時間8月7日、GoogleやTwitterもEPYC Romeプロセッサーをすでに使っていると、その7nmチップの立ち上げイベントで発表した。EPYC Romeのリリースは、AMDのIntel(インテル)とのプロセッサー競争で大きな差をつけたことになる。後者は先月、同社の7nmチップであるIce Lakeの提供は2021年以降になると発表したばかりだ。10nmノードのリリースは今年らしい。

データセンター用のプロセッサーでは依然Intelが最大のメーカーで、GoogleやTwitterもその顧客だ。しかしAMDの最新のリリースと低価格戦略は、同社を急速に手強いライバルに変えてしまった。

Googleは前にも、2008年のMillionth Server(百万台目のサーバー)などでAMDのチップを使用。そして今回は、自社のデータセンターで新世代EPYCチップを使っている最初の企業だ。今年遅くには、Google Cloud Platformからこのチップで動く仮想マシンが一般に供用される。

Googleのエンジニアリング担当副社長であるBart Sano(バート・サノ)氏は記者発表で「AMDの第2世代Epycプロセッサーにより私たちは、データセンターにおけるベスト、すなわちイノベーションを継続できる。そのスケーラブルなコンピュートとメモリとI/Oのパフォーマンスが、私たちのインフラストラクチャにおけるイノベーション推進能力を強化し、Google Cloudの顧客にはワークロードに最もよく合ったVMを選べる自由度を与える」とコメント。

一方Twitterは、同社データセンターにおけるEPYC Romeの使用を今年遅くに開始する。同社のエンジニアリング担当シニアディレクターであるJennifer Fraser(ジェニファー・フラサー)氏によると、このチップはデータセンターの電力消費量を節減する。すなわち[AMD EPYC 7702を使えばコンピュートクラスターのコア数増大と省スペースと省エネを同時に実現でき、TwitterのTCOを25%削減できる」という。

2ソケットIntel Xeon 6242とAMD EPYC 7702Pプロセッサーの比較テストで、AMDによれば「さまざまなワークロード」においてTCOを最大50%下げることができた。AMD EPYC Romeのフラグシップ機は64コア128スレッドの7742チップで、ベース周波数2.25GHz、デフォルトTDP225W、キャッシュ総量256MB、価格は6950ドルより。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

AWSがクラウドのインフラストラクチャをさらに拡張、AMD EPYCを使うT3aインスタンスを供用開始

Amazonは常に、AWSを使っているデベロッパーに提供するオプションを増やそうとしている。そして米国時間4月25日、同社はそのためにAMD EPYCプロセッサーによるT3aインスタンスを数多く発表した。これらは最初、昨年のデベロッパーカンファレンスre:Inventで発表された。

しかし今日のは、その一般供用の開始を告げる発表だ。それらはバーストのある特殊なタイプのワークロードに適したインスタンスで、ユーザーの通常の計算力のニーズはそんなに、バースト時ほど高くはないというものだ。

AWSのJeff Barr氏がブログにこう書いている。「これらのインスタンスはバーストに対応できる費用効率のいいパフォーマンスを提供し、常時維持されるコンピュートパワーとしてはそれほど高いパワーを必要としないが、使用時に一時的なスパイクがあるワークロードに適している。そのため、十分に余裕のある、確実に保証されたベースラインの処理能力を提供するとともに、さらなる処理能力が必要なときには、必要十分な時間、完全なコアパフォーマンスにまで透明にスケールアップする能力がある」。

これらのインスタンスは、Amazonが数年かけて開発した特製のネットワーキングインタフェイスハードウェアAWS Nitro Systemを使用する。このシステムの主要な部位は、Nitro Card I/O Acceleration、Nitro Security Chip、そしてNitro Hypervisorだ。

今日のリリースの前身として、昨年発表されたArmベースのAWS Graviton Processorsを使用するEC2インスタンスがある。これもまた、スケールアウトするワークロードのためのソリューションを探しているデベロッパー向けのオプションだ。

さらにこの直前の先月には、低コストのAMDチップを使用するM5およびR5インスタンスが発表された。これらもやはり、Nitro Systemを基盤としている。

EPCYプロセッサーは今日から7つのサイズで可利用になり、必要に応じ、ユーザーが選んだスポットインスタンスやリザーブドインスタンス、あるいはオンデマンドインスタンスで提供される。可利用域はUS East(Northern Virginia)、US West(Oregon)、EU(Ireland)、US East(Ohio)、そしてAsia-Pacific(Singapore)だ。

画像クレジット: Thomas Cloer/Flickr CC BY-SA 2.0のライセンスによる

関連記事: AWSはアグレッシブに世界制覇を目指す――エンタープライズ・コンピューティングで全方位路線

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

自動運転車に深入りしたいルネサスが$6.7Bの巨額買収に踏み切る

日本の半導体企業Renesasは、自動車産業向けのチップのサプライヤーとして世界最大の企業のひとつだ。その同社が、自動運転技術により一層注力するために、アメリカのチップ企業IDTを67億ドルで買収しようとしている。

Renesasはさまざまなデバイスを動かし制御するマイクロプロセッサーや回路を作っており、中でもとくに自動車産業が中核だ。供給量ではNXPに次ぎ、売上の半分以上が自動車業界からだ。一方IDTは電力管理とメモリーが主な製品で、とくにワイヤレスのネットワークとデータの変換や保存にフォーカスしている。これらはコネクテッドデバイス(ネットワークに接続されたデバイス)の成長とともにますます重要であり、データの高レベルなストリーミングと対話…大量で高速なデータ通信…を要求する自動車ではとくに重要だ。

IDTの買収は同社の株価の29.5%で行われようとしており、自動運転車に関するRenesasの技術力強化をねらっている。Renesasによれば、その事業を、ロボティクスやデータセンター、そのほかのタイプのコネクテッドデバイスなど、“データエコノミー”の分野に拡大することも、ねらいの一つだ。

Renesasはすでに、自動運転車の技術をデモしており、Intelなどと直接競合する立場になる。昨年同社は、ハイブリッドカーやEVの電池の電圧をコントロールする技術を持つIntersilを32億ドルで買収しており、IDTの買収はその路線のさらなる延長だ。

“両社の製品の重複はほとんどないから、Renesasにとって健全な買収戦略だが、価額がちょっと高すぎるのではないか”、とBloombergのアナリストMasahiro Wakasugiは言っている

IDTの買収案件はRenesasが先月、最初に買収の関心を示してから二週間が経過した。買収の法的承認および完了は2019年の前半と予想されている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleの機械学習専用カスタムチップはGPU/CPUマシンの15〜30倍速い…同社ベンチマークを発表

【抄訳】
Googleが同社の機械学習アルゴリズムを高速に実行するカスタムチップを独自に開発したことは、前から知られていた。その Tensor Processing Units(TPU)と呼ばれるチップが初めて公開されたのは、2016年の同社のI/Oデベロッパーカンファレンスだったが、詳しい情報は乏しくて、ただ、同社自身の機械学習フレームワークTensorFlowに向けて最適化されている、という話だけだった。そして今日(米国時間4/5)初めて、同社はこのプロジェクトの詳細ベンチマークを共有した。

チップの設計をやってる人なら、Googleのペーパーを読んで、TPUの動作に関するややこしいすばらしい詳細情報を理解できるだろう。でもここで主に取り上げたいのは、Google自身のベンチマークの結果だ(客観的な第三者の評価ではない)。それによるとTPUは、Googleの通常の機械学習のワークロードを、標準のGPU/CPU機(IntelのHaswellプロセッサーとNvidia K80 GPUs)より平均で15〜30倍速く実行できた。また、データセンターでは電力消費が重要だが、TPUのTeraOps/Wattは30〜80倍高い。将来は高速メモリの使用により、これよりもさらに高くなるという。

なお、これは実際に使われている機械学習モデルを使った場合の数字であり、モデルの作成は関わっていない。

Googleによると、一般的にこの種のチップはconvolutional neural networks畳み込みニューラルネットワーク、画像認識などによく使われる)向けに最適化されることが多いが、Googleのデータセンターのワークロードではこの種のネットワークは全体の約5%にすぎず、大多数はmulti-layer perceptrons(多層パーセプトロン)のアプリケーションだ、という。

【中略】

Googleには、TPUを自分のクラウドの外で可利用にする気はないようだが、しかし同社は、これを勉強した誰かが将来、彼らが作る後継機により、“バーの高さをさらに上げる”ことを期待する、と言っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))