NVIDIAのGPU最新製品二種は機械学習/深層学習/大規模データセンターに最適化、今やアクセラレータはゲームのためにあらず

12141_nvidia_tesla_m40_gpu_accelerator_angleright

今やGPUは、Crysisを高いフレームレートでプレイするためにある、という時代ではない。何らかの大規模な変換処理を行うコンピューティング技術の多くが、今ではGPUを使って並列処理の高速化を図っている。

ビデオのエンコーディングはその典型的な例だが、最近では機械学習もそのひとつだ。NVIDIAはとくに後者に力を入れており、今日(米国時間11/10)は新しいハードウェアアクセラレータ二種と、デベロッパやデータセンターの管理者がこれらのアクセラレータを深層学習とその上での画像/ビデオ処理に利用するための、一連のツールを発表した。

new_hyperscale_accelerators-624x322

さらにNVIDIAは今日、Mesosphereとのパートナーシップを発表した。Mesosphereは、大規模なデータセンターをあたかも単一のリソースプールのように管理できる、コンテナベースのツールで、NVIDIAとの提携により、“Webサービスの企業がアクセラレータを導入したデータセンターを構築およびデプロイし、次世代のアプリケーションに備えられるようにする”、としている。

DL_dog_340x340

MesosphereとNVIDIAの提携は、データセンターのオペレーティングシステムを自称するMesosphereを介してApache Mesosを使用するデベロッパにとって、データセンターでCPUやメモリ等のリソースと同列にGPUも利用できることを意味する。コンピューティングリソースとしてのGPUが単一のプールへとクラスタ化され、ソフトウェアが複数のジョブを、その互換GPUが動くさまざまなマシンへと自動的に分散化する。

NVIDIAが今日発表した二つのハードウェア製品、M40とM4 GPUアクセラレータは、とくにM40が機械学習向けに最適化され、データセンターでの使用をテストされている。M4も同様に最適化されているが、消費電力の低いビデオ処理などに向いている。

今ではAWSやMicrosoft(Azure)など、多くのクラウドベンダがGPUをメインに使った仮想マシン*を提供、または近く提供の予定だ。ほとんどの場合、使用しているのはNVIDIAのGPUである。Googleは社内的には機械学習を大々的に展開しているが、一般ユーザ向けのクラウドプラットホームにはGPUメインのインスタンスがない。でもおそらく、Google独自の機械学習サービスの提供開始と並行してGPUインスタンスも提供されるのではないか、と思われる。〔*: 日本語ページ。〕

nvidia-tesla-accelerated-performance

[原文へ]。
(翻訳:iwatani(a.k.a. hiwa)。

投稿者:

TechCrunch Japan

TechCrunchは2005年にシリコンバレーでスタートし、スタートアップ企業の紹介やインターネットの新しいプロダクトのレビュー、そして業界の重要なニュースを扱うテクノロジーメディアとして成長してきました。現在、米国を始め、欧州、アジア地域のテクノロジー業界の話題をカバーしています。そして、米国では2010年9月に世界的なオンラインメディア企業のAOLの傘下となりその運営が続けられています。 日本では2006年6月から翻訳版となるTechCrunch Japanが産声を上げてスタートしています。その後、日本でのオリジナル記事の投稿やイベントなどを開催しています。なお、TechCrunch Japanも2011年4月1日より米国と同様に米AOLの日本法人AOLオンライン・ジャパンにより運営されています。