Nvidia(エヌビディア)は米国時間8月26日、GPU仮想化技術(vGPU)をVMWareのvSphereとAWS上のVMware Cloudに導入するために、VMwareと協力していることを発表した。同社のコアなvGPUテクノロジは新しいものではないが、サーバー仮想化をサポートするようになったため、vSphereのような環境で新しいvComputeServerテクノロジーを使用し、ハードウェア・アクセラレーテッドAIやデータサイエンス関連処理を実行することができる。
従来(人工知能の訓練に関する限り)、GPUにより高速化される処理はベアメタルサーバー上で実行される傾向があり、通常は企業の他のサーバーとは別に管理されていた。
「vComputeServerにより、IT管理者は既存のワークフローを維持し、全体的な運用コストを削減しながら、GPUにより高速化された仮想化サーバーの管理を効率化できる」 と、Nvidiaは説明している。「この技術がもたらす利用効率の向上により、企業はGPUの共有と集約において、コスト面でのメリットを享受できる」。
vComputeServerはVMware Sphere、vCenter、vMotion、VMware Cloudと連携する。実際、両社は同じvComputeServerテクノロジーを使用して、AWS上のVMware CloudにもアクセラレーテッドGPUサービスを提供している。これにより、企業はコンテナ化されたアプリケーションを必要に応じて自社のデータセンターからクラウドに移行し、AWSの他のクラウドベース技術に接続できる。
「運用インテリジェンスから人工知能に至るまで、企業は収益に直接影響する高速で正確な予測を行うために、GPUアクセラレーテッドコンピューティングに依存している」と、Nvidiaの創設者兼CEOのJensen Huang(ジェンスン・フアン)氏は述べている。「VMwareとともに、企業全体でイノベーションを促進するために、最も先進的で最高のパフォーマンスを発揮するGPUアクセラレーテッド・ハイブリッドクラウドインフラストラクチャを設計している」
(翻訳:塚本直樹 Twitter)