Nvidiaが高速コンピューティングのためのデータストレージと管理プラットホーム開発のSwiftStackを買収

Nvidiaは米国時間3月5日、SwiftStackを買収したことを発表した。同社はソフトウェアを中心にデータを保存し管理するプラットホームで、パブリッククラウドとオンプレミス、そしてエッジへのデプロイをサポートしている。

その最新のバージョンはAIとハイパフォーマンスコンピューティングおよびGPUなどによる) 高速コンピューティングのワークロードをサポートしており、Nvidiaの関心はもっぱらそこにあると思われる。

SwiftStackの共同創業者でCPOのJoe Arnold(ジョー・アーノルド)氏は、本日の発表声明で「SwiftStackのチームはAIコンピューティングの構築に傾注してきた。Nvidiaの有能な人びとと共に仕事をすることは、そんな我々にとって最高に素晴らしいことだ。同社の世界最高の高速コンピューティングのソリューションに貢献できる日が、待ち遠しい」と述べている。

買収の価額は公表されていないが、SwiftStackはこれまでシリーズAとBのラウンドで約2360万ドル(約25億円)を調達している。それらのラウンドをリードしたのはMayfield FundとOpenView Venture Partners、ほかにStorm VenturesとUMC Capitalが参加した。

2011年設立のSwiftStackは、ごく初期のOpenStack企業でもある。その大規模なオープンソースプロジェクトは、企業のデータセンターにAWSのようなプラットホーム管理能力を与えた。SwiftStackはOpenStackの中でもとくにオブジェクトストレージSwiftの最大のコントリビューターで、そのさまざまな関連サービスを提供した。しかし近年ではOpenStackの人気の衰えと共に、その関係も薄れていた。

現在のSwiftStackは、PayPalやRogers、データセンターのプロバイダーDC Blox、Snapfish、TechCrunchの親会社Verizonなどが主な顧客だ。Nvidiaも顧客である。

SwiftStackによると、今後もSwiftやProxyFS、1space、およびControllerのような既存のオープンソースツールのメンテナンスは継続する。

アーノルド氏は「SwiftStackの技術はすでにNvidiaのGPUによるAIインフラストラクチャの重要な部分であり、買収によってさらにその関係が強まるだろう」と説明した。

関連記事:OpenStackのストレージプラットホームSwiftによるオブジェクトストレージサービスSwiftStack1600万ドルを調達

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Nvidiaの新しいハイエンド、TuringアーキテクチャはリアルタイムのレイトレーシングとAIを合体

このところ、Nvidiaの新しいアーキテクチャTuringに関するリークは、サンタクララにある同社の本社が震源だったようだ。それを当然と思わせるかのように同社は、今日のSiggraphのキーノートで、この新しいアーキテクチャと、Quadro系列の一員となる、プロ用ワークステーションのグラフィクスカード3種のローンチを発表した。

NvidiaによるとTuringアーキテクチャは、“2006年のCUDA GPU以来のもっとも偉大な飛躍”だ。相当な大言壮語だが、意外と真実をついているのかもしれない。これらの新しいQuadro RTxチップは、同社の新製品RT Coresをフィーチャーする最初のチップであり、ここで“RT”はレイトレーシングを意味する。それは、光がシーン中のオブジェクトと対話/干渉するときの径路を追跡するレンダリング方法だ。この技術の歴史は、とても長い(AmigaのPOV-Rayをおぼえておられるだろうか)。従来からこの技術はきわめて計算集約的だったが、物をリアルに見せる点では優れていた。最近では高速GPUが並列処理で一度にたくさんの計算をできるようになったため、Microsoftが最近、DirectXにレイトレーシングのサポートを加えるなど、新たな脚光を浴びている。

NvidiaのCEO Jensen Huangはこう語る: “ハイブリッドレンダリングがわれわれの業界を変え、そのすばらしい技術の可能性が、美しいデザインとリッチなエンターテインメントと、充実した対話性で、私たちの生活を豊かにするだろう。リアルタイムのレイトレーシング*の到来は長年、われわれの業界の見果てぬ夢だったのだ”。〔*: レイトレーシングのリアルタイム化。〕

この新しいRTコアはレイトレーシングをNvidiaの従来のPascalアーキテクチャに比べて最大25倍高速化し、Nvidiaが主張する最大描画速度は毎秒10 GigaRaysだ(下表)。

Turingアーキテクチャによる三つの新しいQuadro GPUは、当然ながら同社のAI専用ユニットTensor Coresと4608基のCUDAコアを搭載し、最大毎秒16兆の浮動小数点数演算と、それと並列に毎秒16兆の整数演算を行なう。そのチップは作業用メモリとしてGDDR6メモリを搭載し、NvidiaのNVLink技術によりメモリ容量を96GB 100GB/sまで増強している。

AIの部分は、いまどき当然であるだけでなく、重要な意味もある。Nvidiaが今日ローンチしたNGXは、AIをグラフィクスのパイプラインに持ち込むための新しいプラットホームだ。同社はこう説明する: “NGXの技術は、たとえば、標準的なカメラフィードから超スローなスローモーションの動画を作りだすなど、これまでは10万ドル以上もする専用カメラにしかできなかったことをする”。また映画の制作現場は、この技術を使って容易にワイヤを消したり、正しいバックグラウンドで欠けているピクセルを補ったりできるそうだ。

ソフトウェアに関しては、Nvidiaは今日、同社のMaterial Definition Language(MDL)をオープンソースにする、と発表した。

今すでにTuringアーキテクチャのサポートを表明している企業は、Adobe(Dimension CC), Pixar, Siemens, Black Magic, Weta Digital, Epic Games, Autodeskなどだ。

もちろんこれだけのパワーには、お金もかかる。新しいQuadro RTX系列は16GBの2300ドルが最低価格で、24GBでは6300ドルになる。倍の48GBなら、約1万ドルだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Nvidia CEO、同社のGPUはMeltdownとSpcectreの影響を「一切」受けないと明言

1月9日(米国時間)Nvidiaはセキュリティー情報を公開し、GoogleのProject Zeroが発見したいわゆるMeltdown CPU脆弱性に対応する、同社のドライバーソフトウェアのアップデートについて詳細を説明した。この情報は一部メディアによって、Nividiaが同社のGPUも影響を受けていると認めたものと誤解された。

「当社のGPUはこうしたセキュリティー問題の影響を受けていない」と、NvidiaのCEO Jensen Huangが記者との一般質疑で語った。「われわれが公開したドライバー・アップデートはCPUのセキュリティー脆弱性にパッチを当てるためだ。われわれがこのCPU脆弱性のパッチを当てるのは、Amazonと同じく、SAPと同じく、Microsoftやその他の会社と同じく、われわれもソフトウェアを持っているからにほかならない」。

Huangは、どんなソフトウェアを動かしている人でも、研究者らが発見したこのCPU脆弱性を修正するパッチを当てる必要があると説明した。同氏はNvidiaが自社ハードウェアに関する問題のためにパッチを当てていることは一切ないことを強調した。

「私は当社のGPUが影響を受けていないことを100%確信している」とHuangは言い切った。

またNvidiaは、セキュリティー情報を更新し、現在わかっている限り、同社のハードウェア製品が今回発見された脆弱性の影響を受けていないことを明言した」。

[原文へ]

(翻訳:Nob Takahashi / facebook

Nvidiaと建設重機大手Komatsuがパートナーして現場の安全性をAIで強化

Nvidiaが、建設や鉱業用重機の世界最大のメーカーのひとつであるKomatsu(小松製作所)と組んで、現場の安全と効率の向上のために、AIを導入していくことになった。

NvidiaのCEO Jensen Huangはこのパートナーシップを今日(米国時間12/13)、GTC Japan(GPU技術のカンファレンス)で発表し、NvidiaのGPUを現場で稼働する重機の仮想的な‘脳’として提供して、その上で、AIに制御されるNvidiaの組み込みプラットホームJetsonが動く、と説明した。

両社の協働関係は、Komatsuが2015年から動かしている、インターネットに接続されたスマートワークサイト事業SMARTCONSTRUCTIONの発展的継続として展開される。これからはNvidiaの技術がKomatsuによる建設現場全体の3D視覚化の構築を助け、現場で仕事をしている人と機械の状況をリアルタイムで把握できるようにする。

視覚化のための画像はSkyCatchのドローンが提供し、Jetsonが画像処理を担当する。そのためのカメラは重機の各所に据え付けられ、それらにより適切なエッジコンピューティングが行われる。

Nvidiaはこれまでも同社の技術が産業用や商用のアプリケーションに数多く利用されており、その経歴も、今回の建設業における安全と効率の向上に寄与貢献するだろう。その成功のためには、十分に広範囲な実装が期待される。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

IBMがディープラーニングのモデルの訓練を分散並列処理で短時間化するライブラリを発表

二か月前にFacebookのAI研究所FAIRが、大規模な分散ビジュアル認識モデルの、かなり感動的な(==短い、はやい)訓練時間を発表した。今日(米国時間8/7)はIBMが反撃に出て、独自の数字を発表した。IBMの研究グループによると、1000のクラスに対応する画像分類モデルResNet-50を、256のGPUを使用するシステムで50分で訓練できた。つまり、Facebookのモデルよりもはやい、と言いたいのだ。FacebookがCaffe2を使った結果では、同じResNet-50を、8kのミニバッチ方式で、256のGPU上で1時間で訓練できた。

しかしそもそも、それのどこが重要なのか? 分散処理はAIの研究でも重要な関連分野だが、でもそれは、科学的というより、あまりにも技術的なテーマだ。しかもディープラーニングのような大きなジョブは、ジョブを分割し、複数のCPU(ここではGPU)に分担させて同時並行的にやるのが、大規模高速コンピューティングの昔からの定石だ。

しかしディープラーニングのモデルの訓練では、GPUの台数と処理速度が単純に比例しない。1台のGPUで2分かかる訓練が、2台のGPUだと1分で済むか、というとそうは行かない。タスクの分割と結果の再結合という面倒な処理が、かなりの時間を食う。

IBMが約束しているのは、大きなディープラーニングの問題を数百の小さな問題に分割して効率的に行う、分散ディープラーニングライブラリだ。それらは単一のコンピューティングジョブが目的ではなくて、IBMやFacebookが毎日のようにやっているのは、何百万もの顧客のためのモデルの訓練だ。大手のテクノロジー企業はどこもそんな課題を抱えているが、企業により問題により変数の数や性質が異なるため、それらを単純に横並びで比較することはできない。

しかし、分散処理の漸進的な改良にもそろそろ限界があるのではないか。IBM Researchでシステムのスピードとメモリを担当しているディレクターHillery Hunteによると、今やどこも最適解に近づいている、という。

“今やシステムの能力の限界まで来ているから、最適解に近いと言える。今後の改良の大きさがどの程度になるのか、そもそも学習時間にこれ以上の改良は可能なのか、そろそろ問うてみる必要がある”。

IBMは今後ResNet-50だけでなくResNet-101も分散訓練を試してみる予定だ。101は50よりもずっと大きくて複雑なビジュアル認識のモデルだ。チームによると、GPU 256基の分散システムの上で、データセットとしてImageNet-22kを使って行ったResNet-101の訓練では7時間を要した。それは、かなり良好な結果だそうだ。

“この分散訓練は小さなシステムにもメリットはある”、とHunterは言う。“しかもGPUが256とか、システムが64までは(小さなシステムでは)要らないからね”。

このディープラーニングライブラリは、TensorFlowやCaffe、Torchなど、主なオープンソースのディープラーニングフレームワークで利用できる。自分で試してみたい方は、PowerAIから入手できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

機械学習の体験と学習を民主化・大衆化したいPaperspaceがY Combinatorらに支えられてGPU VMを導入

Amazon, Microsoft, Googleの三社とあえて同時にたたかう企業はめったにないが、でも弱冠3歳のPaperspaceは、データサイエンティストを優遇することによってクラウドコンピューティングのニッチを開拓できる、と考えている。今日(米国時間5/3)同社は、Nvidia Pascal GPUを使用する仮想マシンを立ち上げた。そこには機械学習のフレームワークがすでにインストールされており、Paperspaceはプロシューマーや熱心なデータサイエンティストたちから成る新興市場にも対応しようとしている。

“Amazon Web Services(AWS)は素晴らしいけど、気軽に手を出せない”、とPaperspaceの協同ファウンダーDillon Erbは言う。

クラウド上の機械学習を、もっと、とっつきやすいものにするために、PaperspaceはユーザーのWebブラウザー上に、彼らが日常使い慣れているLinuxのデスクトップを提供する。そこから誰もが、安全なシェルや端末を使ってコードを実装できる。インタフェイスはWeb、ハードウェアはGPU、そしてPaperspaceは、2560 CUDAコアのPascalチップと16GBのメモリを1時間65セントという低料金で提供する。

“この1年半ぐらいで、GPUを要望する人が急に増えてきたね”、とErbは述べる。

このような、民主化された機械学習の市場サイズが、どれぐらい大きいのか小さいのか。それはまだPaperspaceにも分からないが、同社のユーザーたちがローンチした仮想マシンは5万を超えている。かなりの需要があることは確かだが、まだ同社としてはきわめて初期的な段階だ。

クラウドから機械学習を提供する、いわゆる、サービスとしての機械学習(Machine learning as a service, MLaaS)のスタートアップは、このところあまり人気がない。理由はいろいろあるが、そのひとつは、高度な技術を持っているエンジニアたちの市場と、開発過程を初心者のために単純化するプロダクトとのあいだに、ミスマッチがあることだ。

PaperspaceをBonsaiH2O.aiなどと同列に扱うことはできないが、それでも上記のたとえは当てはまる。すでに大企業を顧客として抱えている既存のクラウドコンピューティングサービスも、今後ますます民主化へ向かうだろう。だから機械学習プラットホームの民主化は、必ずしも処女市場ではない。しかもデータセンターをスクラッチで(ゼロから)立ち上げアップグレードしていく費用は、膨大である。

Y Combinatorとニューヨーク大学、そしてInsight Data Scienceが、Paperspaceの初期からのパートナーだ。GPUを使う同社の新しい仮想マシンは、Insightが専門技術者の教育訓練に利用する。YCも同社のシンプルで使いやすいシステムを、今後のAIスタートアップの育成事業に利用するために、今実験を行っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Nvidiaの最上位グラフィクスカードの最新バージョンTitan XpはMacもサポートする

Nvidiaはグラフィクスカードの最上位機種Titanを毎年アップデートするから、火曜日(米国時間4/4)にTitan Xpが発表されたのも自然な成り行きだ。Titan Xpの新しい仕様は、毎秒11.4Gb(!)の高速メモリGDDR5Xが12GB、1.6GHzのCUDAコアがコア数3840という大軍、そして12 TFLOPsのすさまじい処理能力を誇る(毎秒12兆の浮動小数点演算という意味だ!)。

このようなGPUはどんなWindowsマシンにとっても王冠上の宝玉だが、でもNvidiaはmacOSのユーザーを忘れていない。Mac用のドライバーのベータが提供されるのは、これが初めてだ(今月の終わりごろになる)。今度のMac Proはまだ出ていない高性能の新しいGPUをサポート、というのはもしかしてこれのことだろう。でもドライバーがあれば、旧型のMac Pro(黒いゴミ缶以前のやつ)でもパワーアップするから、来年の新デザインのProを待ちきれない人にもぴったしだ。

この桁外れに強力なグラフィクスパワーが、Nvidiaで1200ドルで直販されている

なお、Titanシリーズのグラフィクスカードは通常、Pascalというコードネームの同じプロセッサーアーキテクチャがベースだが、クロックを上げたりシェーダーを増やしたりしてパフォーマンスとビジュアルをアップしている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Nvidiaはそのドライブコンピューターに運転助手機能を搭載しようとしている

147a0045

昨年の初めNvidiaは、AIスーパーコンピュータとして機能し、車に自動運転の能力を与える強力なシステムを編み出した。しかし、より安全な自動運転を実現するための、かなりの進歩は見られたものの、私たちが車を信用して全てを任せられるほどのレベルには、まだ遠く及んでいないようだ。

そこで「運転助手(Co-Pilot)」の登場だ。Nvidiaは、そのXavierドライブコンピューターに、運転手が運転を行う際にその補助を行う、新技術のAIアシスタントを焼き込もうとしている。そのAIアシスタントは、カメラやマイクなどを含む、あらゆる車内と車外のセンサーからのデータを取り込み、車内や周辺で何が起こっているのかを把握する。そしてそれは、何かに反応する必要があるときに、声あるいは可能な他の手段を通じて、運転手に通知を行う。

「AIが常時稼働しているだけで、車には信じられないほどの知覚能力が与えられます」。と語るのは、Nvidia CEOのJen-Hsun Huangだ。「私たちは、AI自身が運転したり、人間のために周囲に注意を払ったりすることになると考えています」。自動運転を行っていないときでも、それは周囲への注意を怠りません。例えば地図が変更されているとか、あまりに歩行者が多いといった理由で、AIが自動運転の安全性に確信が持てないときでも、それは状況への意識を完全に保ち、運転手のために注意を払い続けるべきです」。

今のところ、これはまだ少々新奇なアイデアもしくは研究プロジェクトのように見える。Nvidiaは、この技術を内蔵し、それをサポートするために必要なすべてのセンサーを備えた車を作るために、この先も複数の製造業者と提携する必要がある。ということで、私たちはこの技術が広く受け入れられたとき、そして受け入れられたとして、物事がどうなるかを正確に知ることはできない。そしてその実現は容易なものではないだろう。トヨタ研究所(Toyota Research Institution)の長Gill Prattは、私たちは完全自動運転からは「ほど遠い所にいる」と述べている。

同社は現在、ヨーロッパにおけるトラック業界のサプライヤであるZFと提携している。Hsunは、Nvidiaのドライブコンピュータを搭載した自動車を開発しているAudiとの協業と同様に、BoschもまたNvidiaのドライブコンピュータを採用すると語った(近日中に更に追加される予定だ)。

同技術の発表が行われたCESのステージで披露された1つの例は、近くの車線にオートバイが走っていた場合だ。もし運転手が完全な注意を払っていなかった場合には、運転手の視界に入っていないオートバイの前に車線変更しないようにするために、迅速な注意喚起が必要となるだろう。またこの技術は、運転手の顔を見ることで、どこを見ているのか、またどのような表情をしているのかを検知することができる。

「AIが注意を払うことになります、おそらくAIはあなたがいらいらしていて、停車して一休みすることが必要であることを検知することでしょう、そうした機能の提供も現在のAIネットワークなら可能です」とJen-Hsun Huangは語った。

このためには、NvidiaがGPUを構築する際に多くのリソースを投入したような強い活力が必要である。 Nvidiaは、多くのAI処理が、通常のプロセッサよりもGPUの方が得意な計算能力を必要とすることから、自身が有利な位置にいることに気付いている。それが昨年Nvidiaの株価を3倍に押し上げた原動力なのだ。

原文へ
(翻訳:sako)

NVIDIAのGPU最新製品二種は機械学習/深層学習/大規模データセンターに最適化、今やアクセラレータはゲームのためにあらず

12141_nvidia_tesla_m40_gpu_accelerator_angleright

今やGPUは、Crysisを高いフレームレートでプレイするためにある、という時代ではない。何らかの大規模な変換処理を行うコンピューティング技術の多くが、今ではGPUを使って並列処理の高速化を図っている。

ビデオのエンコーディングはその典型的な例だが、最近では機械学習もそのひとつだ。NVIDIAはとくに後者に力を入れており、今日(米国時間11/10)は新しいハードウェアアクセラレータ二種と、デベロッパやデータセンターの管理者がこれらのアクセラレータを深層学習とその上での画像/ビデオ処理に利用するための、一連のツールを発表した。

new_hyperscale_accelerators-624x322

さらにNVIDIAは今日、Mesosphereとのパートナーシップを発表した。Mesosphereは、大規模なデータセンターをあたかも単一のリソースプールのように管理できる、コンテナベースのツールで、NVIDIAとの提携により、“Webサービスの企業がアクセラレータを導入したデータセンターを構築およびデプロイし、次世代のアプリケーションに備えられるようにする”、としている。

DL_dog_340x340

MesosphereとNVIDIAの提携は、データセンターのオペレーティングシステムを自称するMesosphereを介してApache Mesosを使用するデベロッパにとって、データセンターでCPUやメモリ等のリソースと同列にGPUも利用できることを意味する。コンピューティングリソースとしてのGPUが単一のプールへとクラスタ化され、ソフトウェアが複数のジョブを、その互換GPUが動くさまざまなマシンへと自動的に分散化する。

NVIDIAが今日発表した二つのハードウェア製品、M40とM4 GPUアクセラレータは、とくにM40が機械学習向けに最適化され、データセンターでの使用をテストされている。M4も同様に最適化されているが、消費電力の低いビデオ処理などに向いている。

今ではAWSやMicrosoft(Azure)など、多くのクラウドベンダがGPUをメインに使った仮想マシン*を提供、または近く提供の予定だ。ほとんどの場合、使用しているのはNVIDIAのGPUである。Googleは社内的には機械学習を大々的に展開しているが、一般ユーザ向けのクラウドプラットホームにはGPUメインのインスタンスがない。でもおそらく、Google独自の機械学習サービスの提供開始と並行してGPUインスタンスも提供されるのではないか、と思われる。〔*: 日本語ページ。〕

nvidia-tesla-accelerated-performance

[原文へ]。
(翻訳:iwatani(a.k.a. hiwa)。