NvidaのGPUで動くHPのVR用バックパックPCは、遊び用ではなくてお仕事用

HPが、もっとも珍妙な種類のニッチ的PCに参入する。それは、バックパックコンピューターだ。 仮想現実コンピューティングという波から生まれたバックパックPCは、Oculus RiftやHTC Viveのような高級なVRヘッドセットをドライブするために必要なパワーを完全に提供するが、そのフォームファクターはユーザーがコードやケーブルをまったく引きずらずに、自由に歩き回れるものだ。同社の新製品HP Z VR Backpackはしかし、類似製品とはやや違っていて、本格的なワークステーションを想定した設計である。

HP Zは、Nvidia Quadro P5200 GPUを搭載し、モバイルのワークステーションクラスのグラフィクスカードがVRバックパックに使われるのは、今回が初めてだ。全重量は約4.5キログラムで、強力なGPUが複雑なシミュレーションと、そしてもちろん最高度のVR体験を可能にする。内蔵バッテリーのおかげで、しかも完全にコードレスだ。

発売は9月を予定し、お値段は3299ドルから、ユーザーが選んだオプションで最終価格は決まる。ふつうのデスクトップPCとしても使えるために、付属品としてドックがある。仮想環境の中を歩きまわっていないときでも、コンピューターとして使える。

無意味な製品のように思えるかもしれないが、しかし実際には、VRにはエンジニアリングやデザイン方面にいちばんおもしろい用途がありえる。たとえばプロトタイプを仮想的に作ったり、さまざまな変更の検証を実物を作らずにできたら、時間と労力の大きな節約になる。Tesla Model Sの競合車を発売するつもりのLucidなどはすでに、設計試作段階でVRが大幅な費用節約に寄与することを、デモしている。

同じ意味でZ VRは職業訓練にも使える、とHPは提案している。遠隔医療や、VRによるさまざまな体験センターもありえるだろう。当分はニッチにとどまるとしても、HPはそのニッチが時とともに広がり、VRがさまざまな業界や職種で利用されるようになる、と期待しているのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Nvidiaのチップ、Audiのレベル3自動運転車に搭載

この火曜日にAudiは来年登場予定の次世代A8はレベル3自動運転システムを搭載する初の量産車になることを明らかにした。Audi A8の自動運転システムにはNvidiaのテクノロジーが利用されており、「渋滞パイロット」機能を持つ。

Nvidiaはこれ以外にもA8のさまざまな能力を支えている。実際A8はNvidiaのチップを6基搭載しており、交通渋滞に対処するだけでなく、インフォテインメントシステム、バーチャルコックピット表示、後部座席用ヘッドレスト裏のタブレットなどを駆動する。

A8がレベル3になるということは、特定の状況、たとえば 時速60キロ以下あるいは高速道路を走行中などの場合、ドライバーは道路に注意を払う必要がなくなる。走行環境がそのような条件を満たすと、ドライバーは(現地の交通法規が許せば)車の運転に注意を払うことなく合法的に他の作業を行うことができる。ドライバーの操作が必要な状況になればシステムがドライバーにそれを要請する。

レベル3は現行のTeslaのオートパイロットより一段進んだ自動運転となる。Teslaのオートパイロットはレベル2に分類されており、ドライバーは走行中常に道路に注意を払い、即座に運転を代われる態勢を維持する必要がある。オートパイロットが高速道路で一定の範囲で速度を維持して走行することを主な目的としているのに対して、A8のシステムでは渋滞時にドライバーが一切の操作から解放されるのが大きな違いだ。

NvidiaのプロセッサはAudiのzFASシステムの頭脳となり、A8の自動運転を実現している。車両に装備されたレーダー、カメラ、レーザースキャナー、超音波センサーなどから得られたデータを処理し、車両が置かれた環境を総合的に認識する。渋滞パイロット・モードに入った場合、zFASシステムは自車の取るべき動作を決定する。このときシステムは毎秒25億回の入力を処理するという。

レベル3自動運転は本質的にある種の矛盾を抱えている。つまり一方ではドライバーはリラックスして他の作業をしてもよいとしながら、いざというときには即座に運転に戻らなければならず、完全に車任せにはできない。レベル4の自動運転になって始めてシステムが完全に車両をコントロールするようになる。自動運転中の事故の責任はシステム側にあるためAudiとNvidiaは自動運転システムに強い自信を持っているのだろう。

〔日本版〕自動運転のレベルについては日本もSEA(Society of Automotive Engineers)の区分を踏襲することを決定している。レベル3は「条件付運転自動化」とされ、システムが要請した場合を除いて車両側が加減速、ハンドル操作を含むすべての走行操作を実施する。詳しくは官民ITS構想ロードマップ2016(PDF)

[原文へ]

(翻訳:滑川海彦@Facebook Google+

SoftBankのNvidia株は時価40億ドルと報道――Vision Fundのプレスリリースから推定

先週末、日本のソフトバンクはVision Fundの最初の資金調達をクローズしたことを発表した。今回の出資コミットメントの総額は930億ドル〔約1兆円〕で、出資者にはApple、Qualcomm、Foxconnらが並んでいる。同時にソフトバンクがすでにNvidiaの株式を所有していることも何気なく発表されていた。

今日(米国時間5/24)のBloombergの記事はソフトバンクが所有するNvidia株式は時価40億ドル相当と推測している。これは持ち分が4.9%とした場合の価格で、Nvidiaの第4位の株主となる。

土曜日に発表されたVision Fundのラウンドのクロージングに関するプレスリリースには、同ファンドが「SoftBank Groupが買収した(あるいは買収が承認された)投資対象を買収する権利がある」旨書かれている。

この一節には投資対象としてNvidiaに並んでARMの24.99%の株式(昨年ソフトバンクが310億ドルで買収している)、 OneWeb、SoFiなども記載されていた。

われわれの取材に対し、ソフトバンクの広報担当者はNvidiaへの投資あるいはBloombergの記事についてコメントすることを避けた。

TechCrunchが最近報じたとおり、NvidiaのGPUは機械学習の爆発的な発達を支えるハードウェアの重要な柱となっている。AIはソフトバンクのVision Fundがもっとも力を入れている分野の一つで、孫正義CEOは、今年初めに、「次の30年はスーパー・インテリジェントなAIの時代になる」という見解を明らかにしている。孫CEOによれば、このことが1000億ドルのファンドをこれほど大急ぎで組成する理由なのだという。そうであれば、Nvidiaに大口投資を行ったのもこのビジョンの一環なのだろう。

そうであるにせよ、ソフトバンクが近年、巨額の投資を行っていることは事実だ。インドのフィンテックのユニコーン企業、Paytmに14億ドルを投資したことが発表されている。ロンドンのVRスタートアップ、Improbableが5億200万ドルを調達したラウンドではリーダーを務めた。、また50億ドルを中国におけるUberである配車サービスのDidi Chuxingに、17億ドルをOneWeb,に追加投資している(ソフトバンクは衛星コミュニケーションのOneWebに10億ドルを昨年出資した)。

NvidiaやARMの持ち分を含めてソフトバンクの投資のかなりの部分は直ちにVision Fundに移管されるだろう。ファンドはまたWeWorkにも投資する可能性がある。

Vision Fundは巨大だが、孫CEOは「普通のファンドだ」と語っている。なるほど規模も前代未聞のサイズだが、ビジネスモデルも詳しく検討する価値があるだろう。孫氏は今年初め、Bloombergのインタビューに答えて 「これらの会社のに対するわれわれの投資の大部分は20%から40%の利益をもたらすと同時に、筆頭株主、取締役会メンバーとして会社のファウンダーたちと将来戦略について話合うチャンスを与えてくれる」と語っている。

どうやら孫氏は金で買える最上のスーパー・インテリジェントAIの能力を最初に試せる少数の人間の1人になりそうだ。

画像: David Becker/Getty Images/Getty Images

〔日本版〕上場企業の株式取得にあたって情報公開義務が生じるのは5%であるところ、ソフトバンクのプレスリリースにはNvidiaの株式を所有していると記載されていたものの、これまで詳細が公開されていなかったことからBloombergは4.9%と推定したもの。なおVison Fundに対する出資者はソフトバンク・グループ他、以下のとおり。 SoftBank Group Corp (“SBG”) 、Public Investment Fund of the Kingdom of Saudi Arabia (“PIF”)…Mubadala Investment Company of the United Arab Emirates (“Mubadala”)、Apple Inc. (“Apple”)、Foxconn Technology Group (“Foxconn”)、Qualcomm Incorporated (“Qualcomm”)、Sharp Corporation ("Sharp")。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Nvidiaの利益、前年の2倍以上と絶好調――機械学習、ディープラーニングが追い風

Nvidiaのビジネスは絶好調だ。GPU事業は急拡大を続けており、自動運転テクノロジーなどへの巨額の投資も成功しつつある。先ほど発表された四半期決算を受けて株価は時間外取引で10%以上アップした。

2017年第1四半期の決算でNvidiaは5億700万ドルの純利益を上げたと発表した。これは前年同期の2億800万ドルから2倍以上の大幅アップだ。これと同時に売上も前年同期比で48%増加した。Nvidiaの急速な成長の原因は、自動運転や自然言語理解のようなディープラーニングによるコンピューター処理を担うGPUの需要が急増した点にある。

これによってNvidiaの前には、まったく新しい成長市場が開かれた。ウォールストリートはこの展開に強い好感を抱いたようだ。Nvidiaは以前からグラフィックスとゲーム用ボードの代名詞だったが、今や多くの企業、ことに人工知能を利用しようと試みるスタートアップにとって必須のハードウェア供給元になっている。膨大なデータを利用し、その場で効率的に処理するモデルにはNvidiaのカードが欠かせない。

AI以外の分野でもNvidiaのビジネスは好調だ。特にTegraプロセッサの売上は3億3200万ドルと倍増した。これには任天堂Switchのリリースが大きく貢献しているはずだ。

当面Nvidiaは投資家にとって金の卵を生む存在だ。もちろん現在の経営が順調だということは将来に渡ってGPUビジネスでライバルに脅かされずに済むことを保障しない。たとえばGoogleは機械学習のアルゴリズムを直接実行できるTPUチップの内製に取り組んでいる。人工知能全般に対する需要は高まっているが、そのうちで自動運転のような特定の分野に特化していくのがNvidiaの方針だ。

ちなみにここ1年のNvidiaの株価の動きは下のグラフのようになっている。

Nvidiaの今期の決算はウォールストリートのアナリストの予想を上回った。売上19.4億ドルの売上に対して1株あたり利益0.79ドルをもたらした。アナリストは19.1億ドルに対して0.67ドルだった。Nvidiaによれば「データセンターにおけるGPUコンピューティングは対前年比でほぼ3倍になっている」という。これはNvidiaの将来について重要な指標だろう。同社はディープラーニングが必要とするハードウェアの供給で(すくなくとも現在のところ)トップに立っていることは間違いない。

画像: David Becker/Getty Images/Getty Images

[原文へ]

(翻訳:滑川海彦@Facebook Google+

機械学習の体験と学習を民主化・大衆化したいPaperspaceがY Combinatorらに支えられてGPU VMを導入

Amazon, Microsoft, Googleの三社とあえて同時にたたかう企業はめったにないが、でも弱冠3歳のPaperspaceは、データサイエンティストを優遇することによってクラウドコンピューティングのニッチを開拓できる、と考えている。今日(米国時間5/3)同社は、Nvidia Pascal GPUを使用する仮想マシンを立ち上げた。そこには機械学習のフレームワークがすでにインストールされており、Paperspaceはプロシューマーや熱心なデータサイエンティストたちから成る新興市場にも対応しようとしている。

“Amazon Web Services(AWS)は素晴らしいけど、気軽に手を出せない”、とPaperspaceの協同ファウンダーDillon Erbは言う。

クラウド上の機械学習を、もっと、とっつきやすいものにするために、PaperspaceはユーザーのWebブラウザー上に、彼らが日常使い慣れているLinuxのデスクトップを提供する。そこから誰もが、安全なシェルや端末を使ってコードを実装できる。インタフェイスはWeb、ハードウェアはGPU、そしてPaperspaceは、2560 CUDAコアのPascalチップと16GBのメモリを1時間65セントという低料金で提供する。

“この1年半ぐらいで、GPUを要望する人が急に増えてきたね”、とErbは述べる。

このような、民主化された機械学習の市場サイズが、どれぐらい大きいのか小さいのか。それはまだPaperspaceにも分からないが、同社のユーザーたちがローンチした仮想マシンは5万を超えている。かなりの需要があることは確かだが、まだ同社としてはきわめて初期的な段階だ。

クラウドから機械学習を提供する、いわゆる、サービスとしての機械学習(Machine learning as a service, MLaaS)のスタートアップは、このところあまり人気がない。理由はいろいろあるが、そのひとつは、高度な技術を持っているエンジニアたちの市場と、開発過程を初心者のために単純化するプロダクトとのあいだに、ミスマッチがあることだ。

PaperspaceをBonsaiH2O.aiなどと同列に扱うことはできないが、それでも上記のたとえは当てはまる。すでに大企業を顧客として抱えている既存のクラウドコンピューティングサービスも、今後ますます民主化へ向かうだろう。だから機械学習プラットホームの民主化は、必ずしも処女市場ではない。しかもデータセンターをスクラッチで(ゼロから)立ち上げアップグレードしていく費用は、膨大である。

Y Combinatorとニューヨーク大学、そしてInsight Data Scienceが、Paperspaceの初期からのパートナーだ。GPUを使う同社の新しい仮想マシンは、Insightが専門技術者の教育訓練に利用する。YCも同社のシンプルで使いやすいシステムを、今後のAIスタートアップの育成事業に利用するために、今実験を行っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Nvidiaがそのベンチャー投資ポートフォリオに6社のAIスタートアップを追加した

NvidiaがAIスタートアップに投資したときには、背筋を伸ばしてメモをとることをお勧めする。このGPUメーカーが現在のAIを様々なやり方で実質的に可能にしているのだ、なのでおそらくこのメーカーは何年にも渡って、テクノロジーの潜在的な適用可能性を幅広く見て来ている筈で、何がうまく行きそうで何かそうではないのかという点に関して他よりも良く知っている筈なのだ。6つの新会社は注目を集めているだけでなく、NvidiaのGPU Ventures部門を通して資金提供を受けている。

これらには、小売業分析、データマイニング、自動運転車開発、音声駆動インターフェース、天気予報、医療画像などの、さまざまなビジネスおよび産業に焦点を当てた、世界中の企業が含まれている。異なる用途へ向けた多様性は、少なくとも部分的には戦略的なものだろう。なぜなら、こうすることで、この成長分野での潜在的なアプリケーションに対する、Nvidiaのすばらしい応用範囲を披露する役に立つからだ。

Nvidiaはまた、GPU Venturesに特化した新しいウェブサイトも用意している。ここには、現在のポートフォリオと、成功裏にエグジットを遂げた過去の投資の記録が掲載されている。

以下に示したのが、GPU Venturesのリストに加わる新しい企業の一覧である。Optimus Rideは、程なくその製品についての公開が行われる筈の素晴らしい技術的才能を持つ会社であり、そしてSoundHoundのAIピボットは、そのスタートアップの比較的名高い歴史の中でも特に興味深いものだ。

  • ABEJA – 東京を拠点にする、AIを用いた小売分析システムに焦点を当てたスタートアップ
  • Datalogue – コーネル大学で開発されたニューヨークAIデータマイニングプラットフォーム
  • Optimus Ride – 完全自動運転車を開発するMITスピンオフ
  • SoundHound – シリコンバレーのスタートアップで音声対応のAIソリューションを構築
  • TempoQuest – コロラド州ボウルダーを拠点とするスタートアップで、GPUを用いた気象予測を行なう
  • Zebra Medical – AIを使って医療画像の解釈を行なうイスラエル拠点のスタートアップ

[ 原文へ ]
(翻訳:Sako)

Nvidiaの最上位グラフィクスカードの最新バージョンTitan XpはMacもサポートする

Nvidiaはグラフィクスカードの最上位機種Titanを毎年アップデートするから、火曜日(米国時間4/4)にTitan Xpが発表されたのも自然な成り行きだ。Titan Xpの新しい仕様は、毎秒11.4Gb(!)の高速メモリGDDR5Xが12GB、1.6GHzのCUDAコアがコア数3840という大軍、そして12 TFLOPsのすさまじい処理能力を誇る(毎秒12兆の浮動小数点演算という意味だ!)。

このようなGPUはどんなWindowsマシンにとっても王冠上の宝玉だが、でもNvidiaはmacOSのユーザーを忘れていない。Mac用のドライバーのベータが提供されるのは、これが初めてだ(今月の終わりごろになる)。今度のMac Proはまだ出ていない高性能の新しいGPUをサポート、というのはもしかしてこれのことだろう。でもドライバーがあれば、旧型のMac Pro(黒いゴミ缶以前のやつ)でもパワーアップするから、来年の新デザインのProを待ちきれない人にもぴったしだ。

この桁外れに強力なグラフィクスパワーが、Nvidiaで1200ドルで直販されている

なお、Titanシリーズのグラフィクスカードは通常、Pascalというコードネームの同じプロセッサーアーキテクチャがベースだが、クロックを上げたりシェーダーを増やしたりしてパフォーマンスとビジュアルをアップしている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Nvidiaとボッシュ、車載用AIスーパーコンピューターで提携

NvidiaがAIを使った自動運転技術を世に出すための新しいパートナーに選んだのは ― 自動車部品サプライヤー最大手のBoschだった。BoschはNvidiaの技術を使い車載用AIスーパーコンピューターを作る。これでNividiaは、世界中の主要自動車メーカーに部品を供給する第一線サプライヤーとつながりを持つことになった。

NvidiaのAI自動運転技術のパートナーには、すでにAudi、Mercedes-Benzなどの自動車メーカーがいるが、Nividiaの業界への影響力を考えると今回の提携はもっともインパクトがあるかもしれない。ドイツ拠点のBoschは、家庭電化製品から、情報エンターテイメントまで幅広い商品を扱っている。

これは両パートナーの持てる力を最大限に引き出す連携といえる。Nvidiaは核となるAIスーパーコンピューター技術に集中し、Boschはスケールとリーチを広げるためのつながりと販売経路を提供する。

Nvidiaのディープラーニング・モデルは、個々の状況に向けて用意されたルールに頼るのではなく、人間の行動に基づく事例をシステムに提供しておけば、具体的なシナリオに応じて何をすべきかをAIが決定する。この実装に至るまでの中間段階にあるのがNvidiaのAIコ・パイロットで、人間ドライバーと共に使用され、ドライバーの注意がどこに向けられているかを理解して未知の危険について警告を与えるほか、ドライバーの唇を読むことで、車内が騒がしいときでも命令を理解できる。

Boschのスーパーコンピューターが採用するNividiaの最新アーキテクチャーであるXavierは、レベル4自動運転に対応した初のワンチッププロセッサーだ。

[原文へ]

(翻訳:Nob Takahashi / facebook

NvidiaのJetson TX2でカメラやセンサーなどネットの末端デバイスが高度なAIを持つ

Nvidiaの組み込みシステム用コンピューティングプラットホームJetsonに、次世代製品が登場した。組込みシステムといっても、開発対象は主に、交通監視カメラや製造用ロボット、スマートセンサーなどネットに接続されるデバイスで、今回の新製品Jetson TX2は前世代のTX1の倍の性能を持ち、また省電力モードでは本来の半分以下の電力消費で同じ処理能力を発揮する。

TX2はPascalベースのGPUと、Nvidia製64ビットクワッドコアARMチップ2基、RAM 8GB、高速フラッシュストレージ32GB、という構成である。ネットワーキングは802.11ac Wi-Fi、Bluetooth、1GB Ethernetを内蔵する。これらによりネットワークのリーチが長くなり、エッジデバイス(ネットワークの末端のデバイス)が分散ニューラルネットワークを動かして、オブジェクトや音声、まわりの環境などを正しく判定し、自動航行などを助けることができる。

Jetson TX2と並んで発表されたJetPack 3.0はJetson系列用AI SDKの新バージョンで、ディープニューラルネットワーク向けにはTensorRT 1.0, cuDNN 5.1をサポートし、コンピュータービジョンではVisionWorks 1.6、およびそのほかの最新のグラフィクスドライバーとAPIsをサポートする。

Ciscoは、同社のエンタープライズネットワークデバイスSparkに、TX2とJetsonを利用して顔や音声認識など、ローカルなAI機能を実装する、と言っている。それらの機能により、確かにセキュリティや認証が末端レベルで強化されるだろう。またTX2はAIを研究しようとする学生や研究者たちにとって、費用が非常に安上がりですむ。今日ローンチした新しいJetson開発キットは、アメリカとヨーロッパの予約価格が599ドルで、3月14日に発売される。

一方TX2モジュールは第二四半期に399ドルで発売される。既存のJetson組み込みコンピューティングプラットホームTX1とTK1は、値下げして提供を続ける。

このようにエッジデバイス(ネットワークの末端)が高度なAI機能を持つことにより、コネクテッドシティ(インターネットに接続された都市)はインテリジェントシティ(多様な電脳機能を持つ都市)へと成長する。電脳機能はもはや、中央のサーバーが独占するものではない。末端のさまざまな部位が何らかの知能を持つことによって、ネットワーク全体でものごとがスムーズに動くようになる。そしてネットワークの各ノードが知性主体ならば、インフラストラクチャの継続性とか、レイテンシーの懸念などを心配する必要もなくなる。Jetson TX2による世代更新など、エッジの機能・性能の向上により、未来がまた一歩近くなる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

東工大の人工知能スパコンはNvidiaチップを使う

2017-02-18-nvidia-tokyotech2

GPUメーカーとして有名になったNvidiaだが、ビジネスの中心は次第に人工知能にシフトしている。その最新の成果がこの夏にも稼働する予定だ。Nvidiaは日本の東京工業大学が開発中の次世代人工知能スーパーコンピューターに心臓部となるGPUを提供する。このコンピューターは完成すれば人工知能スパコンとして日本最速となるという。

NvidiaのTesla P100はPascalアーキテクチャに基づくGPUでTSUBAME3.0と名付けられたネットワークを駆動することになる。これは現行のTSUBAME2.5の2倍のパフォーマンスだ。ただしTSUBAME2.5も引退するわけではないのでご安心いただきたい。2.5は現役マシンとしてTSUBAME3.0の能力を補完し、トータルで64.3ペタFLOPSを目指すという。3.0のパフォーマンスは47.2ペタFLOPSが予定されている。これだけの処理能力に匹敵するiPhoneを集めるとすれば途方もない山ができるかもしれない。

TSUBAME3.0は今年夏の完成を目指しており、東京工業大学における教育とハイテク研究に役立てられる。また契約を結んだ民間企業も利用できる。大学ではこの新しい人工知能に訓練を開始するが待ちきれないとしている。

〔日本版〕東京工業大学学術国際情報センターのTSUBAMEページ

[原文へ]

(翻訳:滑川海彦@Facebook Google+

NvidiaのGeForce Nowはクラウド上からゲーム用高速PCを提供する(20時間25ドル)

img_0014

Nvidiaが今日(米国時間1/4)のCESのキーノートで、PCのためのゲームプラットホームGeForce Nowのローンチを発表した。

キーノートには同社のCEO Jen-Hsun Huangが自ら登場し、今のPCでは多くの場合、現代的なゲームをプレイできないのは、現代的なグラフィクスカードを搭載していないという単純な理由からだ、と指摘した。そこでGeForce Now for PCsは、クラウドからの十分に高速なゲームサービスを提供して、その欠陥を補おうとする。

3月から始まるGeForce Nowは、20時間のプレーが25ドルだ。Huangは曰く、“それは要するに、GeForceを搭載したゲーム用PCのオンデマンド提供だ”〔いわば、最新高速PCの時間貸しレンタル〕。最新のPCゲームをプレイしたいけれど、手持ちのハードウェアが非力、という多くのユーザーが、クラウド上に提供される仮想PCを使うことによって、自分のマシンの上であらゆる現代的なゲームをプレイできる。Windows PCだけでなく、Macのユーザーが(Macから)利用してもよい(下図)。

147a0025

かつてのOnLiveプラットホームを使ったことのある人は、あれみたいなものか、と思うかもしれないが、でもOnLiveはゲーム企業からのサポートに大きく依存していた。今日のキーノートでHuangは、NvidiaのGeForce Nowプラットホームの上でSteamのゲームが動いているところを見せたから、これには、“Nvidia自身が何をサポートしている/いない”、というレベルの問題はない。

Nvidiaは前にも、GeForce Nowというブランドを使ったことがある。でもそれはゲームをユーザーのPCにストリーミングするサービスであり、ゲームがクラウドからライブで提供されるサービスではなかった。

Huangが強調するのは、このサービスを十分に高速にするために、相当な開発期間を要した、ということ。そして最近やっと、技術者たち自身が納得できるスピードと、十分に少ない(目立たない、気にならない)遅延が実現した。

ただし、単純にブラウザーからではだめで、このサービスを使うためには専用の小さなクライアントをダウンロードする。それをインストールしてゲームをスタートするまで、数秒しかかからない、と言っているが、ぼく自身はまだ試していない。

Nvidiaはこのサービスを、自社のデータセンターでホストしているのか、それともAWSなどのクラウドプラットホームを利用しているのか、それも不明だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

NvidiaのSoC新製品Xavierは自動運転車のAIを支えるスーパーコンピュータだ

nvidia_xavier

自動運転車技術のリーダーを目指して頑張るすNvidiaが、今日(米国時間9/28)もまた新しいSoCをローンチ、それはのGPU Technology Conference Europeで発表されたXavierと呼ばれるチップだ。そのXavier SoCは、毎秒20兆回の演算を行い、電力は20ワットしか消費しない。

Xavierは自動運転車専用のチップで、とくにそのAIの部分を担当する。NvidiaのCEO Jen-Hsun Huangはカンファレンスの来場者に向かってこれを、“これまでで最高のSoC”と呼び、それはNvidiaのようにきわめて長年、シリコンをいじくるビジネスに没頭してきた企業だからできることだ、と言った。

車載用チップとしてXavierは、ISO 26262の安全性基準を満たし、実際に路上を走行する車の中で使われる電子製品に求められる、国際的規格に準拠している。このSoCの製造プロセスは16nm、Nvidiaの現行の車載コンピューターDRIVE PX 2を、その構成も含めてリプレースできる。ちなみにPX 2は二つのモバイルSoCと二つの単体GPU(ディスクリートGPU)から成り、それでも消費電力は少ない。

Xavierの主な市場ターゲットは、自動車メーカー、部品等供給業者、研究機関、そして独自の自動運転車の開発をねらっているスタートアップたちだ。ただし、実際の実車搭載は至近ではない。最初のサンプルの発売が、来年の第四四半期だそうだ。

自動運転車とAIとNvidia…NvidiaはTomTomとパートナーして、自社のAI技術とTomTomの地図データを結びつけ、ローカライズされた地図データを路上の車にリアルタイムで提供することを計画している。またNvidiaは、自社製のAIベースの自動運転車を研究製品としてすでにデモしており、それは、人間運転者の運転行為を観察して学習した、と称されている。

というわけで、今のNvidiaが自動運転技術に完全にはまっていることは確かであり、グラフィクスハードウェアの専業メーカーという企業イメージも、やがて薄れるのかもしれない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Nvidiaの「AIカー」は、人間ドライバーから学んだ知識だけを使って自動運転する

自動運転車への取り組みにはやり方がいくつかある。一つはアルゴリズムやルールをプログラムして、個別の状況でどう振る舞うべきかを車に教え込む方法。しかしNvidiaは、ディープラーニング手法を使って人間ドライバーから得た現実世界のデータを自動運転システムに提供し、運転の方法を自ら学ばせる ― まるでAI内蔵のスーパーティーンエージャーが、助手席に乗った経験だけで運転を覚えるように。

北米の平均的ティーンエージャーと同じく、Nvidiaのテスト車(BB8という愛らしい名前はスターウォーズのBB-8へのオマージュに違いない)は、まず駐車場で学習を始め、トラフィックコーンで区切られた車線を走って練習する。やがて卒業して路上に出ると、見通しのきかない交差点等の扱いにくい状況にも、何事もなかったように対応するようになる。

デモビデオは、このアプローチの潜在的優位性をいくつか紹介している。このシステムはカリフォルニアで訓練を受けたが、道路や運転環境の異なるニュージャージーでも問題なくテスト走行をこなした。車線標示のない道路でも、さらには夜間でも、特別なアルゴリズムを提供しなくても難なく走り通した。

Nvidiaによると、これは同社単独のプロジェクトであり、どの自動車メーカーも関与していない。次のステップはシステムの訓練を続け、時間と共にさらに賢くしていくことだという。

[原文へ]

(翻訳:Nob Takahashi / facebook

Nvidiaの自動運転車用AIコンピューターPX 2がさらに小型化省エネ化

nvidia_drive_px2_autocruise_1

Nvidiaが、同社の自動運転コンピューティングのための車載プラットホームDRIVE PX 2の、新しい構成を今日(米国時間9/13)披露した。電力効率が大幅に改善され、サイズも今年初めのCESで紹介された最初の製品より小さい。この新しいシングルコアの構成を、Baiduが同社の自動運転車に使う。NvidiaとBaiduはこの前パートナーシップを発表し、完全な“クラウドから車への”自動運転車を作ることになっている。

AIコンピューターPX 2はDRIVE PXの第二世代で、こちらはNvidiaによるとすでに多くのOEMや研究機関などのパートナーが使っている。このコンピューターは、自動運転車のモニタリングシステムからの視覚データとセンサーデータを自分自身でリアルタイムに処理できる。強力なリモートサーバーに接続していない自動運転車では、このような計算の自律性がきわめて重要だ。

PX 2は、車のメーカーや研究者のニーズに応じて、手のひらサイズのシングルコアから、マルチコア/マルチGPUの構成までスケールでき、複数のPX 2が一台の車の上で協働することもできる。単体のPX 2が、車載のカメラとセンサーからの入力を使ってAutoCruiseやHDの地図表示などの機能を提供できる。

この新しいSoCは、クライアント間におけるPX 2に対する期待をさらに大きく拡大するだろう。物理サイズと電力消費量の削減は、電気自動車のメーカーにもアピールするものと思われる。エネルギー効率の高いゼロエミッションカーを作ることは、車重の削減や電力の低消費化と表裏一体だ。個々のパーツの節約量が微々たるものでも、一台の車におけるその累積効果は無視できない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

IBMがNvidiaの最先端GPUとインターコネクト規格を使った高速高性能サーバー機を披露

under-the-hood-of-the-new-ibm-power-systems-s822lc-for-high-performance-computing

IBMが今日、IBM Power Systems S822LC for High Performance Computingという、たいへん分かりやすい名前のハードウェアシステムを発表した。ごてごてした名前だけど、実際には、とてもおもしろい製品なのだ。Nvidiaと共作したこの新しいシステムは、人工知能や機械学習、高度なデータ分析などのユースケースが主なターゲットだ。

この新しいサーバーマシンは、IBMのPOWER8 CPUを2つ、NvidiaのTesla P100 GPUアクセラレータを4つ使っている。でも、そういう種類のソフトウェアを高速に動かす力の源泉は、CPUやGPUだけではない。IBMはNvidiaのハイスピードインターコネクト(プロセッサー間通信技術)NVLinkを使って、CPUとGPUが従来の(デスクトップコンピューターが使っている)PCIeバスより大幅に高速に通信できるようにしている。IBMのPower8 CPU は、NVLinkのインタフェイスを内蔵している。

IBMの発表声明はこう言っている: “データベースアプリケーションや高性能な分析アプリケーション、コンピューティングアプリケーションなどを、PCI-Eインタフェイス上でGPUを使うx86システムで可能なものよりもずっと大きな、データ集合に対して運用できる”。

rack-close-up-of-ibm-power-systems-s822lc-for-high-performance-computing

このシステムに、どれだけの性能を期待できるのか? IBMによると、21テラフロップの半精度浮動小数点演算性能がGPUから得られる。これは現代のPCI-Eスロットに挿入したカードから得られる性能よりも約14%高い。機械学習では訓練にかなりの時間を要するから、実際のアプリケーションでは14%の累積効果はきわめて大きい。IBMによると、古いTesla K80 GPUとPCI-Eインターコネクトを使った場合に比べると、2倍以上のスピードが得られたそうだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

NvidiaのTitan X(1200ドル)は同社最強のグラフィクスカード、初めて10TFLOPSを突破

download

Nvidiaの最新のグラフィクスカードは、なんと、同社がこれまで作ったカードの中でも最強だ。トランジスタ数は120億、最新のPascalアーキテクチャ、GDDR5Xメモリ12GB、3584のコアが1.53Ghzで走り、公称11TFLOPS(テラフロプス)のパフォーマンスを見せる。つねにベストでありたい企業が世に問う、絶対の自信作だ。

VRやゲームなど、グラフィクス集約的なアプリケーションならなんでも合う。今のあなたのシステムにある(かもしれない)ちょっとした引っかかり(トロさ)も、一瞬にしてバターのように溶解するだろう。

Nvidiaのポストは、読者の笑いを取ろうとする:

“それは、賭けから始まった。

わが社のハードウェアエンジニアのトップBrian KelleherがCEOのJen-Hsun Huangに、一つのチップで10TFLOPS以上まで行ける、と賭けを持ちかけた。CEOは、それはあり得ない、と一蹴した。

でも、そのあり得ないことが実現した。今日からJen-Hsunは、彼がクレイジーと評したBrianに1ドルの借りがある。”

つまり、二人の役員が賭けをして、その結果、同社のこれまでで最強の製品が生まれた、ってこと? クールなお話だけど、そろそろベンチマークを見せてほしいね。

Titan Xと名付けられたこのカード(上図)は、北米とヨーロッパではnvidia.comから8月2日以降1200ドルで、一部のシステムメーカーへ直販される。アジアにおけるリリースも、計画されている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

NVIDIA、仮想現実ゲームに参入―SteamでFunhouseシリーズを無料公開

今日(米国時間7/14)、 NVIDIAはゲーム・パブリッシャーでもあると判明した。ただしNVIDIA独特のいささかもってまわったやり方ではあるが。NVIDAはゲームのダウンロード・サイトのSteamからFunhouseというシリーズ名で7種類のミニゲームを公開した(最終的には10種類になるという)。FunhouseのゲームはSteamからダウンロード可能な他のゲームと同様、本物のゲームだが、本来チップ・メーカーであるNVIDAのゲーム・テクノロジーをデモする場でもあるようだ。

もちろんこのミニシリーズがつまらないゲームだというのではない。カーニバルの演し物的な他のミニゲーム同様、十分に面白い。VRのもぐらが叩けるし、道化師の頭の上の風船をある種の水鉄砲で破裂させたり、サッカーボールで安物の皿を割ることもできる。カーニバルで時間を過ごしたことがあれば感じはわかるだろう。

ただし、今回重要となるのはこうしたゲームを可能にしているNVIDIAのテクノロジーだ。FunhouseはNVIDIAの最初の内製ゲームだ。ゲーム・チップのメーカーの巨大企業メーカーは6人の専従社員からなるLightSpeed Studiosを通じて当面このデモ路線を続けるという。

この春、NVIDAは ヘッドセットで快適な拡張現実体験を可能にするSDKとしてVRWorksの提供を開始した。最初のデモは水中の情景だったが、NVIDIAはもっと現実に近いリアルなデモ・ゲームを披露することにしたようだ。

mole_boxing_4_1467835652

TechCrunchのインタビューに答えて、Funhouseのプロダクト・マネージャー Victoria D. Regeは「NVIDIAはいつもデモを作って最新のテクノロジーを普及させる努力をしてきた。われわれのデモ・ゲームには新しいテクノロジーの機能、開発ツール、その他ゲームを可能にする要素がすべて利用され、それらのショーケースとなっている。こうしたソフトとハードは協調して用いられることによってゲームにさらに高いリアリティーをもたらす」と述べた。

たとえばミニ・ゲームに登場するアーチェリーにはFlowテクノロジーが用いられ、矢の先端で燃える炎や矢が的に当たったときに飛び散る火の粉をリアルに表現している。
モグラたたきゲームではHairWorksが叩かれるもぐらの毛を巧みに再現する。Regeは「〔これらは〕むやみにスポットライトを独り占めることなしにゲーム内でVRWorksテクノロジーがどうつかわれるかを示すすてきなショーケースになっている」と述べた。

「NVIDIA VR Funhouseはもともとテクノロジーのショーケースとしてスタートした。実際に作ってみるとプレイしてもとても楽しいゲームになっていることが分かった。実際プレイし始めるとなかなか止められない。これなら他のゲーム・ファンも楽しめるかもしれないと考えて、単なるデモから本当にプレイできるゲームのシリーズが生まれた」とRegeは言う。

Clown_Painter_3_1467835201

現在、Funhouseシリーズのゲームは無料でSteamから入手できる。無料でプレイできるよくできたVRゲームなどはそうあるものではないからゲーム・ファンはダウンロードしてみる価値があると思う。またNVIDIAの最新テクノロジーで正確にいってどういうこうとが可能になるのか知りたいと思っているデベロッパーにも理想的だ。デベロッパーといえば、この夏、NVIDIAはデベロッパー向けの無料のFunhouseを公開するという。

5月に公開されたNVIDIAのゲーム内でスクリーンショットを撮るソフト、Anselも注目すべきツールだ。これは高解像度で全周360度のスクリーンショットを撮影でき、カスタマイズも可能で、VRヘッドセットで再生できる。手近にVRヘッドセットがあれば、単なるスクリーンショットよりはるかにリアルで不思議な魅力をたたえた映像を楽しめる。これが動き出したらどうなるのだろうと想像させるところはいわばVR版の「嵐の前の静けさ」だ。

今朝、Ansel機能は新しいドライバーと共に Mirror’s Edge Catalystで公開された。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

NVIDIA、性能を強化した新グラフィックカードを発表、価格も大幅値下げ

screen-shot-2016-05-07-at-1-15-08-pm

週末にオースチンで行われたゲーミングイベント、DreamHackで、NVIDIAが最新ゲーム用GPUを披露して観衆を驚かせた

CEO Jen-Hsun Huangは、同社初のPacalベースGPU、GeForce GTX 1080をステージで紹介し、現在の最上位機種Titan Xと比べて、2倍の性能、3倍の省電力効果を約束した。

しかも、あの1000ドルのカードより約400ドルも安い!

Huangは新しいカードを「常軌を逸している」と称し、その性能は「殆どでたらめ」だと付け加えた。おそらくその意味は、プロジェクトで2年間の研究開発に注ぎ込んだ「数十億ドル」の費用のことを言っているのだろう。

5月27日発売予定のGTX 1080は、9 テラFLOPSの計算能力と8GBのGDDR5Xメモリーを持つ。NVIDIAのデータには、カードのBoostクロックは1700 MHz以上の能力があると書かれているが、イベントで行われたUnreal Engine 4のデモでは、2000 MHz以上で動作していた。

同システムは、益々高まるマルチモニター、超高解像度ゲーミングおよびバーチャルチアリティーシステムへの要求に答えるべく設計されており、性能を強化しながらエントリー価格を下げている。

nvidia-geforce-gtx-1080-performance-and-efficiency

ちなみに同社は、さらに低価格のGTX 1070にも言及した。こちらは379ドルで6月10日発売。この廉価版も、6.5テラFLOPS、GDDR5 RAM 8GBを備え、Titanを抜いている。

[原文へ]

(翻訳:Nob Takahashi / facebook

Oculus Riftはあなたのパソコンで動くか?

riftreadyblog

Oculus Riftは599ドルで予約が始まったが、製品が届いた時、パソコンにつなぐためには他に何が必要かについて少々混乱が生じている。

[ちょっと待った。Oculus Riftを動かすにはWindowsパソコンが必要。]

[今でも 「あのOculusのってPCが必要なの?」という書き込みを*頻繁に* 見かける。まだまだVRには大々的な教育が必要だ]

そう、PCが必要だ。
そして、そのPCはかなり強力でなければいけない。

今日の予約発表記事で、同社は自分のパソコンで最新のRiftを動かせるかどうかを調べる互換チェックツールへのリンクを紹介している。Riftのアーリーアダプターとして名を連ねているであろうゲーマーたちは、恐らく準備万端だろう。

Oculusが公表した「フルRift体験」の推奨構成は以下の通り。

グラフィックカード:NVIDIA GTX 970 / AMD R9 290相当以上
CPU:Intel i5-4590相当以上
メモリー:8GB+ RAM
出力:HDMI 1.3ビデオ出力
入力:USB 3.0 x 3、USB 2.0 x 1
オペレーティングシステム:Windows 7 SP1 64 bit以降

上記のツールを使って手持ちの装備を確認されたい。推奨を満たしていないと、こんな画面が表示される

OculusCompatiblity1

まだパソコンを持っていない人には、Riftをスムーズに使えるフルキットを2月から予約できる。価格は1499ドル。第一波の出荷は3月になるだろうから、準備の時間はある。もちろん自作も楽しい。

つまり、これは一部の人にとっては驚きだろうが、殆どの人たちはこれが必須であることを前から知っていた。なぜ、驚く人たちがいるのか?それが新しいテクノロジーであり、かなりの誇大宣伝もあるが多くの知識と経験に基づく製品だからだ。

riftblogcomplete.1

これでOculusがなぜSamsungと組んで99のGear VRを出したかわかるだろう。人々にバーチャルリアリティー体験を早く提供し、必要なのはスマートフォンだけ。しかもモバイルだ。

[原文へ]

(翻訳:Nob Takahashi / facebook

Nvidiaが自動運転車用の高性能プロセッサDrive PX 2を発表、‘弁当箱サイズのスーパーコンピュータ’

nvidia-drive-px-illustration

昨年のDrive CXに続き、Nvidiaが今日、同社の自動運転車のためのコンピューティングプラットホームのアップデートバージョンDrive PX 2を発表した。昨年のCXよりずっとパワフルで、12のビデオカメラとそのほかのセンサー群からのデータをリアルタイムで処理し、自動運転車に、十分に教育された運転技術と運転時の正しい意思決定を実装する。同社はこれをスーパーコンピュータと呼んでいるが、そのサイズは弁当箱ぐらいだ。

Drive PX 2では、12のコアが8テラフロップの計算を実行し、ディープラーニングの演算を毎秒24テラ実行できる。プロセッサのアーキテクチャは16nm(ナノメータ)で、毎時250Wの電力を消費する。冷却には液体を使うが、車で使うのでそれほどの問題はなく、自動車メーカーが既存の冷却方式をこのプロセッサ向けに使うのも容易だ、という。

Nvidiaの協同ファウンダでCEOのJen-Hsun Huangによると、計算力では一つのPX 2が150台のMacBook Proに相当する。比較をしたのはGPUのパワーで、今13インチのMacBook ProにはIntelのIris Graphics 6100チップが載っている。一方PX 2は二つの次世代型TegraプロセッサとPascalベースのGPUを使っている。トータルでこのシステムは最大8テラフロップを押し上げ、AlexNetニューラルネットを使ったディープラーニングのアルゴリズムにより、毎秒最大2800の画像を認識する。

DSC04843

同社は独自のディープニューラルネットワークNvidia Drivenetも発表した。それは3700万のニューロンに相当し、これまでに1億2000万のオブジェクトを訓練されている。もちろん、今後の訓練によって認識できるオブジェクトはさらに増える。

企業がこのネットワークを利用してもよいが、しかしNvidiaは、自動車メーカーはそれぞれ独自のニューラルネットワークをコントロールしたいだろう、とも言っている。

同社は、プラットホーム的なやり方を顧客企業に推奨したいようだ。つまり、できるだけ多くの自動車メーカーと協働して、彼らの自動運転車への取り組みに、最初から勢いをつけてやりたいのだ。最初のパートナーであるVolvoは、約100台のテスト車にDrive PX 2を搭載する。PX 2のテストではほかに、Audi, Daimler, BMW, Fordとパートナーしている。

NVIDIA_DRIVE-PX-2

Huangが今日のキーノートで強調したのは、なぜこれだけのパワーが必要か、それは、自動運転車が実際の交通状況の中で、自分の回りの環境を十分に良く知り、正しく理解して、安全運転ができるためだ。実際に自分の回りの車を正しく認識できることのデモとして、この発表会では、人間運転手用のダッシュボードの画面にその状況を表示した。これがあれば、“リアビューミラーは要らなくなるだろう”、とHuangはジョークを言った。

しかし、オブジェクトを認識して基本的な走路を計画できることは、初歩的な段階にすぎない、とNvidiaも認める。自動運転車の実用化のためには、まわりのオブジェクト(“物”)だけでなく、情況を認識できなければならない。前にトラックがいる、だけではだめで、どんなトラックかを知る必要がある。救急車なら、そいつのために道をあけてやるべきだろう。

  1. nvidia_reconstruction.jpg

  2. nvivida_macbooks_trunk.jpg

  3. dsc04732.jpg

CES 2016

[原文へ]。
(翻訳:iwatani(a.k.a. hiwa)。