Metaが(おそらく)民間最速のAIリサーチ用「SuperCluster」でスパコン戦争に参入

地球上で最も大きく、最もパワフルなコンピューターを構築するための世界的な競争が過熱する中、Meta(別名Facebook)は「AI Research SuperCluster(RSC、AIリサーチ・スーパークラスター)」でその混戦に飛び込もうとしている。完全に稼働すれば、世界最速のスーパーコンピュータのトップ10に入る可能性があり、言語やコンピュータビジョンのモデリングに必要な大規模な演算に使用されることになる。

OpenAIのGPT-3が最も有名であろう大型AIモデルは、ノートPCやデスクトップではまとめられるものではなく、最先端のゲーム機をも凌駕する高性能コンピューティングシステムによって、数週間から数カ月にわたって継続的に計算された最終的な成果だ。また、モデルのトレーニングプロセスが早ければ早いほど、そのモデルをテストして、より良い新しいモデルを生み出すことができる。トレーニングの時間が月単位になるというのは、とても重要なことだ。

RSCは稼働しており、同社の研究者たちはすでにそれを使って仕事をしている。ユーザー生成データを使用して、と言わなければならないが、データはトレーニング時までに暗号化されており、施設全体が外部インターネットから隔離されていることをMetaは慎重に説明した。

スーパーコンピュータは驚くほど物理的な構築物であり、熱、ケーブル配線、相互接続などの基本的な考慮事項が性能や設計に影響を与えるが、RSCを構築したチームは、ほとんどリモートでこれを成し遂げたことを当然のことながら誇りに思っている。エクサバイト級のストレージはデジタル的に十分な大きさに聞こえるが、実際にどこかに存在し、現場でマイクロ秒単位でアクセスできる必要がある(Pure Storageも、このために同社が用意したセットアップを誇りに思っている)。

RSCは現在、760台のNVIDIA DGX A100システムをコンピュートノードとして使用しており、これらのシステムには合計6080個のNVIDIA A100 GPUが搭載されている。Metaは、米ローレンス・バークレー国立研究所のPerlmutterとほぼ同等の性能を持つと主張している。これは、長年のランキングサイト「Top 500」によると、現在稼働しているスーパーコンピュータの中で5番目に強力なスーパーコンピュータとなる(ちなみに、1位は今のところダントツで日本の富岳である)。

これは、同社がシステムの構築を続けることで変わる可能性がある。最終的には約3倍の性能になる予定で、理論的には3位の座を狙えることになる。

そこに補足説明があるべきなのは間違いない。2位の米ローレンス・リバモア国立研究所のSummitのようなシステムは、精度が求められる研究目的で採用されている。地球の大気圏内の分子を、これまでにない詳細なレベルでシミュレーションする場合、すべての計算を非常にたくさんの小数点以下の桁数で行う必要がある。つまり、それらの計算はより多くの計算コストを要するということだ。

Metaは、AIアプリケーションでは結果が1000分の1パーセントに左右されるわけではないため、同様の精度は必要ないと説明する。推論演算では「90%の確率でこれは猫である」というような結果が出るが、その数字が89%でも91%でも大きな違いはない。難しいのは、100個ではなく、100万個の物体や語句に対して90%の確実性を実現することだ。

それは単純化しすぎだが、結果として、TensorFloat-32(TF32)演算モードを実行しているRSCは、他のより精度を重視したシステムよりも、コアあたりのFLOPS(1秒あたりの浮動小数点演算)を多く得ることができる。この場合、189万5000テラFLOPS(または1.9エクサFLOPS)にもなり、富岳の4倍以上になり得る。それは重要なことだろうか?もしそうであれば、誰にとって?もし誰かいるとすれば、Top 500リストの人々にとっては重要かもしれないので、何か意見があるか聞いてみた。だが、RSCが世界最速のコンピュータの1つになるという事実は変わらないし、おそらく民間企業が独自の目的で運用するものとしては最速だろう。

画像クレジット:Meta

原文へ

(文:Devin Coldewey、翻訳:Dragonfly)

筑波大学が「富岳」全システムを使い宇宙ニュートリノの数値シミュレーションに成功、ゴードン・ベル賞の最終候補に選出

筑波⼤学計算科学研究センターは10月28日、宇宙大規模構造におけるニュートリノの運動に関する大規模数値シミュレーションを、ブラソフシミュレーションというまったく新しい手法を用いて、理化学研究所のスーパーコンピューター「富岳」上で成功させたことを発表し、その動画も公開した。この研究論文は、米国計算機学会(ACM。Association for Computing Machinery)のゴードン・ベル賞の最終候補(ファイナリスト)に選出されている。

これは、筑波大学、京都大学、東京大学、理化学研究所の共同による研究。宇宙の銀河の分布を示す宇宙大規模構造は、何も存在しない「ボイド」と、銀河が多く集まる領域が泡の集まりのような形で構成されている。この数値シミュレーションでは、その宇宙大規模構造の中のニュートリノとダークマターの運動が計算された。数十年も前から、N体シミュレーションに代表される粒子シミュレーションと呼ばれる手法での計算は試されてきたが、人工的な数値ノイズが入るなどの問題が解決できずにいた。そこで研究グループは、数値シミュレーションコードを開発し、数値ノイズの影響を受けない、「多数の粒子の集団的振る舞いを記述するブラソフ方程式を直接数値的に解く手法」であるブラソフシミュレーションを採用した。

ダークマターの空間分布。1 h-1 Mpcは約466万光年。

ニュートリノの空間分布。

ただし、この手法は計算量や必要なメモリーの量が膨大になるため、なかなか実現できなかったのだが、⽂部科学省の「富岳」全系規模⼤規模計算実施公募に採択されたことで、「富岳」の全システムが使えることとなった(通常、利用者には「富岳」の性能の一部が割り当てられる)。研究グループは、「ブラソフ方程式の数値解法としては、これまでになく高精度で、かつ演算量の少ないアルゴリズム」を開発し、「富岳」のプロセッサーに合わせてプログラムの実装を全面的に見直すことで、理論ピーク性能の15%という実行性能を達成。さらに「計算ノード間のネットワーク構成に合わせた並列化」により最大96%という高い並列化効率を達成した。その結果、「富岳」の全システムの93%にあたる14万7456ノードを用い、最大で約400兆個のメッシュを使ったシミュレーションに成功した。中国のスーパーコンピューター「天河⼆号」(Tianhe-2)で行われた過去最大の数値シミュレーションと同等の数値シミュレーションが、約1/10の時間で実行できたことになる。

この研究により、ブラソフシミュレーションの大規模な数値シミュレーションが、スーパーコンピューターによって高い並列化効率で実行できることが示された。このことから、核融合プラズマや宇宙の磁気プラズマの振る舞いの研究にも、この手法が適用できるとのことだ。

スーパーコンピューター「富岳」超高解像度計算により太陽の自転を正確に再現、長年の謎だった「対流の難問」が解決

  1. スーパーコンピューター「富岳」超高解像度計算により太陽の自転を正確に再現、長年の謎だった「対流の難問」が解決

    「富岳」で再現された太陽内部熱対流の様子。熱対流を表現するのに適したエントロピーという量を示しています。橙、青の部分はそれぞれ暖かい・冷たい領域に対応

千葉大学大学院理学研究院の堀田英之准教授と名古屋大学宇宙地球環境研究所所長の草野完也教授は9月14日、スーパーコンピューター「富岳」を使った超高解像度計算により、太陽内部の熱対流と磁場の再現に成功したと発表した。これにより、太陽の基本自転構造が再現でき、長年の謎だった「対流の難問」が解決された。

太陽は、地球と異なり赤道付近のほうが極地方よりも速く自転するという「差動回転」をしていることが、1630年ごろから知られている。これまでにも、スーパーコンピューター「京」を使った数値シミュレーションなどが行われたものの、極地方が赤道よりも速く回転するという、実際とは逆の結果が出てしまっていた。これは計算可能な解像度(京の場合は約1億点)の制限により、太陽内部の「乱流的な熱対流」を正確に計算できないためだとされている。こうした、熱対流の数値シミュレーションの結果が観測や理論モデルの結果と違ってしまう現象は、「熱対流の難問」として長年の謎とされてきた。

今回の研究では、「富岳」を使って世界最高の解像度である54億点で計算を行ったところ、実際と同じく、赤道が極地域よりも速く回転する結果が得られた。「太陽と同じ状況をコンピューター上に再現」できたとのことで、「熱対流の難問」が解決されたことになる。

太陽の差動回転の各速度を色で表した図。紫は遅く黄色は速い。

これまでは、太陽内部の磁場エネルギーは乱流のエネルギーよりも小さいと考えられてきたが、今回の計算では、磁場エネルギーは乱流エネルギーの最大で2倍あることがわかり、太陽の常識が覆った。

太陽の差動回転を理解することは、太陽物理学最大の謎である「太陽活動11年周期」(太陽黒点数が約11年の周期で変動する現象)の解明にもつながるという。今回は「富岳のすべての力を使ったわけではない」という。そのパワーをさらに引き出し高解像度計算を行うことで、この謎の解明にも挑戦したいと、堀田英之准教授らは話している。

この研究の論文は、『Nature Astronomy』に掲載された。論文タイトルは「Solar differential rotation reproduced with high-resolution simulation

なお同研究は、文部科学省「富岳」成果創出加速プログラム「宇宙の構造形成と進化から惑星表層環境変動までの統一的描像の構築」および計算基礎科学連携拠点(JICFuS)の一環として実施されたもの。また、理化学研究所のスーパーコンピューター「富岳」、名古屋大学のスーパーコンピューター「不老」、国立天文台天文シミュレーションプロジェクトのスーパーコンピューター「アテルイII」の計算資源の提供を受け、実施した。加えて、日本学術振興会の科学研究費の支援を受けている。

画像クレジット:千葉大学

ロボット、チップ、完全自動運転、イーロン・マスク氏のTesla AI Dayハイライト5選

Elon Musk(イーロン・マスク)氏はTesla(テスラ)を「単なる電気自動車会社ではない」と見てもらいたいと考えている。米国時間8月19日に開催されたTesla AI Day(テスラ・AI・デー)で、イーロン・マスクCEOはテスラのことを「推論レベルとトレーニングレベルの両方でハードウェアにおける深いAI活動」を行っている企業であると説明した。この活動は、自動運転車への応用の先に待つ、Teslaが開発を進めていると報じられている人型ロボットなどに利用することができる。

Tesla AI Dayは、映画「マトリックス」のサウンドトラックから引き出された45分間にわたるインダストリアルミュージックの後に開始された。そこでは自動運転とその先を目指すことを支援するという明確な目的のもとに集められた、テスラのビジョンとAIチームに参加する最優秀のエンジニアたちが、次々に登場してさまざまなテスラの技術を解説した。

「それを実現するためには膨大な作業が必要で、そのためには才能ある人々に参加してもらい、問題を解決してもらう必要があるのです」とマスク氏はいう。

この日のイベントは「Battery Day」(バッテリー・デー)や「Autonomy Day」(オートノミー・デー)と同様に、テスラのYouTubeチャンネルでライブ配信された。超技術的な専門用語が多かったのだが、ここではその日のハイライト5選をご紹介しよう。

Tesla Bot(テスラ・ボット):リアルなヒューマノイド・ロボット

このニュースは、会場からの質問が始まる前にAI Dayの最後の情報として発表されたものだが、最も興味深いものだった。テスラのエンジニアや幹部が、コンピュータービジョンやスーパーコンピュータDojo(ドージョー)、そしてテスラチップについて語った後(いずれも本記事の中で紹介する)、ちょっとした幕間のあと、白いボディスーツに身を包み、光沢のある黒いマスクで顔が覆われた、宇宙人のゴーゴーダンサーのような人物が登場した。そして、これは単なるテスラの余興ではなく、テスラが実際に作っている人型ロボット「Tesla Bot」の紹介だったことがわかった。

画像クレジット:Tesla

テスラがその先進的な技術を自動車以外の用途に使うことを語ろうとするときに、ロボット使用人のことを語るとは思っていなかった。これは決して大げさな表現ではない。CEOのイーロン・マスク氏は、食料品の買い物などの「人間が最もやりたくない仕事」を、Tesla Botのような人型ロボットが代行する世界を目論んでいるのだ。このボットは、身長5フィート8インチ(約173cm)、体重125ポンド(約56.7kg)で、150ポンド(約68kg)の荷物を持ち上げることが可能で、時速5マイル(約8km/h)で歩くことができる。そして頭部には重要な情報を表示するスクリーンが付いている。

「もちろん友好的に、人間のために作られた世界を動き回ることを意図しています」とマスク氏はいう。「ロボットから逃げられるように、そしてほとんどの場合、制圧することもできるように、機械的そして物理的なレベルの設定を行っています」。

たしかに、誰しもマッチョなロボットにやられるのは絶対避けたいはずだ(だよね?)。

2022年にはプロトタイプが完成する予定のこのロボットは、同社のニューラルネットワークや高度なスーパーコンピューターDojoの研究成果を活用する、自動車以外のロボットとしてのユースケースとして提案されている。マスク氏は、Tesla Botが踊ることができるかどうかについては口にしなかった。

関連記事:テスラはロボット「Tesla Bot」を開発中、2022年完成予定

Dojoを訓練するチップのお披露目

画像クレジット:Tesla

テスラのディレクターであるGanesh Venkataramanan(ガネッシュ・べンカタラマン)氏が、完全に自社で設計・製造されたテスラのコンピュータチップを披露した。このチップは、テスラが自社のスーパーコンピュータ「Dojo」を駆動するために使用している。テスラのAIアーキテクチャの多くはDojoに依存している。Dojoはニューラルネットワークの訓練用コンピューターで、マスク氏によれば、膨大な量のカメラ画像データを他のコンピューティングシステムの4倍の速さで処理することができるという。Dojoで訓練されたAIソフトウェアは、テスラの顧客に対して無線を通じてアップデートが配信される。

テスラが8月19日に公開したチップは「D1」という名で、7nmの技術を利用している。べンカタラマン氏はこのチップを誇らしげに手に取りながら、GPUレベルの演算機能とCPUとの接続性、そして「現在市販されていて、ゴールドスタンダードとされている最先端のネットワークスイッチチップ」の2倍のI/O帯域幅を持っていると説明した。彼はチップの技術的な説明をしながら、テスラはあらゆるボトルネックを避けるために、使われる技術スタックを可能な限り自分の手で握っていたかったのだと語った。テスラは2020年、Samsung(サムスン)製の次世代コンピューターチップを導入したが、ここ数カ月の間、自動車業界を揺るがしている世界的なチップ不足から、なかなか抜け出せずにいる。この不足を乗り切るために、マスク氏は2021年夏の業績報告会で、代替チップに差し替えた結果、一部の車両ソフトウェアを書き換えざるを得なくなったと語っていた。

供給不足を避けることは脇においても、チップ製造を内製化することの大きな目的は、帯域幅を増やしてレイテンシーを減らし、AIのパフォーマンスを向上させることにあるのだ。

AI Dayでべンカタラマン氏は「計算とデータ転送を同時に行うことができ、私たちのカスタムISA(命令セットアーキテクチャ)は、機械学習のワークロードに完全に最適化されています」と語った。「これは純粋な機械学習マシンなのです」。

べンカタラマン氏はまた、より高い帯域幅を得るために複数のチップを統合した「トレーニングタイル」を公開した。これによって1タイルあたり9ペタフロップスの演算能力、1秒あたり36テラバイトの帯域幅という驚異的な能力が実現されている。これらのトレーニングタイルを組み合わせることで、スーパーコンピューター「Dojo」が構成されている。

完全自動運転へ、そしてその先へ

AI Dayのイベントに登壇した多くの人が、Dojoはテスラの「Full Self-Driving」(FSD)システムのためだけに使われる技術ではないと口にした(なおFSDは間違いなく高度な運転支援システムではあるものの、まだ完全な自動運転もしくは自律性を実現できるものではない)。この強力なスーパーコンピューターは、シミュレーション・アーキテクチャーなど多面的な構築が行われており、テスラはこれを普遍化して、他の自動車メーカーやハイテク企業にも開放していきたいと考えている。

「これは、テスラ車だけに限定されるものではありません」マスク氏。「FSDベータ版のフルバージョンをご覧になった方は、テスラのニューラルネットが運転を学習する速度をご理解いただけると思います。そして、これはAIの特定アプリケーションの1つですが、この先さらに役立つアプリケーションが出てくると考えています」。

マスク氏は、Dojoの運用開始は2022年を予定しており、その際にはこの技術がどれほど多くの他のユースケースに応用できるかという話ができるだろうと語った。

コンピュータビジョンの問題を解決する

AI Dayにおいてテスラは、自動運転に対する自社のビジョンベースのアプローチの支持を改めて表明した。これは同社の「Autopilot」(オートパイロット)システムを使って、地球上のどこでも同社の車が走行できることを理想とする、ニューラルネットワークを利用するアプローチだ。テスラのAI責任者であるAndrej Karpathy(アンドレイ・カーパシー)氏は、テスラのアーキテクチャを「動き回り、環境を感知し、見たものに基づいて知的かつ自律的に行動する動物を、ゼロから作り上げるようなものだ」と表現した。

テスラのAI責任者であるアンドレイ・カーパシー氏が、コンピュータビジョンによる半自動運転を実現するために、テスラがどのようにデータを管理しているかを説明している(画像クレジット:Tesla)

「私たちが作っているのは、もちろん体を構成するすべての機械部品、神経系を構成するすべての電気部品、そして目的である自動運転を果たすための頭脳、そしてこの特別な人工視覚野です」と彼はいう。

カーパシー氏は、テスラのニューラルネットワークがこれまでどのように発展してきたかを説明し、いまやクルマの「脳」の中で視覚情報を処理する最初の部分である視覚野が、どのように幅広いニューラルネットワークのアーキテクチャと連動するように設計されていて、情報がよりインテリジェントにシステムに流れ込むようになっているかを示した。

テスラがコンピュータービジョンアーキテクチャーで解決しようとしている2つの主な問題は、一時的な目隠し(交通量の多い交差点で車がAutopilotの視界を遮る場合など)と、早い段階で現れる標識やマーク(100メートル手前に車線が合流するという標識があっても、かつてのコンピューターは実際に合流車線にたどり着くまでそれを覚えておくことができなかったなど)だ。

この問題を解決するために、テスラのエンジニアは、空間反復型ネットワークビデオモジュールを採用した。このモジュールのさまざまな観点が道路のさまざまな観点を追跡し、空間ベースと時間ベースのキューを形成して、道路に関する予測を行う際にAIモデルが参照できるデータのキャッシュを生成する。

同社は1000人を超える手動データラベリングチームを編成したと語り、さらに大規模なラベリングを可能にするために、テスラがどのように特定のクリップを自動ラベリングしているかを具体的に説明した。こうした現実世界の情報をもとに、AIチームは信じられないようなシミュレーションを利用して「Autopilotがプレイヤーとなるビデオゲーム」を生み出す。シミュレーションは、ソースやラベル付けが困難なデータや、閉ループの中にあるデータに対して特に有効だ。

関連記事:テスラが強力なスーパーコンピューターを使ったビジョンオンリーの自動運転アプローチを追求

テスラのFSDをとりまく状況

40分ほど待ったときに、ダブステップの音楽に加えて、テスラのFSDシステムを映したビデオループが流れた、そこには警戒していると思われるドライバーの手が軽くハンドルに触れている様子が映されていた。これは、決して完全に自律的とは言えない先進運転支援システムAutopilotの機能に関する、テスラの主張が精査された後で、ビデオに対して法的要件が課されたものに違いない。米国道路交通安全局(NHTSA)は 今週の初めにテスラが駐車中の緊急車両に衝突する事故が11件発生したことを受け、オートパイロットの予備調査を開始することを発表した。

その数日後、米国民主党の上院議員2名が連邦取引委員会(FTC)に対して、テスラのAutopilot(自動操縦)と「Full Self-Driving」(完全自動運転)機能に関するマーケティングおよび広報活動を調査するよう要請した。

関連記事
米当局がテスラのオートパイロット機能を調査開始、駐車中の緊急車両との衝突事故受け
テスラの「完全」自動運転という表現に対し米上院議員がFTCに調査を要請

テスラは、7月にFull Self-Drivingのベータ9版を大々的にリリースし、数千人のドライバーに対して全機能を展開した。だが、テスラがこの機能を車に搭載し続けようとするならば、技術をより高い水準に引き上げる必要がある。そのときにやってきたのが「Tesla AI Day」だった。

「私たちは基本的に、ハードウェアまたはソフトウェアレベルで現実世界のAI問題を解決することに興味がある人に、テスラに参加して欲しい、またはテスラへの参加を検討して欲しいと考えています」とマスク氏は語った。

米国時間8月19日に紹介されたような詳細な技術情報に加えて、電子音楽が鳴り響く中で、Teslaの仲間入りをしたいと思わない血気盛んなAIエンジニアがいるだろうか?

一部始終はこちらから。

画像クレジット:Tesla

原文へ

(文:Rebecca Bellan、Aria Alamalhodaei、翻訳:sako)

テスラは強力なスーパーコンピューターを使ったビジョンオンリーの自動運転アプローチを追求中

Tesla(テスラ)のElon Musk(イーロン・マスク)CEOは、少なくとも2019年頃から「Dojo」(ドージョー)という名のニューラルネットワークトレーニングコンピューターについて言及してきた。Dojoは、ビジョンオンリー(視覚のみ)の自動運転を実現するために、膨大な量の映像データを処理することができるコンピューターだとマスク氏はいう。Dojo自体はまだ開発中だが、米国時間6月22日、テスラは、Dojoが最終的に提供しようとしているものの開発プロトタイプ版となる、新しいスーパーコンピューターを公開した。

テスラのAI部門の責任者であるAndrej Karpathy(アンドレイ・カーパシー)氏が、米国時間6月21日に開催された「2021 Conference on Computer Vision and Pattern Recognition」(コンピュータービジョンとパターン認識会議2021)において、同社の新しいスーパーコンピューターを公開したのだ。このコンピューターを利用することで、自動運転車に搭載されているレーダーやライダーのセンサーを捨て去り、高品質の光学カメラを採用することが可能になる。自動運転に関するワークショップで、カーパシー氏は、人間と同じようにコンピューターが新しい環境に対応するためには、膨大なデータセットと、そのデータセットを使って同社のニューラルネットベースの自動運転技術を訓練できる、巨大なスーパーコンピューターが必要だと説明した。こうして、今回のような「Dojo」の前身が生まれたのだ。

テスラの最新世代スーパーコンピューターは、10ペタバイトの「ホットティア」NVMeストレージを搭載し、毎秒1.6テラバイトのスピードで動作するとカーパシー氏はいう。その1.8EFLOPS(エクサフロップス)に及ぶ性能は、世界で5番目に強力なスーパーコンピューターになるかもしれないと彼は語ったが、後に、スーパーコンピューティングのTOP500ランキングに入るために必要な特定のベンチマークはまだ実行していないことを認めた。

「とはいえFLOPSで考えれば、きっと5位あたりに入るでしょう」とカーパシー氏はTechCrunchに語っている。「実際に現在5位にいるのは、NVIDIA(エヌビディア)のSelene(セレーネ)クラスターで、私たちのマシンに類似したアーキテクチャを採用し、同程度の数のGPUを搭載しています(向こうは4480個で、こちらは5760個、つまりあちらがやや少ない)」。

マスク氏は、以前からビジョン(視覚)のみでの自動運転を提唱してきたが、その主な理由はレーダーやライダーよりもカメラの方が速いからだ。2021年5月現在、北米で販売されているテスラのModel YおよびModel 3は、レーダーを使用せず、カメラと機械学習を利用して、アドバンスト運転支援システムとオートパイロットをサポートしている。

レーダーとビジョンが一致しない場合、どちらを信じればよいでしょう?ビジョンの方がはるかに精度が高いのですから、センサーを混合して使うより、ビジョンを重視した方がいいでしょう。

自動運転を提供する企業の多くは、LiDARと高精細地図を使用している。つまり走行する場所の、道路の全車線とその接続方法、信号機などに関する非常に詳細な地図が必要になる。

カーパシー氏はワークショップの中で「主にニューラルネットワークを使用する、ビジョンベースの私たちのアプローチは、原理的には地球上のどこでも機能することができます」と語った。

いわば「生体コンピューター」である人間をシリコンコンピューターで置き換えることで、レイテンシーの低下(反応速度の向上)、360度の状況認識、Instagram(インスタグラム)をチェックしたりしない完璧な注意力を保ったドライバーが生まれる、とカーパシー氏はいう。

関連記事:テスラの北米向けModel 3とModel Yがレーダー非搭載に

カーパシー氏は、テスラのスーパーコンピューターがコンピュータービジョンを使ってドライバーの望ましくない行動を修正するシナリオをいくつか紹介した。例えばコンピューターの物体検知機能が働いて、歩行者を轢くことを防ぐ緊急ブレーキのシナリオや、遠くにある黄色の信号を識別して、まだ減速を始めていないドライバーに警告を送る交通制御状況に関する通知などだ。

また、テスラ車では、ペダル誤操作緩和機能と呼ばれる機能がすでに実証されている。これは、クルマが進路上の歩行者や、あるいは前方に走行できる道がないことを識別して、ドライバーが誤ってブレーキではなくアクセルを踏んだ場合に対応できる機能だ。このことによって、車の前の歩行者を救ったり、ドライバーが加速して川に飛び込んだりするのを防ぐことができる可能性が高まる。

テスラのスーパーコンピューターは、車両を取り囲む8台のカメラからの映像を毎秒36フレーム収集しており、それらは車両を取り巻く環境について非常に多くの情報を提供すると、カーパシー氏は説明する。

ビジョンオンリーのアプローチは、世界中で高精細な地図を収集、構築、維持することに比べれば拡張性が高い。しかしその一方で、物体の検出や運転を担当するニューラルネットワークが、人間の奥行きや速度への認識能力に匹敵するスピードで、膨大な量のデータを収集処理できなければならないため、課題が多いということができる。

カーパシー氏は、長年の研究の結果、この課題を教師付き学習の問題として扱うことで解決できると考えているという。カーパシー氏は、この技術をテストした結果、人口の少ない地域では人間の介入なしで運転できることがわかったが「サンフランシスコのような非常に障害物の多い環境では、間違いなくもっと苦労するでしょう」と述べている。高精細な地図や追加のセンサーなどの必要性を減らし、システムを真に機能させるためには、人口密集地への対応力を高めなければならない。

テスラのAIチームの持つ画期的技術の1つは、自動ラベル付けだ。これは、テスラのカメラでクルマから撮影された膨大な量の動画から、道路上の危険物などのラベルを自動的に付けることができるものだ。大規模なAIデータセットは、時間がかかる多くの手作業によるラベル付けを必要としてきた。特に、ニューラルネットワーク上の教師付き学習システムをうまく機能させるために必要な、きれいにラベル付けされたデータセットを手に入れようとしているときにはそれが顕著だった。

だがテスラは、この最新のスーパーコンピューターを使って、1本約10秒の動画を100万本集め、60億個の物体に奥行き、速度、加速度のラベルを付けた。これらは、1.5ペタバイトという膨大な量のストレージを占めている。確かにこれは膨大な量に思えるだろうが、テスラがビジョンシステムのみに依存した自動運転システムに求められる信頼性を実現するには、さらに多くのものが必要となる。そのため、より高度なAIを追求するために、テスラはこれまで以上に強力なスーパーコンピューターを開発し続ける必要があるのだ。

関連記事:テスラが車内カメラでAutopilot使用中のドライバーを監視

カテゴリー:人工知能・AI
タグ:TeslaElon Muskスーパーコンピュータ自動運転コンピュータービジョン機械学習

画像クレジット:Tesla

原文へ

(文: Rebecca Bellan、翻訳:sako)