Boschが車載ディスプレイをグラス不要で3D化

ドイツの自動車産業を支える製造業大手のBosch(ボッシュ)が、未来のダッシュボードディスプレイの3D化を、専用グラス(眼鏡)不要、しかもアイトラッキング(目線追跡)不要で実現しようとしている。後者のアイトラッキングはこれまで、グラス不要の3Dディスプレイでは絶対に必要と見なされていた。

しかし、グラス不要でしかも、ユーザーが特定の位置からディスプレイを見ることも不要という2大特性は、車に3Dディスプレイを持ち込むための重要な条件だ。それも当然で、ドライバーはディスプレイではなく道路を見ていなければならないし、ディスプレイ上の重要な情報はどれもさっと見るだけで把握可能でなければならない。運転中のドライバーの関心が、ディスプレイにあってはならないのだ。

だからと言って車の計器盤やインフォテインメントのディスプレイが3Dでなければならない理由はあるだろうか?ボッシュに言わせると、そこには複数の重要な理由がある。まず、重要な警告情報は実際に目の前に「飛び出す」ことによって注意を喚起すべきである。また駐車時には回りのスペースの状況を正確な3D画像で見せることによって安全で素早い駐車ができる。そしてナビなどは、右折左折など方向を変えるべき状況をよりリアルな画像で見せて正しい運転をガイドすべきだ。

  1. bosch_3d_display

  2. iaa_2019_4x

  3. audi_tt_em2_1205_zentral_groesser_map

  4. em3_7258_perspektive_stuttgart

  5. 0108_bosch_ces_tg_0025

  6. bosch_hmi_solutions_haptic_feedback

しかし、これらの説がすべて正しいとしても、それは自動運転がある程度実装された車の話ではないか。しかも車載ディスプレイがそこまで没入的になるのは、人間運転者にそれだけの時間的気分的な余裕が必要だ。

ボッシュはそれをあえて今やる理由として、モバイルコンピューティングの高度化を挙げる。これまでの自動車技術のコンピューター化といえば、小さな非力なコンピューターがコントローラーとして各所に散在していた。しかしこれからは1台の強力な中央的コンピューターが集中的に全システムを管理し、それらのアップデートもインターネットから容易かつ迅速にできるようになる。

同社は、そのようなシステムが実際に発売される実車に搭載される日程を明らかにしないが、他社製品との差別化がより重要になる高級車では、早いもの勝ちのような競争状況になるのではないだろうか。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

NVIDIAの次世代RTXポッドは1280基のGPU搭載、ネット上のハイエンドビジュアルを狙う

このところNVIDIA(エヌビディア)は、クラウドの大物になりたがっている。もともとは高性能なグラフィクスカードでゲームファンの人気企業だったが、最近ではデータセンターやAI、機械学習の推論、そして推論エンジンやデータ視覚化用のGPUに力を入れている。米国時間3月18日に開催されたGTCカンファレンスで同社は、ハリウッドのスタジオなどビジュアルなコンテンツを迅速に作りたいと願っている企業向けに、RTXサーバーの最新の構成を発表した。

そのRTXサーバーポッドは、32のRTXブレードサーバー上で最大1280基のTuring GPUをサポートする。それはサーバー1つあたり40のGPUを意味し、ひとつのサーバーがEIA規格で8Uのサイズになる。GPUは、構成にもよるがQuadro RTX 4000または6000だ。

今日の発表声明はこう述べている。「NVIDIAのRTX Serversは、Optix RTXレンダリングとゲーム、VR、AR、プロフェッショナルな視覚化アプリケーション向けに最適化されたソフトウェアスタックを持ち、レイトレーシングで強化された映画クラスのグラフィクスを、同じ性能のCPUベースのレンダリングクラスターよりもずっと低いコスト(電気料金)で提供する」。

このパワーを複数のユーザーで共有でき、バックエンドのストレージと相互接続ネットワークは、NVIDIAが今月初めに69億ドルで買収したMellanoxの技術が支える。その買収と今日のニュースはNVIDIAの未来にとってデータセンターがいかに重要であるかを物語っている。

DellやHP、Lenovo、Asus、SupermicroなどのシステムメーカーがRTXサーバーを顧客に提供しており、そのすべてをNVIDIAが検証し、それらの上で動くワークロードの管理には同社提供のソフトウェアツールを使用する。

NVIDIAは、これらのサーバーはARやVRをエッジで動かしたり、5Gネットワーク上でビジュアルをクライアントにサーブするのに適している、と力説している。それはあまりにもバズワードまみれとも感じるし、ARやVRに一般消費者が関心を持ったり、5Gネットワークがメインストリームになるのは、まだかなり先だろう。しかしそれでも、例えばゲームプレーをクラウドからストリーミングで提供するといったニーズには今日すでに、これらのサーバーが活躍できそうだ。

[原文へ]
(翻訳:iwatani、a.k.a. hiwa

GoogleがSony Pictures ImageworksとパートナーしてオープンソースのVFXレンダーマネージャーをローンチ

Googleが今日(米国時間1/24)、Sonyの視覚効果やアニメーションのスタジオSony Pictures Imageworksとの提携により、オープンソースのレンダーマネージャーOpenCueを発表した。OpenCueは実際のレンダリングをせず、そのさまざまなツールでレンダリング工程を各ステップに分解し、スケジューリングと管理を行なう。ローカルとクラウド両様の、大規模なレンダリングファームが使用するツールセットだ。

Googleはもちろん、そんなワークロードをクラウドに持ち込むことに関心があり、ハリウッドのスタジオに同社のCloud Platformを使わせる努力を続けてきた。たとえば昨年はそのためにロサンゼルスにクラウドのリージョンを立ち上げ、また2014年にはクラウド上のレンダラーZync買収した。さらに同社は、Academy Software Foundationの創立メンバーでもある。それは映画産業のためのツールに特化したオープンソースのファウンデーションだ。Sony Pictures Entertainment/Imageworksは創立メンバーではなかったが、創設から数か月後に参加した

Cue 3は元々、Imageworksがおよそ15年前から社内で使っていたキューイングシステム(タスクの待ち行列の作成〜発進〜管理を行なうシステム)だ。Googleは同社と協働して、そのシステムをオープンソースにした。それは両社協働により、最大コア数15万にまでスケールアップした。

今日の発表声明でGoogleのプロダクトマネージャーTodd Privesはこう述べている: “コンテンツのプロダクションが全世界的かつ継続的に加速している中で、視覚効果のスタジオは高品質なコンテンツの需要に対応するためにますますクラウドに目を向けるようになっている。オンプレミスのレンダーファームは今でも重用されているが、クラウドが提供するスケーラビリティとセキュリティはスタジオに、今日のハイペースでグローバルなプロダクションスケジュールに対応できるための、必要なツールを与える”。

なお、Sonyがオープンソースに手を出すのはこれが初めてではない。同社はこれまでにも、OpenColorIOAlembicなどのツールをオープンソースでコントリビュートしている。

画像クレジット: Sony Pictures Imageworks

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

オブジェクトをシンプルな部分的形状の集まりとして捉え、精度の高い3Dモデルを作る

空間領域構成法(constructive solid geometry, CSG)と呼ばれる技法を使用するシステムによりMITの研究者たちが、オブジェクトを分解してそれら個々の構成要素を3Dモデルで表現することに成功した。いわばそれは、複雑な物体に対するリバースエンジニアリングだ。

そのシステムを紹介するペーパー“InverseCSG: Automatic Conversion of 3D Models to CSG Trees”を、Tao Du, Jeevana Priya Inala, Yewen Pu, Andrew Spielberg, Adriana Schulz, Daniela Rus, Armando Solar-Lezama, そしてWojciech Matusikらが共著している。

Tao Duは3DPrintingIndustry誌の記事でこう述べている: “高レベルでは、問題は三角形メッシュをシンプルなツリーにリバースエンジニアリングすることだ。オブジェクトをカスタマイズしたければ、それを構成する元の複数の形の、それらの寸法やお互いの組み合わさり方にアクセスできるのが理想的だ。しかしすべてを一つの三角形メッシュへと組み合わせてしまえば、そこにあるのは三角形のリストだけで、個々の形の情報は失われている。でも、それらのメタデータを回復すれば、ほかの人たちがそのデザインを容易に変えることもできる”。

その処理は、オブジェクトをシンプルな剛体の集まりに切り分けて、それらを合わせれば複雑なオブジェクトが作れるようにする。現在の3Dスキャンは不完全だから、オブジェクト全体のメッシュモデルはオブジェクトの不完全な表現にしかならない。しかしこのように、より単純な形状のメッシュ的集まりとしてオブジェクトを表現できれば、より正確なスキャンに近くなる。オブジェクトの形を変える処理も、やりやすい。全体一括スキャンではなく、小部分分解スキャンとその再合成をするのだ。

“われわれのアルゴリズムは堅牢だから、言葉では言い表せないような奇妙な形のオブジェクトやその変更〜カスタマイズでも正確に表現できる。その例を、実際に示した。また、われわれの方法は変項(パラメータ)の集まりで表現されるCSGプログラム(parameterized CSG programs)を返すから、それによりエンドユーザーが3Dメッシュの構造を理解したり編集したりできるようになる”、とDuは語る。

このシステムは、オブジェクトを構成している要素的な形状を見つけて、それらの形を変える。これによって、ほとんどどんなオブジェクトでも、以前(全体一括スキャン)に比べてずっと高い精度で再現およびカスタマイズできるようになる。それはハードウェアをハッキングしてその形や大きさや安定性を理解するための、とってもクールな方法だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa