Vayyarが車内状況をモニターする3Dセンサーをローンチ、自動運転車両でも活躍が期待される

自動運転産業の部品サプライヤーたちによって開発されている多くのセンサーは、車両の外で何が起きているかに関する明瞭な画像を得ることに注力している。しかしVayyarの新しい3Dセンサーは、乗客に関する情報などを含む、車内の詳細な情報を提供する。この3Dセンサー技術はまた、光学画像キャプチャを使用しないため、カメラに比べてプライバシーの観点からも優れており、また結果的にどのような照明条件下でも動作することができる。

これらのエンベデッドセンサーは、他のセンシングソリューションに比べて小型で低コストであり、乗客のバイタルサインや、運転手がハンドルの前で居眠りしかけていないかなどの車内の様子を、リアルタイムにモニターすることができる。これはレベル2またはレベル3の自動運転の実現のために利用される可能性はとても大きい、なぜならこれらのセンサーは運転手の注意力をモニターし、車と路上を積極的に人間が見なければならない場合に、しっかりと通知が行われるように、補助をおこなうことができるからだ。

自動運転車はまた、この技術を、実際に車両に乗っている乗客とその位置に合わせて、適切にエアバッグを開くといった形で、安全性の最適化向上のために利用することもできる。未来の自動運転車における車内サービスも、こうした技術を利用することができる。たとえば車内ディスプレイ上に表示される情報内容を調整し、車内環境を調整するといったことだ。

Vayyarはまた、事故の際に、車内の生存者に関する情報の収集と送信も可能だということを指摘している。これによって救急隊に早期の情報を与えることができる。

車内状況のモニタリング以外にも、Vayyar社によって作られた3Dセンサーは、車両の直ぐ近くを監視し(同社によれば)「すべての死角を取り除く」アプリケーションを提供している。光の量に関わりなく、また霧や炎天下といった障害に関係なく動作する特性は、既に指摘したように、光学的センシングハードウェアよりも有利な点を持っている。

Vayyarのプロダクトを支える強力な専門的後ろ盾としては、元Intelのアーキテクチャグループの副社長でありWorldwide Mobile Wireless GroupのGMだった、CEO兼共同創業者のRaviv Melamedも控えている。

[ 原文へ ]
(翻訳:Sako)

GoogleのProject Tangoを支えるMovidiusのビジョンプロセッサ、バージョンアップしてSDKを提供

Movidiusは、まだ見慣れない名前だと思うが、今年の初めにGoogleがProject Tangoのスマートフォンとタブレットを発表したときに同社の名前がちらっと登場している。このプロジェクトは、モバイルデバイスが高度な3Dの知覚を持つと何ができるかを探求するためのGoogleのテストベッドで、Movidiusはそのための特殊なビジョンプロセッサを提供している。

Movidiusが一般にデビューしたのはProject Tangoからだが、しかしそのときすでに同社は、そのチップの次のバージョンに取り組んでいた。そのMyriad 2と呼ばれるチップは、1に比べてエネルギー効率が良くなり、より強力になっている。

MovidiusのCEO Remi El-Ouazzaneによると、新バージョンはアーキテクチャが“ラジカルに改良され”、とくにメモリの新しいアーキテクチャにより、消費電力1ワットあたりの処理能力がMyriad 1の20倍に向上した。その計算能力は約3テラフロップで、消費電力は0.5ワットだ。この28ナノメートルチップには12基のプログラマブルなベクタプロセッサが載り、フルHDの入力を最大で毎秒60フレーム処理できる。

El-Ouazzaneによると、これだけの性能は、Project Tangoから学んだことの効果が大きい。あのプロジェクトの顧客たちは、複数のソースからのデータを同時に処理できることを求めていた。

しかしEl-Ouazzaneも言うように、このチップの真のすばらしさは、それが長期的に提供するユーザ体験にある。Project Tangoの場合は、3Dのセンシングが主な目的だったが、El-Ouazaaneがとくに強調したいのは、スマートフォン上の複数のカメラからの入力を処理してDSLR以上の体験と画質を作り出す、計算機支援による写真技術(computational photography)だ。“これによってついに、モバイルデバイスで完全にプロ級の写真を撮れるようになる”、と彼は言っている。

デバイスがMovidusのプロセッサを搭載すると、たとえばオートフォーカスがはやくなる。また、赤外線センサを搭載して、ひとつのシーンからより多くの情報を取り出し、それらの情報を組み合わせた写真を作ることもできる。今のスマートフォンでそれをやろうとすると計算力が追いつかないと思われるが、Movidiusのチップなら十分にそれが可能だ。

このビデオは、Project Tangoのパートナーの仲間であるMantis Visionがトライした3D技術の一端だ。

しかしMovidusのチップが提供するユースケースは、もっともっと多様だ。El-Ouazzaneの想定によると、今後の1年ぐらいは、モバイルデバイスと、3Dセンシングを使ったゲーム、屋内ナビゲーションなどが、主な応用系になるだろう、と。

スマートフォンのOEMたちも、ここらあたりを考えているものと思われる。AmazonのFire Phoneは市場にそれほどの衝撃をもたらさなかったけど、El-Ouazzaneはちゃんと見ていた。スマートフォンの新製品の発表会でメーカーのCEOがコンピュータビジョンについてこれだけ長時間を費やした例は、過去になかった、と。

Movidiusが長期的に期待しているのは、そのセンサチップが人間の社会的な役を代行するロボットや、自律飛行するドローンなど、あらゆるものに使われていくことだ。

しかし高度な3Dセンシングの多様な応用系の広がりは、OEMだけでなく一般的にいろんな方面のデベロッパが参加するエコシステムが支える。デベロッパコミュニティの重要性を早くから認識している同社は今日(米国時間7/30)、MyriadチップのSDK、Myriad Development Kit(MDK)と、アプリケーション開発のためのツールやフレームワークをリリースした。このキットに含まれているリファレンスボードには、複数のカメラとセンサがあらかじめ載っている。ただし今のところMDKは、NDA契約を伴う特定のデベロッパにだけ提供されるので、コミュニティの賑やかな盛り上がりはまだ先の話のようだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))