未来の自動運転車やそのほかのマシンインテリジェンスシステムは、視線の向かう先には見えないものからでも詳細な画像データを集められるだろう。カーネギーメロン大学(CMU)とトロント大学、およびユニバーシティカレッジロンドンの研究から生まれたテクニックを使うと、ここにいるまま「あの角を曲がった先」を見ることができる。
その方法は、特殊な光源とセンサー、そしてコンピュータービジョンの処理により、ここからは見えない場所の詳細な像を推測したり構築できる。それは、これまで写真や肉眼でしか得られなかった像よりもさらに詳細だ。
ただしこのテクニックには現状でやや制約があり、CMUのロボット研究所のSrinivasa Narasimhan教授によると「比較的狭い範囲内」でないと有効でない。
その制約はこのテクニックを、非視線型(non-line-of-site、NLOS)コンピュータービジョンの分野のテクニックと併用すれば緩和できる。そんなテクニックの一部はすでに商用化されており、たとえばテスラ(Tesla)のAutopilot(オートパイロット)システムは、反射ないし跳ね返ってきたレーダー信号を利用して、テスラ車の前面の、人の視線が届かない部分を見ている。
今回の新しい研究で使われたテクニックは、多くの自動運転車システムが利用しているライダーシステムと似た動作原理だ(ただしテスラはレーザー光線を使う視覚システムを嫌ってることで有名だ)。CMUとそのパートナーの研究機関は超高速のレーザー光線を使い、それの壁からの跳ねっ返りで、角の向こう側に隠れているオブジェクトを照らしている。
センサーが跳ね返ってくる光を捉え、そして反射光が原点に帰還するのに要した時間を計算する。そのほかのさまざまな測度も含め、ターゲットのオブジェクトのジオメトリー(幾何学的形状)の情報も使って、オブジェクトを正確かつ詳細に再構築する。その方法は、紙のような光を遮るものが介在していても有効なので、現実世界の環境センサーとしての有効な利用もありえそうだ。
[原文へ]
(翻訳:iwatani、a.k.a. hiwa)