米ケンブリッジ大学で作られた新しいシステム、SegNetは、道路を「読んで」標識、道路標示、歩行者、さらには空も含めた様々な状況を認識する。システムは道路のRGB画像を見て、ベイズ分析を用いて場面を様々な要素に分類する。
リリース文より:
第一のシステム、SegNetは、見たことのない街の場面の画像を見て、対象物を12の区分 ― 道路、道路標識、道路標示、歩行者、建物、自転車等 ― にリアルタイムで分類することができる。明るい場所、影、夜間にも対応し、現在画素の90%以上を正確に識別している。従来のレーザーやレーダーのセンサーを用いた高価なシステムでも、リアルタイムでこのレベルの精度を出すことはできない。
第二のシステムは、位置にかかわらず車両を正しい方向に向ける興味深いしくみだ。つまり、システムは画像を「見る」ことによって「位置と方向を数メートル、数度の精度」で評価する。同システムはGPSよりはるかに優れており、分析や位置の報告のために無線通信も必要としない。
SegNetを試してみたい人は、自分の街の道路の写真を送るか、用意された写真でテストすることができる。システムが分析して何が見えたかを教えてくれる。
この種のシステムの利点は、GPSを全く使わず、3D空間の機械学習に特化していることだ。ただし、まだ完全とはいえない。
「短期的に、この種のシステムは室内用ロボット― 例えばロボット掃除機 ― でよく見かけるようになるだろう 」と研究リーダーのRoberto Cipolla教授は言った。「運転者が自動走行車を全面的に信用できるまでには時間を要するが、こうした技術の効果と精度が高くなればなるほど、無人自動車やその他の無人ロボティクスの普及に近づくことができる」。
[原文へ]
(翻訳:Nob Takahashi / facebook)