自動運転車のLiDARの能力限界を機械学習で補う方法をAppleが開発

コーネル大学の研究文献目録arXivに最近上程されたAppleのペーパーは、LiDARの配列が集めた原始点群データを、機械学習を利用して、そのほかのセンサーデータを必要とせずに自転車や歩行者などの3Dオブジェクトの検出に翻訳する方法を記述している。

Appleの自動運転技術の開発努力に関して、これほど明快な文献を目にする機会は数少ない。Appleがそれをやってることが分かるのは、カリフォルニア州自動車局に自動運転のテストの許可を申請したことによって同社がそれを認めたからであり、そしてまた、そのテストカーがときどき目撃されたからだ。

しかし同時にまたAppleはこれまで、同社の機械学習の取り組みについては、ややオープンだった。自社のブログに研究を紹介するペーパーが載ったこともあるし、そして今ではより広い研究コミュニティとの共有も行っている。こうやってペーパーなどを公刊する行為は、その分野のトップタレントにとって重要であることが多く、彼らは会社を超えた広いコミュニティと協働して、全般的な機械学習技術を前進させたいのだ。

上の画像に写っているものは、Appleの研究者、とくにペーパーの著者Yin ZhouとOncel Tuzelが作ったVoxelNetと呼ばれる装置で、LiDARの配列が捉えた点の集合からオブジェクトを外挿し推断する。基本的にLiDARはその周囲にレーザーを放射して個々の点の高解像度のマップを作り、オブジェクトに当たって反射された結果を記録する。

しかしこの研究がおもしろいのは、これによってLiDARが、自分が属する自動運転システムの中でより効果的に働けることだ。通常は、LiDARのデータは、光学カメラやレーダー、そのほかのセンサーなどのデータと対照融合されて完全な像を作り、オブジェクトの検出を実行する。しかし、Appleのこの方法のように、信頼性の高いLiDARだけを使えば、路上で実用化される〔量産量販の〕自動運転車の、今後の製造とコンピューティングの効率が上がるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa