テスラが完全自動運転のテスターに事故時の映像収集の許可を求める

Tesla(テスラ)の最新のFSD(Full Self-Driving、完全自動運転)では、事故や「重大な安全上のリスク」が発生した場合に、車外と車内のカメラで撮影された映像を同社が収集することへの同意をドライバーに求めている。Electrekの報道によると、同社が特定の車両とドライバーに映像記録を求めるのは初めてのことだ。

TeslaはこれまでにもFSDの一環として映像を収集してきたが、それはAI自動運転システムの訓練と改善のためにのみ使用されていた。しかし、今回の新契約によると、同社は映像を特定の車両に関連づけることができるようになる。「FSDベータを有効にすることで、私は、重大な安全リスクや衝突などの安全に関する事案が発生した際に、Teslaが車両の外部カメラやキャビンカメラからVIN(車両識別番号)に関連する画像データを収集することに同意します」と契約書には書かれている。

FSDベータ版を有効にすることで、私は、重大な安全リスクまたは衝突のような安全に関する事案が発生した場合に、Teslaが車両の外部カメラおよびキャビンカメラからVINに関連する画像データを収集することに同意します。

Electrekが指摘するように、この文言は、FSDシステムが事故の原因とされた場合に備えて、Teslaが証拠を確保したいことを示していると考えられる。また、重大な問題をより迅速に検出し、修正するためにも使用される可能性がある。

FSD 10.3は、これまでのベータ版よりも広範にリリースされたが、不当な前方衝突警告や予期せぬ自動ブレーキなどの問題が発生したため、すぐに撤回された。当時、CEOのElon Musk(イーロン・マスク)氏は、このような問題は「ベータ版ソフトウェアでは予想されること」とツイートし「社内QAですべてのハードウェア構成をすべての条件でテストすることは不可能であり、それゆえ公開テストを行う」と付け加えた。

しかし、公道を走る他のドライバーも、知らず知らずのうちにベータテスターになっている。米国道路交通安全局は、11月3日にカリフォルニア州ブレアで発生した事故について、FSDが原因で衝突事故を起こしたというドライバーの訴えを現在調査している。このオーナーは、FSDが原因でModel Yが誤った車線に入り、他の車に衝突して双方に大きな損害を与えたと主張している。

Teslaは、ドライバーセーフティースコアが98点以上のさらに多くのユーザーに新しいベータ版をリリースする。これまでベータ版のリリースは、スコアが100点満点のドライバーに限られていた。同社は、この機能を利用するために月々199ドル(約2万3000円)、または一括1万ドル(約115万円)をドライバーに課しているが、約束していた自律走行実現の期限を守れなかった。現在、FSDシステムはレベル2とされており「完全な自動運転」に必要なレベル4には程遠い。

編集部注:本稿の初出はEngadget。執筆者のSteve DentはEngadgetの共同編集者。

画像クレジット:Tesla

原文へ

(文:Steve Dent、翻訳:Nariko Mizoguchi

投稿者:

TechCrunch Japan

TechCrunchは2005年にシリコンバレーでスタートし、スタートアップ企業の紹介やインターネットの新しいプロダクトのレビュー、そして業界の重要なニュースを扱うテクノロジーメディアとして成長してきました。現在、米国を始め、欧州、アジア地域のテクノロジー業界の話題をカバーしています。そして、米国では2010年9月に世界的なオンラインメディア企業のAOLの傘下となりその運営が続けられています。 日本では2006年6月から翻訳版となるTechCrunch Japanが産声を上げてスタートしています。その後、日本でのオリジナル記事の投稿やイベントなどを開催しています。なお、TechCrunch Japanも2011年4月1日より米国と同様に米AOLの日本法人AOLオンライン・ジャパンにより運営されています。