今日(米国時間5/29)、Teslaのセダンが自動操縦(Autopilot)モードで走行中に、駐車していたラグーナビーチ警察の車に衝突した。Los Angeles Timesによると、その警察車両に乗っていた者は無傷、Teslaのドライバーは軽傷だったが、同警察の巡査部長Jim Cotaが同紙に語っているところによると、警察車両は“大破”した。
Cotaによると、1年前にも同じ地域でTeslaがセミトレーラーに衝突する事故があった。“なんで連中の車は同じことを繰り返すんだい?”、と彼はLA Timesに語っている。“人間が無事だったのは、たまたまの幸運だよ”。
This morning a Tesla sedan driving outbound Laguna Canyon Road in “autopilot” collides with a parked @LagunaBeachPD unit. Officer was not in the unit at the time of the crash and minor injuries were sustained to the Tesla driver. #lagunabeach #police #tesla pic.twitter.com/7sAs8VgVQ3
— Laguna Beach PD PIO (@LBPD_PIO_45) May 29, 2018
[今朝Laguna Canyon Roadの下り路線を“自動操縦”で走行中のTeslaのセダンが駐車中のラグーナビーチ警察の車両に衝突した。衝突時の車中に警官は不在で、Teslaのドライバーは軽傷を負った。]
Teslaのスポークスパーソンはメールでこう述べている:
“自動操縦を用いているとき、ドライバーは継続的に自己の責任を自覚し、その手はハンドルを保持し、車両のコントロールを常時維持している。Teslaはつねに明確に、自動操縦が車をすべての事故に対して鈍感にしないようにしており、ドライバーが自動操縦を用いる前には彼らは、ダイアログボックス上の声明文、“自動操縦は中央分離帯と明確な車線区分線のある幹線道路上で用いるよう設計されている”、を受諾しなければならない”。
これは、Teslaの車両がこれまで自動操縦モードで何度か起こしてきた事故の最新版だ。今月初めには、ドライバーが自分のスマートフォンを見ているときに起きたユタ州の衝突事故があり、また2か月前のカリフォルニアと2016年のフロリダでは死亡事故が起きている。
2015年の後半ににローンチしたTeslaの自動操縦機能は、“路上走行のもっとも退屈で、危険でもありえる側面からドライバーを解放する”ことを目的とし、自動緊急ブレーキや衝突警報などの標準的な安全機能を持っていたが、人間ドライバーによる運行を置換するものではなかった。
Teslaは自動操縦機能の使用に関してドライバーを教育しているが、同社を批判する人びとは、安全になるまではその機能を無効にせよ、と呼びかけている。たとえばConsumer Reports誌は、自動操縦(Autopilot)という名前がドライバーに“偽りの安全感”を与えるとし、“これら二つのメッセージ…あなたの車は自分自身で運転できる、しかしときには、あなたがコントロールを取り上げる必要があるかもしれない…は、ドライバーの混乱を招く可能性がある”、と言っている。