テスラの2018年1月の衝突事故はAutopilotの設計と運転者の不注意が原因と判明

NTSB(National Transportation Safety Board、米国家運輸安全委員会)は、2018年1月にTesla(テスラ)のModel Sが、米国カリフォルニア南部の高速道路に駐車していた消防車に衝突した原因を、米国時間9月4日に明らかにした。運転者の不注意、先進的ドライバー支援システムAutopilot(オートパイロット)の設計、そうした機能への過信といった要因の組み合わせによるものという。

NTSBは、事故に関する重要な詳細を示した暫定的な概要を発行した翌日に、衝突の推定原因に関するブリーフィングを提出した。そこには、消防車に衝突した際に、Model SはAutopilotモードに入っていたことが記されている。

2014年式のTesla Model Sによる衝突事故は、2014年1月22日にカリフォルニア州カルバーシティで発生した。州間ハイウェイ405の上に駐車していた消防車に衝突するまでのほぼ14分間にわたって、そのTeslaではAutopilotが作動していた。運転者は、その事故で負傷しなかった。また消防車には人が乗っていなかった。

Tesla Model Sのオーナーズマニュアルには、こうした機能の制限事項とともに、運転者がハンドルを握り続けることの必要性について、多くの警告が記載されている。しかし運転者は、そうしたことに注意を払っていないのだと、NTSBは言う。さらに重要なことは、TeslaのAutopilotの設計は、運転者が運転操作を放棄することを許していると、NTSBは結論付けている。

NTSBによると、Autopilotは、衝突直前の13分48秒の間作動していた。その間、運転者がハンドルにトルクをかけていたのは、わずか51秒間だけだったと、システムが検出していた。また衝突した車両は、「ハードウェア1」というバージョンであったことにも注意する必要があるという。Model Sの「ハードウェア2」バージョンは、2016年に生産が始まり、より信頼性の高いセンサー類を装備している。

Teslaは、報告書に回答して以下のように述べている。これまでにTesla車のオーナーは、Autopilotを有効にした状態で延べ何十億マイルも走っている。同社の四半期ごとの車両安全性レポート(Vehicle Safety Report)のデータによれば、Autopilotを利用する運転者の方が、そのようなアシスタント機能を利用しない人に比べて、より安全であることが示されている、というのだ。

その衝突事故以降、TeslaはAutopilotシステムに改良を加えてきた。手放し運転に対する警告の時間間隔や、作動可能な条件などを調整したと、同社の広報担当者は声明で述べている。

Autopilotには、2つの重要な機能が含まれている。Autosteer(自動操舵)とTraffic-Aware Cruise Control(交通量感知型クルーズコントロール)だ。自動操舵は、同じ車線を維持して走行することを支援するシステムであり、交通量感知型クルーズコントロールが作動してからでなければ機能しないようになっている。交通量感知型クルーズコントロールは、カメラとレーダーからの情報に基づいて、速度を自動調整する。

衝突の詳細

NTSBによると、そのModel SではAutopilotが作動中であり、相乗り専用レーンを他の車の後ろについて走っていた。衝突の15秒前に、Autopilotシステムは、先行する2台の車を検出して追走を始めた。データによると、衝突の3〜4秒前に、先行車が右に車線を変更したと、NTSBのレポートは述べている。交通量感知型クルーズコントロールは、先行車を検出しなくなったため、Teslaを約21mph(約34km/h)から、クルーズコントロールにセットされていた80mph(約129km/h)まで加速しようとした。この値は、衝突の約5分前に、運転者によって設定されていた。

Autopilotシステムは、Teslaの進行方向に静止している物体を衝突の約0.49秒前に検出し、衝突および衝突予告警告が発動した。これは、視覚および聴覚に訴える警報を発するもの。衝撃の瞬間には、Teslaは30.9mph(49.7km/h)にまで加速していた。

[原文へ]

(翻訳:Fumihiko Shibata)

ドライバー支援システムができること/できないことをドライバーは理解していない

アウディ、BMW、GMのキャデラック、日産、そしてテスラのような自動車メーカーは、ある程度の運転タスクを代行することで、日々の高速道路通勤の苦痛を和らげてくれる十分に堅牢な先進的ドライバー支援システムを用意している。ここでの問題は何だろう?ドライバーたちがこうしたシステムの限界を理解していないということだ。このことは6月20日に「Insurance Institute for Highway Safety」(IIHS、ハイウェイ安全協会)からリリースされた2つの新しい調査で示された。

先進的ドライバー支援システムをめぐる理解の混乱は大きく、IIHSの調査によれば特にテスラのAutopilotシステムができることとできないことの理解に関する混乱が大きい。

この理解調査では、2500人に対して現在の車に搭載されている5種類の「レベル2」運転自動化システムについての質問が行われた。具体的には、Tesla(テスラ)のAutopilot、アウディとアキュラのTraffic Jam Assist、キャデラックのSuper Cruise、BMWのDriving Assistant Plus、そして日産のProPilot Assistだ。レベル2が意味するのは、ドライバーの監視の下でシステムが運転作業の2つ以上の部分をできるということだ。例えば、システムは車を車線の中心に保ちながら、同時に適切なクルーズコントロール(加速減速操作)を行うことができる。

調査対象者のうち48%が、Autopilotを使っているときにはハンドルから手を離しても安全だと答えている。IIHSの調査の中では、他のシステムに関してはいずれも33%もしくはそれ以下の人が安全だと答えている。IIHSの調査によれば、Autopilotの場合は、風景を見たり、本を読んだり、携帯電話で離したり、SMSを送ったりしても安全だと考えている人の割合もかなり高いという。さらに6%の人々はAutopilotを使っている最中に居眠りをしても大丈夫だと考えていた。他のシステムの場合は、この比率は3%だった。

この調査は意図的に一般人を対象として行われた。つまり、Autopilotがどのように動作するかをよりよく理解していると思われるテスラのオーナーを対象にした調査ではない。実際、テスラはこの調査に対して以下のような反論を行っている。

「この調査は、テスラの所有者やAutopilotの使用経験のある人々の理解を代表するものではありません。なので、この結果を強調するのは不正確です」とテスラは言う。「もしIIHSが『Autopilot』(自動操縦)という名前に反対だというのなら、おそらく彼らは同じように『Automobile』(自動車)という名前にも反対なのでしょう」。

テスラはそれに続けて、同社の車のオーナーたちに対して、Autopilotをいかに正しく使えばいいかの明快なガイダンスを提供していることはもちろん、システムを使う前、そして機能を利用中にも車内での指示を伝えていると語っている。Autopilotの利用中に、ドライバーが運転にきちんと注意を払っていないことを、もしテスラ車が検知した場合には、ドライバーはその機能を使うことが禁じられる。

だがテスラのオーナーたちがAutopilotを悪用もしくは誤用していることを示す多くのYouTubeビデオのことはとりあえず無視するとしても、テスラの主張する「トレーニング」の効果は、IIHSのもう1つの調査の結果には十分反論できるものではない。2番目の調査は、トレーニングの効果に焦点を絞り、ドライバーたちがDrive Pilotシステムを搭載した2017型メルセデス・ベンツE-Classのディスプレイから、レベル2自動運行情報を理解しているかどうかが調べられた。

IIHSはE-Classのディスプレイを使った理由を、他の自動車メーカーと比べても典型的なディスプレイだからと述べている。大きく異なるテスラのディスプレイを使って同じ研究を行ってみたら、おそらく興味深い結果になるだろう。

こちらの調査では80人のボランティアが、E-Classのハンドル越しの運転手の視点から録画されたビデオを見た。実験に際して被験者の半数は、システムの状態を示す機器のアイコンの意味についての、簡単な事前トレーニングを受けた。

トレーニングは効果を発揮しなかった。IIHSによれば、当初検出範囲よりも遠かったためにシステムが前方の車両を検知しなかった場合、大多数の人はそれが何を意味しているかを理解できなかったという。

要するに?ドライバー支援システムはより一般的で高性能になっているが、ドライバーたちはその変化に追いついていない。それは危険な組み合わせなのだ。

より率直に言えば、先進的ドライバー支援システム(ADAS)がどのように機能するのか、そしてシステムができることとできないことに関して、人びとはきちんと理解していない。ADASは決して自律性を意味しない。そして、一部のメディアや企業が主張していることにかかわらず、現在製品としての自動運転車は路上を走っていないのだ。

[原文へ]

(翻訳:sako)

テスラ死亡事故の原因はオートパイロットとする訴訟を起こされる

オートパイロット作動中のTesla Model Xで高速道路の中央分離帯に衝突して死亡したApple(アップル)のエンジニアであるWalter Huang氏の遺族がTesla(テスラ)を相手取って訴訟を起こした。カリフォルニア州運輸局も訴状に名前を挙げられている。

カリフォルニア州最高裁判所サンタクララ郡支局に提出された不法死亡訴訟は、テスラドライバー支援システムであるオートパイロットの誤動作が、2018年3月23日にHuang氏が死亡した事故の原因だったと主張している。当時38歳だったHuang氏は、国道101号線カリフォルニア州マウンテンビュー付近を2017年型Tesla Model Xで走行中、中央分離帯に衝突して死亡した。

本訴訟は、テスラの運転支援システムであるオートパイロットが車線境界線を誤認識してコンクリート構造物を検出せず、ブレーキの作動を怠り代わりに加速して分離帯に衝突したと主張している。

テスラ広報担当者はコメントを拒んだ。

「Huang夫人が夫を亡くし、2名の子供が父親を亡くしたのは、テスラがオートパイロットソフトウェアを実世界のドライバーでベータテストしたためである」とMinami Tamaki法律事務所のパートナーB. Mark Fong氏が訴状で語った。

その他のテスラに対する訴訟要件には、製品責任、製品設計の欠陥、警告不履行、保証違反、故意および不注意による虚偽の表示、および虚偽の広告がある。カリフォルニア州運輸局も訴訟で指名されており、訴状によるとこれはHuang氏の車両が衝突したコンクリート製分離帯に衝突衝撃緩衝具が設置されていなかったためだ。カリフォルニア交通局は以前現地で起きた事故の後、緩衝具の交換を怠っていた、と原告は主張している。

本訴訟の目的は「半自動運転車を支える技術は路上走行に利用される前に安全が確認され、そのリスクが公衆に対して隠蔽あるいは虚偽表示されないことを確保することにある」と、Walkup、Melodia、Kelly & SchoenbergerのパートナーのDoris Cheng氏が言った。同氏は遺族の代理人でもある。

事故後テスラはブログ記事を2件投稿し、その結果国家運輸安全委員会(NTSB)との論争に発展した。同委員会は事故現場に捜査員を派遣していた。

テスラの3月30日付のブログ記事は、事故当時オートパイロットが作動していたことを認めている。テスラによると、ドライバーはハンドルを握ることを促す警告を、視覚的に数回、音声で1回受け取っており、衝突前の6秒間ハンドル上でドライバーの手は検出されなかった。

こうしたコメントはNTSBの反感を買い、「捜査情報がテスラから公開されたことは遺憾である」旨が示された。NTSBは、委員会による事故調査の当事者が事前の了解なく事故の詳細を公表することを禁じている。

テスラCEOのElon Musk(イーロン・マスク)氏は、自身の失意とNTSBに対する批判をTwitterを通じて直ちに発信した。事故の3週間後、テスラは事故の責任をHuang氏に帰し、同社の道徳的あるいは法的責任を否定する声明を発表した。

「遺族によると、Huang氏はオートパイロットが完璧ではないことを十分認識しており、具体的には、まさにその場所でオートパイロットが信頼できないことを家族に伝えていたにも関わらず、その場所でオートパイロットを作動させた。事故当日は晴天で前方視界は数百フィート(100〜200m)あったため、この事故が起きた唯一の方法は、Huang氏が路上に注意を払っていなかった場合であり、これは車両から注意を促す警告が複数回発せされていたにも関わらず起きたことである。

NTSBとテスラの関係は、この声明の発表後さらに崩壊した。テスラはNTSBとの協力合意を破棄したと発表した。その後1日とおかず、NTSBは同委員会がテスラを事故捜査の当事者から除外したと発表した。

NTSBの中間報告書は、事故の原因について何ら結論を下していない。しかし、車両が衝突直前の3秒間に62mphから70.8mph(100〜114kmh)へと加速し、国道101号線の走行車線と85号線への出口ランプを分離する舗装された三角地帯に向かって左に移動したことは確認している。

同報告書は、衝突の18分55秒前、テスラ車がハンドルに手を置くことを促す視覚的警告を2回、音声警告を1回与えたことも認めている。警告は衝突の15分以上前に発信された。

Huang氏の両手がハンドルに触れたことが検出されたのは、衝突前の1分間のうち34秒だけだった。衝突前のブレーキあるいは衝突回避ステアリングは検出されなかった、と報告書は書いている。

訴訟名はSz Hua Huang et al v. Tesla Inc., The State of California、訴訟番号 19CV346663。

原文へ

(翻訳:Nob Takahashi / facebook

Teslaのセダンが自動操縦モードで警察の車に衝突

今日(米国時間5/29)、Teslaのセダンが自動操縦(Autopilot)モードで走行中に、駐車していたラグーナビーチ警察の車に衝突した。Los Angeles Timesによると、その警察車両に乗っていた者は無傷、Teslaのドライバーは軽傷だったが、同警察の巡査部長Jim Cotaが同紙に語っているところによると、警察車両は“大破”した。

Cotaによると、1年前にも同じ地域でTeslaがセミトレーラーに衝突する事故があった。“なんで連中の車は同じことを繰り返すんだい?”、と彼はLA Timesに語っている。“人間が無事だったのは、たまたまの幸運だよ”。

[今朝Laguna Canyon Roadの下り路線を“自動操縦”で走行中のTeslaのセダンが駐車中のラグーナビーチ警察の車両に衝突した。衝突時の車中に警官は不在で、Teslaのドライバーは軽傷を負った。]

Teslaのスポークスパーソンはメールでこう述べている:

“自動操縦を用いているとき、ドライバーは継続的に自己の責任を自覚し、その手はハンドルを保持し、車両のコントロールを常時維持している。Teslaはつねに明確に、自動操縦が車をすべての事故に対して鈍感にしないようにしており、ドライバーが自動操縦を用いる前には彼らは、ダイアログボックス上の声明文、“自動操縦は中央分離帯と明確な車線区分線のある幹線道路上で用いるよう設計されている”、を受諾しなければならない”。

これは、Teslaの車両がこれまで自動操縦モードで何度か起こしてきた事故の最新版だ。今月初めには、ドライバーが自分のスマートフォンを見ているときに起きたユタ州の衝突事故があり、また2か月前のカリフォルニア2016年のフロリダでは死亡事故が起きている。

2015年の後半ににローンチしたTeslaの自動操縦機能は、“路上走行のもっとも退屈で、危険でもありえる側面からドライバーを解放する”ことを目的とし、自動緊急ブレーキや衝突警報などの標準的な安全機能を持っていたが、人間ドライバーによる運行を置換するものではなかった。

Teslaは自動操縦機能の使用に関してドライバーを教育しているが、同社を批判する人びとは、安全になるまではその機能を無効にせよ、と呼びかけている。たとえばConsumer Reports誌は、自動操縦(Autopilot)という名前がドライバーに“偽りの安全感”を与えるとし、“これら二つのメッセージ…あなたの車は自分自身で運転できる、しかしときには、あなたがコントロールを取り上げる必要があるかもしれない…は、ドライバーの混乱を招く可能性がある”、と言っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Tesla、国家運輸安全委員会(NTSB)との協同調査から撤退

Teslaは国家運輸安全委員会(NTSB)との協力合意を解除する意志を表明し、NTSBは「安全の推進より新聞の見出しを気にしている」とTesla広報担当者がTechCrunchにメールで語った。

「先週NTSBとの話し合いの中で、今後1~2年の調査期間中に当社が事故に関する声明を発表することがあれば、調査契約から除外すると言われた」とTesla広報担当者が語った。「火曜日(米国時間4/10)当社は契約からの脱退を自ら決断し、オートパイロットに関する誤解を招く主張を訂正するための声明を発表した。オートパイロックが安全問題を引き起こすかのような、実際とは正反対の内容だ。

この直前、NTSBはTeslaとの協力関係を解除したと発表した。NTSBは解除の理由について、TeslaがNTSBの許可なく調査内容を公表したためだと言った。

Teslaは米国でのオートパイロット搭載車の関わった自動車事故による死者数に言及した。Teslaによると、オートパイロット搭載車の走行距離3億2000万マイルにつき死亡者は1名で、最近の歩行者の死亡もこれに含まれている。これに対して、自動車全体で見た死亡者の割合は8600万マイルに1人だとTeslaは言った。

「オートパイロット付Tesla車に載っている方が死亡事故にあう確率は3.7分の1であり、今後も改善されていく」と広報担当者は言った。

さらにTeslaは、NTSBが安全よりも報道を気にしていることは「われわれとの会話で明らか」だったと指摘した。

「NTSBは自ら定めたルール二番して不完全な断片情報を繰り返しメディアに提供した。一方、われわれが真実を公表するのを妨げようとした。これは正しくないとわれわれは信じており、議会に正式に訴えるつもりだ。さらに、この国の自動車の安全を目標にかかげながら、最も安全性の低い自動車[オートパイロットのない車]を無視している理由を知るために、われわれは情報開示要求を行う。そこには適切な根拠があるのだろうが、それが何であり得るかは想像できない。

Teslaは、NTSBが諮問機関であり、規制機関ではないことを指摘し、同社が国家道路交通安全局(NHTSA)と「強力で建設的な関係」を持っていることを強調した。

「NHTSAのテストを受けたとき、Model SとModel Xはいずれも総合評価だけでなく全サブカテゴリーで5つ星評価を受けた」とTesla広報担当者は言った。「SUVがこここまで高評価を受けた例はこれだけだった。しかも、NHTSAがこれまでにテストした車の中で、Model SとModel Xは負傷する確率が最も低い車種の評価を受けた。当社以上に安全に気を配っている会社はほかになく、事実がそれを証明している」

Teslaの主張についてNTSBにコメントを求めたところ、以前発行したプレスリリースの通りであり付け加えることはないと答えた。NHTSAは、調査を継続中だと言った。

「われわれは地元当局と連絡をとっており、彼らの自動車および設備の安全性に関する洞察と信頼性はNHTSAと一貫している」とNHTSAの広報担当者が本誌への声明で語った。「NHTSAは特別事故調査チームを派遣し、適切な措置を行う予定だ」

[原文へ]

(翻訳:Nob Takahashi / facebook

TeslaはModel 3のAutopilotの操作インタフェイスを使いやすくした

Model 3はAutopilotのコントロール方法が変わった。最近のアップデートでは、コントロールがインフォテインメントのスタックからステアリングホイールへ移った。それまでドライバーは、大きな画面を見ながらAutopilotのスピードや走行距離を変えていたが、その操作をするとき目が道路を離れてしまうのだ。

Model 3は、ミニマリズムの極地だ。そのために同社は、最良のインタフェイスをまだ模索しているようだ。たとえばModel 3では、ステアリングホイール上のコントロールは意図的に特定の機能に奉仕せず、車の役割に応じて変わるのだ。

2018.12のアップデートでは、右手のスクロールホイールが車のスピードを変え、その横のボタンが車間を変えるようになった。最新のコントロールは既存のコントロールを変えず、むしろそれらを補う。

Model 3の本誌のレビューでは、コックピットの簡素な設計に注目して、その長短を指摘した。前方視界に邪魔物がないのはすばらしいし、子どものころのソープボックスダービーで坂を転がっていくときのような、ピュアなドライブ体験が得られる。路面への接触感覚がとてもリアルだ。でもしかし、中央のタッチスクリーンへの依存が大きすぎて、単純なコマンドでも目が道路から離れることがよくある。

Autopilotがらみの死亡事故以降、Teslaに注がれる世間の目はますます厳しくなっている。今回のようなアップデートで同社は、オーナーの意見を取り入れてアップデートを実践していることを、見せつけようとしている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Tesla、死亡事故当時オートパイロットが作動していたと発表

Teslaは先週の死亡事故について追加情報を公開した。Teslaの発表によると当時運転手はオートパイロットのアダプティブ・クルーズコントロールを最小車間距離設定で使用していた。しかし、運転手は人間が制御を取り戻すよう促すシステムの警告を無視したとみられている。

[以下、本稿の引用部分はTesla社ブログ日本語ページからの転載]

ドライバーはその日運転し始めてから、ハンドルに手を触れていない時に発される視覚的な警告を数回、音声警告を1回受けていました。衝突の前は約6秒の間ハンドルに手が触れられていませんでした。ドライバーが破損した衝突衝撃緩衝具の付いた中央分離帯を、遮るものがない状態で目視できた時間は5秒間、距離にして150 mありましたが、車両ログによるとその間には衝突を回避するための行動が一切取られていませんでした。

Teslaのオートパイロットシステムの目標は、自動車事故を減らすことであり、Teslaのブログによるとオートパイロットは事故率を40%減少させると米国政府が行った独自調査が示している。もちろん、それはテクノロジーが完全に事故を防ぐという意味ではない。

Teslaは以前、被害が甚大だった理由は高速道路のコンクリート製中央分離帯が以前の事故で損傷していたためだと言っていた。さらにTeslaは、オートパイロットはあらゆる事故を防ぐものではないが、起こる可能性を低くするとも指摘していた。

発生しなかった事故については誰も知ることがありません。知り得るのは発生した事故だけです。オートパイロットの使用は危険であるという間違った認識からオートパイロットを使用しなくなることは、非常に深刻な結果につながります。交通事故による死者は世界全体で年間約125万人です。すべての車両がテスラ車と同等の安全性を持っていれば、毎年この内の90万人の命を救うことができます。テスラでは自動運転車は人間が運転する車の10倍安全になるだろうと考えています。

以前私たちが安全性に関する統計学的な情報を持ち出した際、たった今起こった悲劇に対する感情が欠けているのではないかと批判されました。それはあまりにも的外れな発言です。私たちはテスラを信頼して下さる皆さまを心から大切に思い、ありがたく思っています。一方でオートパイロットが安全性を向上するということを知っていれば救われるはずの、現在と未来の命についても考えなければなりません。

このような痛ましい事故が起こってしまったことと、大切な人を失ったご遺族とご友人の方々の悲しみを変えることはできません。改めてお悔やみを申し上げます。

この事故のわずか前、アリゾナ州テンピでUberの自動運転車が関わる死亡事故が起きている。

[原文へ]

(翻訳:Nob Takahashi / facebook

Teslaの新しいオートパイロットシステムは、3台カメラシステムを採用、レーダーも追加

screen-shot-2016-06-30-at-4-58-21-pm

Teslaのオートパイロットが近く大幅に改訂されると複数の記事が伝えている。中でもElectrekの最新記事は、新システムの基礎となる新たなハードウェアの詳細を紹介している。Tesla車の自立運転アシスタントは、前方撮影用にトリプルカメラシステムを導入し、車体の周囲にレーダーを追加することで現行モデルの前方レーダーを補完する。

すでにTeslaは、新しい3台カメラシステムの筐体を車体に装着し始めていると記事は報じている。レーダーの追加は、先日Elon Musk がTwitterに書いた、「ライダーではなくレーダーを使ってライダーの効果を実現する」という話とも一致する。

新ハードウェアは、まず現行のAutopilot 1.0で運用されるが、新装置を使用して収集したデータに基づき、今後機能を追加していく。Electrekによると、オートパイロットは「ライブ」データを使用可能であり実際に利用もするが、GPSデータおよび全Tesla車から集めたデータから作成した独自の「高精度マップ」も大いに頼りにしている。マップには新ハードウェアを装備した車を通じてさらに質の高い情報が送り込まれる。

Autopilot 2.0の導入時期について正式な発表はないが、Elon Muskは、同社の自動運転技術にもうすぐ非常に大きな改革がやってくることをほのめかしている。最近の決算会見でMuskは「誰もがあっと驚くことがある」と言い、「それはみんなが思っているより早くやってくる」、新技術は「私を大いに驚かせたので、初めて見た人たちも驚くに違いない」と付け加えた。

原文へ
 
(翻訳:Nob Takahashi / facebook

Tesla Model Xのオートパイロット、肺塞栓症の運転手を病院へ運ぶ

The interior view of a Tesla Motors Inc. Model S P90D, a model with some autopilot features, is seen during an exhibition featuring several self-driving cars outside of the Dirksen Senate Office Building in Washington, D.C., U.S., on Tuesday, March 15, 2016. Advocates of self-driving cars say the vehicles may revolutionize U.S. transportation enough so that the government can spend less money on roads, parking garages and public transportation systems. Photographer: Drew Angerer/Bloomberg via Getty Images

ミズーリ州に住むその男性は、Tesla Model Xの自動運転機能に助けられなければ、病院に無事たどり着けなかったかもしれない(via Slate)。Model XのオーナーであるJoshua Neally(37)は、職場の法律事務所からの帰宅途中、肺塞栓症に襲われた。Neallyが20マイル余りの幹線道路の運転をオートパイロットに任せると、システムは車とドライバーを病院近くの出口ランプまで運び、Neallyは残りの道のりを走りきった。

先のフロリダの死亡事故以来、Teslaのオートパイロットシステムは厳しい目にさらされているが、これはシステムがドライバーを助けた明白な事例だ。すぐ頭に浮かぶのは、Neallyが自動運転機能に頼るより、路肩に車を寄せ救急車を呼んだ方が総合的に安全だったのではないかという疑問だ。なにしろNeallyは症状が出た後の「走行状況の記憶」が殆どないことを認めているのである。

しかし、Neallyが運転を続けたことが正しい判断だったかどうかは別として、これはオートパイロットのような安全機能の重要性と必要性を証明する事例だ。医療緊急時など人命に関わる状況下で、われわれの行動について正常かつ論理的で誠実な判断を下せる人はほとんどいない。

Neallyは地元のNBC系テレビ局KY3のインタビューに答えて、肺塞栓症の症状を感じたとき「考えたのはERへ行かなくていけないということだけだった」と言った。言い換えれば、Neallyは事実上パニック状態にあり、とるべき行動はできるだけ早く病院へ行くことだと本能が命じたのだろう。

身体に著しく無理のかかった状態で運転を続けることは最良の選択ではないかもしれないが、それは人間的行動であり、またオートパイロットがNeallyを病院へ無事送り届けたことは実に感動的だ。もし、症状が深刻で運転を続けたり判断を下すことが身体的に不可能な場合、オートパイロットはフェイルセーフモードに入り、速度を落としハザードランプを点滅させながらゆっくりと路肩に車を寄せる。

果たしてこの状況下でドライバーは、車を止めて救急車を呼ぶより、システムがあるなら何とかして運転を続けるものなのか、またオートパイロットに運転させることは他の方法と比べて安全なのかどうかは議論のあるところだ。しかしはっきりしているのは、命の危険を感じた人間が合理的知識に基づく判断をするとは限らないことであり、それこそが、自立走行技術が最大の影響を及ぼせる場面だ。

[原文へ]

(翻訳:Nob Takahashi / facebook

ペンシルベニアの事故当時、Tesla Model Xのオートパイロットはオフだった

screen-shot-2016-06-30-at-4-58-21-pm

7月1日にペンシルベニアで事故を起こしたTesla Model Xは、当時オートパイロットが無効化されていた、とElon MuskがTwitterで発表した。この情報は当該車自身のログに基づくものだ。

[車載ログによるとペンシルベニアの事故当時オートパイロットはオフだった。もしオンになっていれば事故は起こらなかったかもしれない。]

Teslaはここ数週間、同社のオートパイロットによる半自動運転機能は、公道で試験するにはまだ早いと批判されている。Consumer Reportsも今日(米国時間7/14)、安全が確認されるまで機能を無効化するよう要請した

衝突時にオートパイロットが使われていなかったというニュースは、批判の一部を鎮めることはあっても決して全部ではない。事故の全容は未だ明らかにされておらず、またオートパイロットは原因ではないようだが、関与した可能性はある。詳しい調査結果が出るまで、判断は控えた方がよさそうだ。

[原文へ]

(翻訳:Nob Takahashi / facebook

Teslaの自動ブレーキシステムはその死亡事故の状況には対応していなかった、とMobileyeが説明

screen-shot-2016-06-30-at-4-58-21-pm

Tesla Model Sの死亡事故に対する、昨日のNHTSA(道路交通安全局)の調査を受けて、Tesla社の自動操縦機能の開発に関わっているイスラエルのMobileyeが、事故に関する声明を本誌に送ってきた。

“この事件で起きたことに関する説明をわれわれは読んだ”、MobileyeのChief Communications Officer Dan Galvesが書いたとされるテキストには、こう書かれている。“今日の衝突回避技術、いわゆるAutomatic Emergency Braking(AEB)〔緊急時自動ブレーキ〕 は、後部への追突の回避として定義されており、具体的にそのために設計されている”。

この声明文のトーンは、昨日のTeslaの声明とかなり違っている。後者は、ドライバー(その後オハイオ州のテクノロジー起業家Joshua Brownと判明)の死を悼み、同社の安全対策を、このように強調している: “自動操縦は絶えず進歩しているがしかし完全ではなく、今なお運転者による十分な注意の維持を要する”。

同様にGalvesも、現行世代の技術が5月7日の衝突で展開されたようなシナリオを取り扱えるようには装備されていない、と説明している。ただしそのような機能の導入は計画されている、と。“この事故には車両の横方向からの進入が関与しており、現行世代のAEBシステムはそれに反応できるように設計されていない”、と声明は述べている。Mobileyeのシステムには2018年からLateral Turn Across Path(LTAP)〔行路を横切る横方向のターン〕検知能力が含まれ、2020年からEuro NCAP〔自動車安全性能評価〕の格付けにこれが含まれる。

その技術はまだ、車両がレーンを横切ってターンする、という特別なケースに反応できるようには、装備されていないようだ。Teslaの昨日の説明では、“好天時の太陽が向こうから照りつける中で、自動操縦も運転者もともに、トレーラートラックの白い側面が視界に現れたことに気づかず、そのためブレーキが適用されなかった”、となっている。

Mobileyeは今朝(米国時間7/1)、もう一度ニュースに登場した。そこでは、同社がIntelと協働して、BMWが同社初の完全自己運転車を2021年に発売できるようにする、との公式発表があった。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

米国規制当局、Teslaの死亡事故の調査を開始

screen-shot-2016-06-30-at-4-58-21-pm1

Teslaは今日(米国時間6/30)、最近同社のModel Sがオートパイロット作動中に起こした死亡事故について、国家道路交通安全局(NHTSA)が調査を開始したと発表した。

同社はこの件について、「悲劇的な損失」と題したブログ記事を今日投稿し、事故が、中央分離帯のある幹線道路で起きた「極めて稀な状況」であったことを詳しく説明している。

Teslaの説明は以下の通り、

オートパイロット、運転者のいずれも、明るい青空の下でトレーラートラックの白い側部に気付かず、ブレーキをかけなかった。トレーラーの高い車高と道路を横切る位置の組み合わせによって、極めて稀な衝突が生じ、Model Sはトレーラーの下に入り、トレーラーの底部がModel Sのフロントガラスに衝突した。

同社によると、Model Sがトレーラーの側部ではなく、前部あるいは後部と衝突していれは、衝突安全装置が作動していたという。Teslaは、未だにベータテスト中のオートパイロット機能のために、これまで苦労して安全手順を見直してきた。

Teslaは事故や運転手について詳しいことを発表しておらず、「Teslaの友人」であり、EVや技術コミュニティー一般に関わってきた人物であるとだけ伝えた。

被害者は、オハイオ州カントンのJoshua Brownと思われ、5月7日にフロリダの国道で起きた衝突事故で、自分の車の天井が引きはがされた際に死亡した。トラックの運転手に怪我はなかった。Teslaは、プライバシーへの配慮から公式には運転手の身元を明らかにしていない。

Brownは、顧客満足テクノロジーのスタートアップ、Nexu Innovationsのファウンダーで、今年4月に、合流してくるトラックとあわや衝突しそうになり、オートパイロットが作動してよけ切ったところのYouTubeビデオを公開して話題になった。

Screen Shot 2016-06-30 at 6.34.03 PM

NHTSAはTechCrunchに、事故に関わったのは2015年のModel Sで、フロリダ西部のウィリストンという小さな町で、トレーラートラック交差点を曲った時に起きたことを正式に伝えた。調査の結果、最終的に車両の安全が確認できなければ、大がかりなリコールを要請する可能性がある。

同局の主席報道官、Bryan Thomasは「NHTSAの不具合情報調査室は、事故当時作動していた自動運転システムの設計および性能を検査する。予備的調査にあたり、NHTSAはこの事故や他の自動運転システムに関連する情報の追加データを収集する」と話した。

[原文へ]

(翻訳:Nob Takahashi / facebook