テスラ、一部の故障したオートパイロットカメラを無償で交換との報道

CNBCによると、Tesla(テスラ)は一部の電気自動車のフロントフェンダーに搭載されているオートパイロットのカメラを無償で交換する。Teslaはまだリコールを発表していないが、CNBCは11月下旬に認定サービスプロバイダーに配布された内部文書を確認し、その中でTeslaは欠陥のある中継カメラを無償で交換するよう求めている。同社がカリフォルニア州フレモント工場で製造しているModel S、X、3の一部の車両に搭載されているカメラの回路基板に不具合があるようだ。

このカメラはクルマの死角を撮影するもので、これがないとオートパイロットは機能しない。カメラが意図したとおりに作動しなければ、ドライバーには、メインディスプレイのブロックボックスが見えるだけで、オートパイロットの機能に制限あることが警告される。CNBCによると、Teslaは使用したPCBの欠陥により、少なくとも数百台分のカメラを交換しなければならない可能性があるという。

TeslaのセールスマネージャーはCNBCに対し、内部サービス通知後に自主的なリコールが行われることもあるが、Teslaはまだ声明を出していないと述べている。Teslaは、過去にもさまざまな問題で何度かリコールを行った。10月には、フロントサスペンションのラテラルリンクのファスナーがゆるむ可能性があるとして、約3000台のModel 3とYをリコールした。また、2017年以降、そして11月にバグのあるフルセルフ ドライビングベータ版のアップデート後に誤作動でブレーキがかかりやすくなったため、同社は1万1704台をリコールした。

編集部注:本稿の初出はEngadget。執筆者のMariella MoonはEngadgetの共同編集者。

画像クレジット:Getty Images

原文へ

(文:Mariella Moon、翻訳:Nariko Mizoguchi

テスラが完全自動運転のテスターに事故時の映像収集の許可を求める

Tesla(テスラ)の最新のFSD(Full Self-Driving、完全自動運転)では、事故や「重大な安全上のリスク」が発生した場合に、車外と車内のカメラで撮影された映像を同社が収集することへの同意をドライバーに求めている。Electrekの報道によると、同社が特定の車両とドライバーに映像記録を求めるのは初めてのことだ。

TeslaはこれまでにもFSDの一環として映像を収集してきたが、それはAI自動運転システムの訓練と改善のためにのみ使用されていた。しかし、今回の新契約によると、同社は映像を特定の車両に関連づけることができるようになる。「FSDベータを有効にすることで、私は、重大な安全リスクや衝突などの安全に関する事案が発生した際に、Teslaが車両の外部カメラやキャビンカメラからVIN(車両識別番号)に関連する画像データを収集することに同意します」と契約書には書かれている。

FSDベータ版を有効にすることで、私は、重大な安全リスクまたは衝突のような安全に関する事案が発生した場合に、Teslaが車両の外部カメラおよびキャビンカメラからVINに関連する画像データを収集することに同意します。

Electrekが指摘するように、この文言は、FSDシステムが事故の原因とされた場合に備えて、Teslaが証拠を確保したいことを示していると考えられる。また、重大な問題をより迅速に検出し、修正するためにも使用される可能性がある。

FSD 10.3は、これまでのベータ版よりも広範にリリースされたが、不当な前方衝突警告や予期せぬ自動ブレーキなどの問題が発生したため、すぐに撤回された。当時、CEOのElon Musk(イーロン・マスク)氏は、このような問題は「ベータ版ソフトウェアでは予想されること」とツイートし「社内QAですべてのハードウェア構成をすべての条件でテストすることは不可能であり、それゆえ公開テストを行う」と付け加えた。

しかし、公道を走る他のドライバーも、知らず知らずのうちにベータテスターになっている。米国道路交通安全局は、11月3日にカリフォルニア州ブレアで発生した事故について、FSDが原因で衝突事故を起こしたというドライバーの訴えを現在調査している。このオーナーは、FSDが原因でModel Yが誤った車線に入り、他の車に衝突して双方に大きな損害を与えたと主張している。

Teslaは、ドライバーセーフティースコアが98点以上のさらに多くのユーザーに新しいベータ版をリリースする。これまでベータ版のリリースは、スコアが100点満点のドライバーに限られていた。同社は、この機能を利用するために月々199ドル(約2万3000円)、または一括1万ドル(約115万円)をドライバーに課しているが、約束していた自律走行実現の期限を守れなかった。現在、FSDシステムはレベル2とされており「完全な自動運転」に必要なレベル4には程遠い。

編集部注:本稿の初出はEngadget。執筆者のSteve DentはEngadgetの共同編集者。

画像クレジット:Tesla

原文へ

(文:Steve Dent、翻訳:Nariko Mizoguchi

米運輸安全委がマスク氏にテスラ「Autopilot」の設計変更を要求、安全勧告無視に懸念

米国運輸安全委員会(NTSB)のJennifer Homendy(ジェニファー・ホメンディ)委員長は、Tesla(テスラ)に対し、同社の先進運転支援システムがドライバーに誤用されないように設計を変更するよう求めた。

TechCrunchが閲覧したこの書簡は、NTSBが4年以上前に出した2つの安全勧告をTeslaがまだ実施していないことに懸念を示している。これらの安全勧告に対応する緊急性は現在、Teslaがいわゆる「フルセルフドライビング(FSD)」ソフトウェアベータ版を通じて、より多くの自動運転機能を展開していることで高まっている。

ホメンディ氏は「貴社の車両に関わる我々の事故調査では、誤使用の可能性があるため、安全性を確保するためにはシステム設計の変更が必要であることが明確に示されています」と記している。Teslaにもコメントを求めているが、回答は得られていない。

NTSBは勧告を行うだけで、既存の法律を施行したり、政策を決定する権限はない。

ホメンディ氏は、NTSBが調査してきたさまざまな事故や事件の後、TeslaがNTSB調査官に協力していることに感謝しつつも、書簡の大部分を使って、Teslaが「NTSBの重要な安全勧告を実施していない」ことへの深い懸念を述べている。

一部抜粋する。

貴社はこれまで「Teslaの設計においては、常に安全性が第一の要件である」と述べてきました。ウィリストン、デルレイビーチ、マウンテンビューで発生した致命的な事故の原因となった設計上の欠陥をまず解決することなく、最近の発表では、Teslaのドライバーは、高速道路と市街地の両方で動作する「フルセルフドライビング(FSD)ベータ版技術」へのアクセスを要求できるということで、以前の発言は裏切られました。

Tesla車の設計において安全性を最優先することを真剣に考えているのであれば、4年前に私たちが出した安全性に関する提言を完全に実行していただきたいと思います。

NTSBは、道路における悲劇や負傷を防ぎ、人命を救うためのさまざまな技術の導入を長年にわたり提唱してきましたが、そのような技術を導入する際には、すべての道路利用者の安全を第一に考えることが極めて重要です。私たちの安全に関する提言についてのアップデートをお待ちしています。

2017年、NTSBは、Joshua Brown(ジョシュア・ブラウン)氏が乗ったTesla Model S(モデルS)セダンが、進路を横切ったトラクタートレーラーに衝突して死亡した事故の調査に基づき、同社に対して2つの安全勧告を出した。この事故では、Teslaの先進運転支援システムであるAutopilotが作動していた。同局は、ブラウン氏がAutopilotを、システムが想定していない道路で使用していたことや、長時間ハンドルから手を離し運転していたことを明らかにした。Autopilotはハンズフリーシステムではない。

NTSBは、TeslaのAutopilotシステムは、ドライバーがステアリングホイールを握る動作を効果的に監視し、それに対応してドライバーのエンゲージメントを確保していないと判断した。同局はTeslaに対し、Autopilotを設計時の条件に限定するセーフガードを設け、さらに「ドライバーのエンゲージメントレベルを効果的に感知し、自動車両制御システムの使用中にエンゲージメントが不足している場合はドライバーに警告する」方法を開発するよう勧告した。

Teslaは、Autopilotなどのいわゆるレベル2の運転支援システムについては、許容される動作環境をドライバーが決定するため、運用設計領域(ODD)の制限は適用されないと主張している。ホメンディ氏はマスク氏に宛てたメールの中でこの主張に反論し、当局の事故調査では「誤用される可能性があるため、安全性を確保するためにシステム設計の変更が必要であることが明確に示されている」と指摘した。

またホメンディ氏は、レベル2の運転自動化システムを搭載した車両を持つ他の自動車メーカー5社に、ドライバーの関与を促し警告する方法を適用するよう勧告を送ったことにも言及した。ホメンディ氏がマスク氏に宛てた書簡によると、これらのメーカー5社はNTSBに回答し、ドライバーのエンゲージメントレベルをよりよくモニターするために計画している、または実施している行動を説明したという。

「Teslaは、この勧告について公式に回答しなかった唯一のメーカーです」と同氏は書いている。

画像クレジット:Tesla

原文へ

(文:Kirsten Korosec、翻訳:Aya Nakazato)

テスラ、最新「完全自動運転」ベータ版ソフトウェアの問題が相次ぎ即座に撤回

Tesla(テスラ)のElon Musk(イーロン・マスク)CEOは、同社のフルセルフドライビング(FSD)ソフトウェアベータ版の最新バージョンがリリースされてから1日も経たないうちに、一時的にロールバックしたとツイートした。

「(FSDベータ)10.3でいくつかの問題が発生したため、一時的に10.2に戻しました」とマスク氏は米国時間10月24日にツイートした。「これはベータ版ソフトウェアでは想定の範囲内だと了承して頂きたい。社内のQA(品質保証)では、すべてのハードウェア構成をあらゆる条件下でテストすることは不可能であり、そのためのパブリックベータ版ということです」とも。

このニュースは、Teslaが「Autopilot(オートパイロット)」とブランディングされている先進運転支援システムの安全性について規制当局から非難を受けている中でのことだ。AutopilotはTesla車に標準装備されている。いわゆるFSDソフトウェアはプラス1万ドル(約110万円)で、より多くの自動運転機能を提供する。

関連記事:米当局がテスラのオートパイロット機能を調査開始、駐車中の緊急車両との衝突事故受け

ただし、Tesla車は自動運転ではない。先進運転支援システムであることに変わりはなく、FSDが作動していてもドライバーは十分な注意を払う必要がある。最近のMITの研究では、(Autopilot作動中に)ドライバーの注意力が低下する傾向にあり、それが安全上のリスクにつながることがわかっている。

関連記事:MITがテスラ車ドライバーは「オートパイロット使用時に注意散漫になる」研究結果を発表

バージョン10.3は、米国時間10月22日に一部のTeslaオーナーにリリースされる予定だったが、23日にマスク氏は、もう1日待つ必要があると述べていた。

「10.3の内部QAで、信号機での左折時の不具合が見つかった」と同氏は23日にツイートした。「現在修正中で、おそらく明日リリースする予定です」。

FSD10.3ベータ版ユーザーが投稿した動画には、危険がないにもかかわらず「前方衝突警告」が発せられたという例が複数あり、中には理由なく自動ブレーキがかかる車両もあった。また、ドライバーたちはソーシャルメディアに、オートステアオプションの消滅、トラフィックアウェア クルーズコントロール機能の問題、Autopilotのパニックなどの問題を投稿した。マスク氏は、Autopilotとクルーズコントロールの問題に取り組んでいるとツイートしている。

マスク氏は、FSDの次のバージョンのリリース日についてはまだ発表していない。

画像クレジット:Tesla

原文へ

(文:Rebecca Bellan、翻訳:Aya Nakazato)

米道路交通安全局がテスラに対し、秘密保持契約と無線ソフトウェアアップデートについて説明を要求

米国道路交通安全局(NHTSA)が、同国の電気自動車メーカーであるTesla(テスラ)宛に2通の書簡を送った。1つは同社が「フルセルフドライビング」ソフトウェアのベータ版に早期アクセスするオーナーに、秘密保持契約を要求していること、そしてもう1件は、規制当局がリコールを届け出る必要があるとしている問題を修正するために、無線ソフトウェアアップデートを使用したこと、以上の2点を同局は問題視している。

今回送られた書簡は、NHTSAがテスラの先進運転支援システム「Autopilot(オートパイロット)」の自動運転機能や、ソフトウエアの無線アップデートに関連するテスラの慣行について、監視の目を強めていることを示している。

テスラの製造販売する車両には「Autopilot」と呼ばれる運転支援システムが標準装備されている。さらに購入者が1万ドル(約113万円)の追加料金を支払うと、より高度な機能が利用できる「フルセルフドライビング(FSD)」システムにアップグレードすることができる。このソフトウェアは、Elon Musk(イーロン・マスク)CEOが繰り返し約束しているように、いつかは完全な自動運転走行が可能になると言われているものだ。

FSDは数年前からオプションとして用意されており、これまで着実に値上げと新機能の追加が行われてきた。しかしながら、現状ではテスラのクルマは完全な自動運転ではない。FSDには、自動駐車場機能「Summon(サモン)」や、高速道路の入り口から出口まで、インターチェンジや車線変更を含めてクルマを導くアクティブガイダンス運転支援システム「Navigate on Autopilot(ナビゲート・オン・オートパイロット)」が含まれる。さらにFSDの最新ベータ版では、高速道路や市街地での運転を自動化するとされている。しかし、これはまだレベル2の運転支援システムであり、ドライバーが注意を払い、ハンドルから手を離さず、常に車両をコントロールできる状態でいることが求められる。

米国時間10月12日付の1通目の書簡では、テスラが先進運転支援システム「Autopilot」で、低照度下における緊急車両の検知方法をソフトウェアアップデートで修正した際に、リコールを届け出なかった理由を説明するよう求めている。NHTSAの見解では、車両の安全性に関わる部分を修正するために、無線ソフトウェアアップデートを使用する場合は、リコールを届け出る必要があるとしている。

「テスラも認識しているように、米国の安全法は、自動車および自動車機器の製造者に対し、製造した自動車または機器に自動車の安全性に関わる欠陥があると判断した場合、または適用される自動車安全基準に適合していないと判断した場合、NHTSAに通知してリコールを実施する義務を課している」と、NHTSAは記している。

NHTSAの記述によれば、リコール通知は、メーカーが安全上の欠陥や不適合を知った時点から、または知るべきであった時点から、5営業日以内にNHTSAに届け出なければならないとされている。

「車両の安全性に不合理なリスクをもたらす欠陥を緩和するために無線アップデートを配信する製造者は、それにともなうリコール通知をNHTSAに適時提出する必要がある」と、この書簡は続いている。

同じく10月12日付の2通目の書簡は、テスラがいわゆるFSDのベータ版早期アクセスプログラムに、秘密保持契約を用いていることに言及したものだ。FSDの購入者はすでに料金を支払っているが、テスラはオーナーがベータ版ソフトウェアにアクセスするためには、秘密保持契約を結ぶことを要求している。さらに9月には、マスク氏がさらに別の要件も制定した。それは最新のベータ版にアクセスできるオーナーを選定するために、個人の運転データを使用して安全スコアを算出するというものだ。

「NHTSAは、潜在的な安全上の欠陥を評価するための重要な情報源として、消費者からの報告に依存している。そのため、ベータ版早期アクセスプログラムの参加者が、NHTSAに安全上の懸念を報告することを妨げたり、思いとどまらせたりするような合意は容認できない」と、同局は書簡に記している。

「さらに、特定の情報を公開することを制限する行為は、NHTSAの安全性に関連する情報を取得する能力に悪影響を与える。FSDのベータ版早期アクセスにともなう秘密保持契約が、NHTSAの監督責任の遂行を妨げないことを保証するため、当局はテスラに対して添付の特別命令を発行する」。

なお、マスク氏は今週、Twitter(ツイッター)で、テスラが秘密保持契約の要求を取り下げることを示唆している。

イーロン・マスク氏へ。FSDベータ版の秘密保持契約が解除されました。

Whole Mars Catalog

パンチングロールによる提供を予定しています。

Elon Musk

しかしながら、NHTSAはさらなる情報を求めており、テスラは11月1日までに両方の要求に答える必要があると、同局は述べている。

画像クレジット:Christopher Goodney/Bloomberg / Getty Images

原文へ

(文:Kirsten Korosec、翻訳:Hirokazu Kusakabe)

MITがテスラ車ドライバーは「オートパイロット使用時に注意散漫になる」研究結果を発表

今週末までには、数千人のTesla(テスラ)車ユーザーが、同社の「Full Self-Driving(フル・セルフ・ドライビング)」と呼ばれる機能の最新ベータ版ソフトウェア(バージョン10.0.1)を、公道で試すことになる可能性がある。だが、米国の規制当局や連邦政府は、いくつかの顕著な事故が起きていることを踏まえ、このシステムの安全性を調査している

関連記事:米当局がテスラのオートパイロット機能を調査開始、駐車中の緊急車両との衝突事故受け

テスラの「FSD」や「Autopilot(オートパイロット)」システムは、名前から想像するのとは違い、実際には完全な自動運転が可能なシステムなどではなく、いわゆる先進運転支援システム(ADAS)に過ぎない。マサチューセッツ工科大学(MIT)は、このシステムが実際にはそれほど安全ではないのではないかという懸念を裏づける新しい研究結果を発表した。人間のドライバーが開始させた同社の運転支援システムが解除されるエポックのデータ290件を調査した結果、部分的にこのシステムを使用している場合、ドライバーが不注意になる傾向があることがわかった。

「視覚的な行動パターンは、『Autopilot』の解除の前後で変化する」とこの研究報告には書かれている。「システム解除前のドライバーは、手動運転に移行した後と比較して、路上を見る回数が少なく、運転に関係のない領域に集中している。手動運転に切り替わる前は、視線が道路から外れている割合が大きく、より長く前方に視線を向けて補われることはなかった」。

テスラのElon Musk(イーロン・マスク)CEOによれば、(オプションとして設定されている)FSDソフトウェアを購入したすべての人が、より多くの自動運転機能を約束するこの新しいベータ版を利用できるわけではないという。テスラはまず、ドライバーが十分な注意力を維持していることを確認するために、テレメトリーデータを使って、7日間にわたって個人の運転指標を取得する。このデータは、所有者の車両を追跡する新しい安全性評価ページにも使用される可能性がある。このページは保険にリンクされる。

MITの研究は、ドライバーがテスラのAutopilotシステムを推奨通りに使用していない可能性があることを示すものだ。Autopilotには交通状況に合わせて機能するクルーズコントロールや、自動的にハンドルを制御するオートステアリングなどの安全機能が搭載されているため、ドライバーは注意力が低下し、ハンドルから手を離すことが多くなる。このような行動が起きるのは、ドライバーがAutopilotの機能やその限界を誤解していることが原因である可能性があり、この機能がうまく働くほど、それらの誤解は強化される傾向があることを研究者たちは発見した。タスクが自動化されたドライバーは、視覚的・身体的な注意力を維持しようとすると自然と飽きてしまい、それがさらに不注意を生むと、研究者たちは述べている。

「A model for naturalistic glance behavior around Tesla Autopilot disengagements(テスラオートパイロット解除時の自然な視線の行動モデル)」と題されたこのレポートは、テスラの「Model S(モデルS)」および「Model X(モデルX)」のオーナーの日常生活を、1年以上にわたってボストン全域で追跡調査した後にまとめられたものだ。調査対象となった車両には、CAN-BUSとGPS、そして3台の720pビデオカメラから継続的にデータを収集する「Real-time Intelligent Driving Environment Recording(リアルタイム・インテリジェント運転環境記録)」データ収集システムが搭載されていた。これらのセンサーは、車両の運動、ドライバーと車両制御装置の相互作用、走行距離、位置情報、ドライバーの姿勢、顔、車両前方の景色などの情報を提供する。MITは約50万マイル(約80万キロメートル)分のデータを収集した。

この研究に関わった研究者たちは「自然主義的なデータに基づき、自動運転下におけるドライバーの注意力の変移の特徴を理解し、ドライバーが運転タスクに十分に従事し続けるためのソリューションの開発を支援することができる」という視線行動のモデルを作り上げた。これは、ドライバー監視システムが「不規則な」視線に対処するために役立つだけでなく、自動化がドライバーの行動に及ぼす安全上の影響を研究するためのベンチマークとしても利用できる。

Seeing Machines(シーイング・マシーンズ)やSmart Eye(スマート・アイ)のような企業は、すでにGeneral Motors(ゼネラルモーターズ)、Mercedes-Benz(メルセデス・ベンツ)、Ford(フォード)などの自動車メーカーと協力して、カメラを使ったドライバー監視システムを、ADAS搭載車に導入するだけでなく、飲酒運転や運転障害による問題にも対応している。技術はすでに存在しているのだ。問題は、テスラがそれを使おうとするかどうかである。

関連記事:ドライバー監視システム需要を喚起する米国の新しい飲酒運転規制条項

画像クレジット:Bloomberg / Contributor under a license.

原文へ

(文:Rebecca Bellan、翻訳:Hirokazu Kusakabe)

テスラの「フル セルフドライビング」のベータ版ソフトは運転成績が良い者だけが使える

Tesla(テスラ)のCEO、Elon Musk(イーロン・マスク)氏によると、同社は今後、個人の運転データを利用して、議論を呼んでいる同社の「フル セルフドライビング」(FSD)ソフトを購入したオーナーが、より多くの自動運転機能を約束する最新のベータ版にアクセスできるかどうかを判断するために、個人の運転データを使用するという。

米国時間9月16日夜のマスク氏のツイートによると、FSD Beta v10.0.1のソフトウェアアップデートはすでに一部の選ばれたオーナーに公開されているが、9月24日からより広く利用可能になるという。

現在1万ドル(約110万円)のFSDにお金を払っているオーナーは「ベータリクエストボタン」によりベータソフトウェアにアクセスできる。マスク氏のツイートによると、ベータソフトウェアをセレクトしたドライバーは、Teslaの保険計算アプリにより自分の運転行為にアクセスする許可を求められる。

「運転が7日間良好であれば、ベータ版へのアクセスが認められる」とツイートでは述べられている。

Teslaの車両には、「Autopilot(オートパイロット)」と運転支援システムが標準で装備されている。さらに1万ドルを払うと、オーナーは「フル・セルフドライビング」すなわちFSDを購入できる。FSDは、いつか完全な自律走行を実現するとマスク氏が繰り返し約束しているソフトウェア

絶えず値上げが行われているFSDは、その度に機能が増えている。これまで何年間もオプションとして提供されていたが、Teslaの車両は自動運転車ではない。FSDには駐車機能の「Smart Summon」と、オートパイロットにもある「Navigate」がある。これはハイウェイのオンランプやオフランプに導く常時動いているガイダンスシステムで、インターチェンジや車線変更のガイドもする。

最新のFSDベータ版は、高速道路や市街地での運転を自動化するという。しかし、これはレベル2の運転支援システムであり、ドライバーは常に注意を払い、ハンドルから手を離さず、コントロールする必要がある。このベータ版ソフトを使用したオーナーの体験談が投稿されているが、その能力についてはさまざまな意見がある。ある動画では、車両は市街地走行をこなしているが、多くの動画では、曲がり損ねたり、縁石に近づきすぎたり、前に進まなかったり、あるケースでは歩行者に向かって急に逸脱したりして、ドライバーがコントロールしている様子が見られる。

画像クレジット:Tesla

原文へ

(文:Kirsten Korosec、翻訳:Hiroshi Iwatani)

米交通安全局がテスラに運転支援システム「Autopilot」の詳細な情報提供を命じる

New York Times紙によると、米国運輸省道路交通安全局(NHTSA)はTesla(テスラ)に対し、同社の運転支援システム「Autopilot(オートパイロット)」の詳細データを10月22日までに提出しなければ、最大1億1500万ドル(約126億円)の罰金を科すと命じた。NHTSAは8月に、Autopilotを作動させたテスラ車が、駐車中のライトを点滅させた救急車両に衝突した事件を調査していることを発表している。同局は当初、2018年以降に合計17人の負傷者と1人の死亡者を出したこのような11件の事故を挙げていたが、先週の土曜日に12件目の事故が発生したばかりだ。

NHTSAは、この電気自動車メーカーに送った書簡の中で、同社の運転支援システムがどのように機能するのかについて、詳細な情報を提供するように指示した。Autopilotが作動している間、人間のドライバーが道路から目を離さないことをどうやってチェックしているのか、また、場所によってAutopilotの機能に制限が加えられるかどうかということを、NHTSAは知りたがっているのだ。連邦政府は長い間、テスラが人間のドライバーにハンドルから手を離させないようにする安全装置を備えていないと批判してきた。数カ月前、同社はようやく「Model 3(モデル3)」と「Model Y(モデルY)」のリアビューミラーの上に取り付けられたカメラを作動させ「Autopilot作動中のドライバーの不注意を検知して警告する」ようにした。Autopilotは高速道路での使用のみを想定しているものだが、ドライバーが一般道路でAutopilotを使用することを妨げるような仕組みは何もない。

NHTSAは、Autopilotの詳細なデータに加えて、テスラが米国で販売した車両の台数についても情報を求めている。さらに同社が関与したすべてのAutopilot関連の仲裁手続きや訴訟、Autopilotに関して顧客から受けたすべての苦情についても知りたいとしている。

編集部注:本記事の初出はEngadget。執筆者のMariella Moonは、Engadgetの編集委員。

関連記事
マスク氏が自社製を含む完全自動運転システムは「すばらしいものではない」と発言、単一スタックを問題点として認める
ロボット、チップ、完全自動運転、イーロン・マスク氏のTesla AI Dayハイライト5選
米当局がテスラのオートパイロット機能を調査開始、駐車中の緊急車両との衝突事故受け
画像クレジット:Spencer Platt / Getty Images

原文へ

(文:Mariella Moon、翻訳:Hirokazu Kusakabe)

マスク氏の地下交通システム「Loop」は約束した無人ではなく運転手必須のテスラ「オートパイロット」を採用

正式公開から2週間足らず、The Boring Company(ザ・ボアリング・カンパニー)がラスベガスで運営するLoop(ループ)システムに初のセキュリティ侵害が発生した。

6月21日、Internationl Beauty Show(インターナショナル・ビューティー・ショウ)最終日の午前、地下を走行する同システムのTesla(テスラ)車団に「無許可車両」が侵入したことが、Loopの運営管理者とクラーク郡当局で交わされたメールでわかった。当該メールはTechCrunchが情報開示法に基づいて入手した。

一連のメールには、侵入事件以外にもLoopの運用に関する新たな詳細が記されていた。システムの非Teslaの電気自動車への驚くべき依存、Tesla車両に運転支援システムであるAutopilot(オートパイロット)の使用を許可する計画、および社内でテクノロジーが自律システムではないと位置づけられていることなど。

The Boring Company(TBC)はラスベガス市警察に侵入事件の捜査を依頼した。「無許可車両のドライバーは協力的で最終的にシステム外へと誘導された」とあるメールに書かれていた。

セキュリティ侵害による負傷や死亡はなかったが、TBCにとってなんとも不名誉な事件であることは間違いない。同社は5300万ドル(約58億2000万円)をかけた同システムのセキュリティと安全性をLVCC(ラスベガス・コンベンション・センター)に売り込んでいた。

TBCとLVCCの間で結ばれた経営合意によると、システムは「偶発的、悪意による、あるいはその他の無許可車両のトンネル内侵入を防ぐための物理的障壁」を備えることになっていた。システム進入路の防犯ゲート、地上駅を囲う数十基のコンクリート製車止めポールなどだ。

TBCもLVCCも、本事象に関する問い合わせに答えていない。TechCrunchはいずれかの回答が得られ次第本稿を更新する予定だ。

オートパイロットにチャンス到来

TechCrunchが入手したメール群は、スリルを求めた侵入者以上の情報を提供している。

そこにはTBCがLVCC Loopを走るTesla車の台数を62から70に増やし、Teslaのオートパイロットテクノロジーの使用を許可する計画の詳細が書かれている。これまでTBCは、全車両の運転支援テクノロジーを無効化し、人間ドライバーに操作させている。

新たな運用計画では、7つのアクティブセーフティ技術として、自動緊急ブレーキ、前方・側方衝突警報、障害物対応加速、死角監視、車線逸脱抑制、緊急車線逸脱警報、および2つの「フル・オートパイロット」技術である、車線中央維持と交通量感知型クルーズコントロールの仕様を要求している。

TBCがオートパイロット利用の必要性を説明するためにネバダ州クラーク郡の建築物・防火局に送ったレターをTechCrunchが他のメールとともに入手した。

TBCのプレジデントであるSteve Davis(スティーブ・デービス)氏は、当該機能を無効化することは「実績ある公道仕様技術」から「積極的に安全レイヤーを取り除く」ものであると書いた。デービス氏は「Tesla車でオートパイロットを作動させていたドライバーは、オートパイロットあるいは能動的安全機能を使用していなかったドライバーと比べて走行1マイルあたりの衝突が1/4以下だった」というTeslaの2021年第1四半期安全レポートの記述を引用した。「ここで明らかにされているように、Tesla車のこれらの機能を無効化することは事故の可能性を高めるものです」とデービス氏は書いた。

しかし、幹線道路交通安全局(NHTSA)は先週、いくつかの衝突事故を受けて同テクノロジーの正式な安全調査を開始した。

クラーク郡建築物・防火局責任者のJerry Stueve(ジェリー・スチューブ)氏はメールで次のように返信した。「我々はこの件を検討する予定ですが、『autodrive』(自動運転)という用語の定義とそれに何がともなうかをより明確にしていただければ、当部におけるこの要望の評価に役立つと思われます」。

「『オートパイロット』という用語がしはしば曖昧であり、車両とシナリオによって多くの異なる意味をなしうることに同意します」とデービス氏は返信した。(ここでデービス氏は上司であるElon Musk[イーロン・マスク]氏と意見を異にしているようで、マスク氏はオートパイロットの名前に対する批判に対して、誤解を与え「ばかげている」と反論している)。

「これらは『自律走行車』(autonomous)でも『自動運転車』(self-driving)でもありません」とデービス氏は続けた。「Teslaのオートパイロットと能動的安全機能を利用することで運転中の安全性に新たなレベルを加えることができますが、この機能を利用するためにはいつでもハンドルを取り戻せる十分注意深いドライバーが常に必要です」。

オートパイロットvs自律走行運転

TBCがLVCCに初めてLoopシステムを売り込んだ時の約束と矛盾することもあり、この区別は非常に重要だ。2019年、工事契約署名前に提出した地上利用申請書でTBCは次のように書いた。「Tesla Autonomous Electric Vehicles(AEVs、テスラ自律走行電動自動車)は高速、地下トンネルの乗客を3か所の地下駅まで運びます」。

2019年7月の計画書には「自律走行電動自動車の地下トンネルにおける活用は、既存の建造物や輸送システムに関わる妨害や対立を最小限にする独自の輸送ソリューションです」と書かれている。以来、同社は他の申請書類に同じような文言を使用しており、ラスベガス地域に数十の駅を設置する提案書も同様だ。

2021年1月、TechCrunchはLVCCとTBCの間で交わされた経営合意文書を入手し、そこにはこう書かれていた。「LVCCがPeople Mover Systemを購入した理由の1つはPeople Mover System車両の自律走行する能力にある【略】本契約書は、システムが有人運転を自律走行に切り替え、2021年12月31日までに、価格交渉を前提に、この変更を運用に織り込む意志があることを認識している」。

その期日はほぼ間違いなく守られない。2021年6月、スチューブ氏はデービス氏に次のように話した。「プロジェクトのはじめに話したように、自律走行運用の承認には、大がかりな監視、試験、検証が必要です。このプロセスには非常に多くの時間がかかります」。

それに答えてデービス氏は「私たちが自律走行あるいは自動運転の機能、運用を要求していないことを明らかにさせていただきたい」と述べている。

Loopの中の人間たち

問題は2つある。第1はTeslaのオートパイロットシステムが当面、ドライバーなしでは完全な動作ができないこと。第2は、おそらくもっと深刻で、Loopは国の標準が定める地下輸送システムの安全要求を満たすために、強くドライバーに依存していることだ。その種のシステムの乗客は、モノレールであれ電動車を使う地下的であれ、停電、火災、洪水などの非常時の安全が保証されなくてはならない。

TechCrunchがメールとともに入手したLVCC Loopの設計文書にはこう書かれている。「(我々の)訓練されたドライバーはシステムの安全面で重要な役割を果たします。緊急時にドライバーが乗客を適切に安全な場所に誘導する行動は、主要なリスク軽減措置です」。

TechCrunchが入手したいくつかの文書がこれを裏づけている。火災の際、ドライバーは「乗客の降車を補助し、歩ける乗客を最も近い出口に誘導する。ドライバーは口頭で指示を与える他乗客を身体的に補助すること場合もある」。ドライバーが乗客を率いて歩く場合「頻繁に振り返って全員がすぐ後に続いていることを確認する」。

ドライバーは、手に負えない問題がある乗客の判定と対応に責任を持ち、オートパイロット自体の動作状況の監視も行うとTBCはいう。「Loopにはドライバーが同乗し、能動的安全機能の使用を監督して必要に応じてブレーキや操舵を取って代わる人間が常に存在することを保証します」とデービス氏が6月に述べている。

TechCrunchが入手した数十件の文書と数百通のメールの中に、LVCC Loopの将来拡張の詳細や、TBCが完全自律走行に移行する方法や日程について書かれたものは1つもない。

Loopが米国土木学会の定める自律走行システムの安全原則に合致しているかについての質問に対して、TBCは次のように回答した。「自律走行運用に特有の基準はLVCC Loopには当てはまりません、なぜなら当システムは車両を操作するドライバーを有するからです」。

果たしてTBCがクラーク郡に伝えていることが、あるいはLVCCに伝えていることが、将来のLoopの運行にどれほど近いものなのかを知るには、時を待つしかない。

ちなみに、もしLoopの車両がまだドライバーレスではないのなら、LVCCはせめて全車両がTesla最新のモデルになると期待できるのか?おそらく違うだろう。

Loopのもう1つの要件は、米国障害者法(ADA)を遵守していることだ。クラーク郡担当者への7月のメールで、TBC幹部は、LVCC LoopのためにTesla以外のADA準拠電動車を購入する予定であることを明かした。

メールに具体的モデル名は書かれていなかったが、短距離用鉛酸蓄電池を備え、Tropos Motors(トロポス・モーターズ)の電動多目的車、Able(エーブル)と同じ仕様だ。この件に関してTroposもTBCも質問への回答はない。

関連記事
イーロン・マスク氏のLoopのドライバーには同社の「偉大なリーダー」に関する台本が渡される
財政苦境に直面するイーロン・マスク氏のラスベガスループ地下輸送システム、The Boring Companyに賠償金数億円の可能性
イーロン・マスクの次世代交通システム「Loop」、ラスベガスの地下へ
画像クレジット:Ethan Miller / Getty Images

原文へ

(文:Mark Harris、翻訳:Nob Takahashi / facebook

ロボット、チップ、完全自動運転、イーロン・マスク氏のTesla AI Dayハイライト5選

Elon Musk(イーロン・マスク)氏はTesla(テスラ)を「単なる電気自動車会社ではない」と見てもらいたいと考えている。米国時間8月19日に開催されたTesla AI Day(テスラ・AI・デー)で、イーロン・マスクCEOはテスラのことを「推論レベルとトレーニングレベルの両方でハードウェアにおける深いAI活動」を行っている企業であると説明した。この活動は、自動運転車への応用の先に待つ、Teslaが開発を進めていると報じられている人型ロボットなどに利用することができる。

Tesla AI Dayは、映画「マトリックス」のサウンドトラックから引き出された45分間にわたるインダストリアルミュージックの後に開始された。そこでは自動運転とその先を目指すことを支援するという明確な目的のもとに集められた、テスラのビジョンとAIチームに参加する最優秀のエンジニアたちが、次々に登場してさまざまなテスラの技術を解説した。

「それを実現するためには膨大な作業が必要で、そのためには才能ある人々に参加してもらい、問題を解決してもらう必要があるのです」とマスク氏はいう。

この日のイベントは「Battery Day」(バッテリー・デー)や「Autonomy Day」(オートノミー・デー)と同様に、テスラのYouTubeチャンネルでライブ配信された。超技術的な専門用語が多かったのだが、ここではその日のハイライト5選をご紹介しよう。

Tesla Bot(テスラ・ボット):リアルなヒューマノイド・ロボット

このニュースは、会場からの質問が始まる前にAI Dayの最後の情報として発表されたものだが、最も興味深いものだった。テスラのエンジニアや幹部が、コンピュータービジョンやスーパーコンピュータDojo(ドージョー)、そしてテスラチップについて語った後(いずれも本記事の中で紹介する)、ちょっとした幕間のあと、白いボディスーツに身を包み、光沢のある黒いマスクで顔が覆われた、宇宙人のゴーゴーダンサーのような人物が登場した。そして、これは単なるテスラの余興ではなく、テスラが実際に作っている人型ロボット「Tesla Bot」の紹介だったことがわかった。

画像クレジット:Tesla

テスラがその先進的な技術を自動車以外の用途に使うことを語ろうとするときに、ロボット使用人のことを語るとは思っていなかった。これは決して大げさな表現ではない。CEOのイーロン・マスク氏は、食料品の買い物などの「人間が最もやりたくない仕事」を、Tesla Botのような人型ロボットが代行する世界を目論んでいるのだ。このボットは、身長5フィート8インチ(約173cm)、体重125ポンド(約56.7kg)で、150ポンド(約68kg)の荷物を持ち上げることが可能で、時速5マイル(約8km/h)で歩くことができる。そして頭部には重要な情報を表示するスクリーンが付いている。

「もちろん友好的に、人間のために作られた世界を動き回ることを意図しています」とマスク氏はいう。「ロボットから逃げられるように、そしてほとんどの場合、制圧することもできるように、機械的そして物理的なレベルの設定を行っています」。

たしかに、誰しもマッチョなロボットにやられるのは絶対避けたいはずだ(だよね?)。

2022年にはプロトタイプが完成する予定のこのロボットは、同社のニューラルネットワークや高度なスーパーコンピューターDojoの研究成果を活用する、自動車以外のロボットとしてのユースケースとして提案されている。マスク氏は、Tesla Botが踊ることができるかどうかについては口にしなかった。

関連記事:テスラはロボット「Tesla Bot」を開発中、2022年完成予定

Dojoを訓練するチップのお披露目

画像クレジット:Tesla

テスラのディレクターであるGanesh Venkataramanan(ガネッシュ・べンカタラマン)氏が、完全に自社で設計・製造されたテスラのコンピュータチップを披露した。このチップは、テスラが自社のスーパーコンピュータ「Dojo」を駆動するために使用している。テスラのAIアーキテクチャの多くはDojoに依存している。Dojoはニューラルネットワークの訓練用コンピューターで、マスク氏によれば、膨大な量のカメラ画像データを他のコンピューティングシステムの4倍の速さで処理することができるという。Dojoで訓練されたAIソフトウェアは、テスラの顧客に対して無線を通じてアップデートが配信される。

テスラが8月19日に公開したチップは「D1」という名で、7nmの技術を利用している。べンカタラマン氏はこのチップを誇らしげに手に取りながら、GPUレベルの演算機能とCPUとの接続性、そして「現在市販されていて、ゴールドスタンダードとされている最先端のネットワークスイッチチップ」の2倍のI/O帯域幅を持っていると説明した。彼はチップの技術的な説明をしながら、テスラはあらゆるボトルネックを避けるために、使われる技術スタックを可能な限り自分の手で握っていたかったのだと語った。テスラは2020年、Samsung(サムスン)製の次世代コンピューターチップを導入したが、ここ数カ月の間、自動車業界を揺るがしている世界的なチップ不足から、なかなか抜け出せずにいる。この不足を乗り切るために、マスク氏は2021年夏の業績報告会で、代替チップに差し替えた結果、一部の車両ソフトウェアを書き換えざるを得なくなったと語っていた。

供給不足を避けることは脇においても、チップ製造を内製化することの大きな目的は、帯域幅を増やしてレイテンシーを減らし、AIのパフォーマンスを向上させることにあるのだ。

AI Dayでべンカタラマン氏は「計算とデータ転送を同時に行うことができ、私たちのカスタムISA(命令セットアーキテクチャ)は、機械学習のワークロードに完全に最適化されています」と語った。「これは純粋な機械学習マシンなのです」。

べンカタラマン氏はまた、より高い帯域幅を得るために複数のチップを統合した「トレーニングタイル」を公開した。これによって1タイルあたり9ペタフロップスの演算能力、1秒あたり36テラバイトの帯域幅という驚異的な能力が実現されている。これらのトレーニングタイルを組み合わせることで、スーパーコンピューター「Dojo」が構成されている。

完全自動運転へ、そしてその先へ

AI Dayのイベントに登壇した多くの人が、Dojoはテスラの「Full Self-Driving」(FSD)システムのためだけに使われる技術ではないと口にした(なおFSDは間違いなく高度な運転支援システムではあるものの、まだ完全な自動運転もしくは自律性を実現できるものではない)。この強力なスーパーコンピューターは、シミュレーション・アーキテクチャーなど多面的な構築が行われており、テスラはこれを普遍化して、他の自動車メーカーやハイテク企業にも開放していきたいと考えている。

「これは、テスラ車だけに限定されるものではありません」マスク氏。「FSDベータ版のフルバージョンをご覧になった方は、テスラのニューラルネットが運転を学習する速度をご理解いただけると思います。そして、これはAIの特定アプリケーションの1つですが、この先さらに役立つアプリケーションが出てくると考えています」。

マスク氏は、Dojoの運用開始は2022年を予定しており、その際にはこの技術がどれほど多くの他のユースケースに応用できるかという話ができるだろうと語った。

コンピュータビジョンの問題を解決する

AI Dayにおいてテスラは、自動運転に対する自社のビジョンベースのアプローチの支持を改めて表明した。これは同社の「Autopilot」(オートパイロット)システムを使って、地球上のどこでも同社の車が走行できることを理想とする、ニューラルネットワークを利用するアプローチだ。テスラのAI責任者であるAndrej Karpathy(アンドレイ・カーパシー)氏は、テスラのアーキテクチャを「動き回り、環境を感知し、見たものに基づいて知的かつ自律的に行動する動物を、ゼロから作り上げるようなものだ」と表現した。

テスラのAI責任者であるアンドレイ・カーパシー氏が、コンピュータビジョンによる半自動運転を実現するために、テスラがどのようにデータを管理しているかを説明している(画像クレジット:Tesla)

「私たちが作っているのは、もちろん体を構成するすべての機械部品、神経系を構成するすべての電気部品、そして目的である自動運転を果たすための頭脳、そしてこの特別な人工視覚野です」と彼はいう。

カーパシー氏は、テスラのニューラルネットワークがこれまでどのように発展してきたかを説明し、いまやクルマの「脳」の中で視覚情報を処理する最初の部分である視覚野が、どのように幅広いニューラルネットワークのアーキテクチャと連動するように設計されていて、情報がよりインテリジェントにシステムに流れ込むようになっているかを示した。

テスラがコンピュータービジョンアーキテクチャーで解決しようとしている2つの主な問題は、一時的な目隠し(交通量の多い交差点で車がAutopilotの視界を遮る場合など)と、早い段階で現れる標識やマーク(100メートル手前に車線が合流するという標識があっても、かつてのコンピューターは実際に合流車線にたどり着くまでそれを覚えておくことができなかったなど)だ。

この問題を解決するために、テスラのエンジニアは、空間反復型ネットワークビデオモジュールを採用した。このモジュールのさまざまな観点が道路のさまざまな観点を追跡し、空間ベースと時間ベースのキューを形成して、道路に関する予測を行う際にAIモデルが参照できるデータのキャッシュを生成する。

同社は1000人を超える手動データラベリングチームを編成したと語り、さらに大規模なラベリングを可能にするために、テスラがどのように特定のクリップを自動ラベリングしているかを具体的に説明した。こうした現実世界の情報をもとに、AIチームは信じられないようなシミュレーションを利用して「Autopilotがプレイヤーとなるビデオゲーム」を生み出す。シミュレーションは、ソースやラベル付けが困難なデータや、閉ループの中にあるデータに対して特に有効だ。

関連記事:テスラが強力なスーパーコンピューターを使ったビジョンオンリーの自動運転アプローチを追求

テスラのFSDをとりまく状況

40分ほど待ったときに、ダブステップの音楽に加えて、テスラのFSDシステムを映したビデオループが流れた、そこには警戒していると思われるドライバーの手が軽くハンドルに触れている様子が映されていた。これは、決して完全に自律的とは言えない先進運転支援システムAutopilotの機能に関する、テスラの主張が精査された後で、ビデオに対して法的要件が課されたものに違いない。米国道路交通安全局(NHTSA)は 今週の初めにテスラが駐車中の緊急車両に衝突する事故が11件発生したことを受け、オートパイロットの予備調査を開始することを発表した。

その数日後、米国民主党の上院議員2名が連邦取引委員会(FTC)に対して、テスラのAutopilot(自動操縦)と「Full Self-Driving」(完全自動運転)機能に関するマーケティングおよび広報活動を調査するよう要請した。

関連記事
米当局がテスラのオートパイロット機能を調査開始、駐車中の緊急車両との衝突事故受け
テスラの「完全」自動運転という表現に対し米上院議員がFTCに調査を要請

テスラは、7月にFull Self-Drivingのベータ9版を大々的にリリースし、数千人のドライバーに対して全機能を展開した。だが、テスラがこの機能を車に搭載し続けようとするならば、技術をより高い水準に引き上げる必要がある。そのときにやってきたのが「Tesla AI Day」だった。

「私たちは基本的に、ハードウェアまたはソフトウェアレベルで現実世界のAI問題を解決することに興味がある人に、テスラに参加して欲しい、またはテスラへの参加を検討して欲しいと考えています」とマスク氏は語った。

米国時間8月19日に紹介されたような詳細な技術情報に加えて、電子音楽が鳴り響く中で、Teslaの仲間入りをしたいと思わない血気盛んなAIエンジニアがいるだろうか?

一部始終はこちらから。

画像クレジット:Tesla

原文へ

(文:Rebecca Bellan、Aria Alamalhodaei、翻訳:sako)

テスラの「完全」自動運転という表現に対し米上院議員がFTCに調査を要請

2人の民主党上院議員が、今度の連邦取引委員会(FTC)の議長に、Tesla(テスラ)のオートパイロットとフルセルフドライビング両システムの自動運転能力に関する、同社の声明を調査するよう求めた。上院議員Edward Markey(エド・マーキィー)氏(民主党・マサチューセッツ州)とRichard Blumenthal(リチャード・ブルーメンソール)氏(民主党・コネチカット州)は、クルマに完全な自動運転能力があると顧客に誤解させかねないTeslaの文言に対して特に懸念を表明している。

「Teslaのマーケティングは、自社の自動車の性能を繰り返し誇張しており、こうした表現は、自動車運転者や他の道路利用者に対する脅威となっています。したがって私たちはTeslaの運転自動化システムの広告およびマーケティングにおける欺瞞的で不公正な行為の可能性について調査を開始し、道路上のすべてのドライバーの安全を確保するために適切な執行措置をとることを強く求めます」と両議員はFTCに対して述べている。

FTCの新議長Lina Khan(リナ・カーン)氏に宛てた書簡で両氏は、Teslaが2019年にYouTubeの同社チャンネルにポストしたビデオを問題視している。Teslaの自動運転を見せるそのおよそ2分のビデオは「Full Self-Driving」(完全な自動運転)と題され、1800万回以上視聴された。

両議員によると「同社の主張はTeslaのドライバーと、旅をするすべて人たちを重傷や死の危険にさらしている」という。

Teslaと公式の調査は、雨が降れば土砂降りになるといった関係だ。例えばこの書簡が発表されたわずか2日前には、米運輸省道路交通安全局(NHTSA)が、Tesla車が駐車している緊急車両に衝突した事件の予備調査を開始している。

関連記事:米当局がテスラのオートパイロット機能を調査開始、駐車中の緊急車両との衝突事故受け

リナ・カーン氏は、これまで最も若いFTCの議長だ。彼女は多くの人たちから、反トラスト法で学位を持つことなどから、近年で最も先進的な起用だと考えられている。しかしFTCがTeslaを調査することになったら、そのケースは反トラスト法と何ら関係がなく、むしろ消費者保護に該当することになる。製品に関する企業の、偽のあるいは誤解を招きかねない主張の調査は、確かにFTCの守備範囲だ。

Teslaの主張に対してFTCに公開調査を求めた著名人や機関は、今回が初めてではない。2018年には、2つの特定利益団体Center for Auto SafetyとConsumer Watchdogが、やはり同委員会にAutopilot機能のマーケティングに関して書簡を送った。2019年には上記交通安全局がFTCに、TeslaのCEOであるElon Musk(イーロン・マスク)氏によるModel 3の安全に関する主張が「不公正または欺瞞的に相当しないか」調査するよう主張した。

Teslaの「Full Self-Driving」(完全自動運転)は、代価の一部またはサブスクリプションとして1万ドル(約110万円)を課金される。現在、同社はそのバージョン9のベータテストを数千名のドライバーで行っているが、上院議員たちはベータも対象にしている。「ベータ9へのアップデートの後でドライバーたちはビデオをポストしたが、それによると、アップデートされたTesla車は予想外の動作をして、衝突を防ぐためには人間の介入を必要とした。マスク氏がソーシャルメディア上に目立たないように置いた生ぬるい警告は、ドライバーを誤導し、路上の全員の命を危うくしたことの言い訳にはならない」という。

カテゴリー:モビリティ
タグ:民主党Tesla自動運転FTCオートパイロット

画像クレジット:Getty Images

原文へ

(文:Aria Alamalhodaei、翻訳:Hiroshi Iwatani)

米当局がテスラのオートパイロット機能を調査開始、駐車中の緊急車両との衝突事故受け

米国の自動車規制当局は、Tesla(テスラ)の先進運転支援システム「Autopilot(オートパイロット)」について予備調査を開始した。これは、同システムを作動させていた際に、駐車されていた救急車両に車両が衝突した11件の事故を理由としている。

米運輸省道路交通安全局(NHTSA)のウェブサイトに掲載された調査資料によると、衝突事故に関与したテスラ車は、オートパイロットまたは「Traffic Aware Cruise Control(トラフィックアウェア クルーズコントロール)」と呼ばれる機能を作動させていたことが確認されたという。事故の多くは日没後に発生しており、緊急車両のライトや道路のコーン、ドライバーに車線変更するよう知らせる照明付き矢印板などの「現場管理措置」にもかかわらず発生していた。

「今回の調査では、ダイナミックな運転タスクに対するドライバーのエンゲージメントをモニターし、支援し、強化するために使用される技術と方法を評価します」と資料には記載されている。

調査の対象となるのは、現在販売されているすべてのモデルを含む約76万5000台のテスラ車だ。14-21年型のTesla Model Y(モデルY)、Model X(モデルX)、Model S(モデルS)、Model 3(モデル3)が対象となる。11件の事故または火災により、17名の負傷者と1名の死亡者が発生した。これらの事故は2018年1月から2021年7月の間に発生した。

Teslaのオートパイロットが米国の自動車安全規制機関であるNHTSAの監視下に置かれたのは、今回が初めてではない。2017年、同局は2016年に起こった死亡事故を調査したが、その事故ではEVメーカーである同社に過失はないとされた。NHSTAはこれまで、TeslaのADAS(先進運転支援システム)が関与した事故をさらに25件調査していると、AP通信が米国時間8月16日に今回の調査に関する記事で報じた。

NHTSAは2021年6月、ADASまたはレベル3~5の自動運転システム搭載車の衝突事故の報告を自動車メーカーに義務付ける命令を出した。

「NHTSAは、現在市販されている自動車の中に自動運転が可能なものはないことをあらためて国民のみなさまに指摘します」と、NHTSAの広報担当者は16日にTechCrunchに語った。

TechCrunchは、メディアリレーション部門を解散したTeslaにコメントを求めた。同社から回答があれば記事を更新する。

関連記事
テスラが車内カメラでAutopilot使用中のドライバーを監視
テスラが旧来のリン酸鉄リチウムバッテリーに賭けていることは、メーカーにとって何を意味するのか
イーロン・マスク氏のLoopのドライバーには同社の「偉大なリーダー」に関する台本が渡される

カテゴリー:モビリティ
タグ:TeslaAutopilot先進運転支援システム米運輸省道路交通安全局(NHTSA)

画像クレジット:Spencer Platt / Getty Images

原文へ

(文:Aria Alamalhodaei、翻訳:Aya Nakazato)

イーロン・マスク氏のLoopのドライバーには同社の「偉大なリーダー」に関する台本が渡される

Elon Musk(イーロン・マスク)氏がラスベガスで展開している地下システム「Loop」のドライバーたちは、同社での運転歴を尋ねる乗客の質問をはぐらかしたり、衝突事故については知らないと宣言したり、マスク氏自身についての会話を遮断したりするよう指示されている。

TechCrunchは、公文書法を利用し、6月にオープンしたLoopの通常業務を詳細に記した文書を入手した。このLoopは、ラスベガス・コンベンション・センター(LVCC)の周辺で、改造したTesla(テスラ)車を使って参加者を輸送する。文書の中には、好奇心旺盛な乗客が質問してきたときに、新入社員が必ず従う「Ride Script(乗車に関する台本)」も含まれている。

この台本は、システムを構築・運営するThe Boring Company(TBC)が、新システムやその技術、特に創業者であるイーロン・マスクのパブリックイメージをコントロールすることにどれだけ真剣かを示している。

台本のアドバイスによれば「あなたの目的は、乗客に安全なドライブを提供することであり、楽しいドライブを提供することではありません。会話は最小限にして、道路に集中しましょう」「乗客はあなたに質問を投げかけてきます。質問される可能性のある内容と、推奨される回答がこちらです」。

乗客がドライバーに勤続年数を尋ねると、次のように答えるように指示される。「このトンネルをよく分かっているくらいには運転していますよ!」と答えるように指示されている。さらに「(何百回も運転しているとしても)1週間しか運転していないと思われると、お客様は安心できません。従って、勤務年数を話すのではなく、質問をかわすか、焦点をずらす方法を考えてください」とドライバーにアドバイスしている。

このシステムでどれくらいの衝突事故が発生したか(台本では「事故」という言葉を使っている)を聞かれたドライバーは、こう答えるように言われている。「非常に安全なシステムなので、よくわかりません。会社に問い合わせてみないとわからない」。TBCの従業員やドライバーの数、トンネルの掘削費用などを質問しても、同じように曖昧な答えが返ってくるはずだ(掘削費用は合計で約5300万ドル[約57億8800万円])。

関連記事:財政苦境に直面するイーロン・マスク氏のラスベガスループ地下輸送システム、The Boring Companyに賠償金数億円の可能性

TBCでは、Tesla(テスラ)の先進的な運転支援システムであるAutopilotの使用が明らかに弱点となっている。クラーク郡は現在、自動緊急ブレーキや障害物を認識しつつ車線内にとどまる技術を含むさまざまな運転支援機能の使用をLoopシステム内のいかなる場所でも許可していない。

群は、整備士にこれらが作動していないかどうかを確認することを義務付けているほどだ。

文書には「初期点検チェックリストに基づくアクションの完了に加えて、整備スタッフは、手動によるループ操作のため、ハンドル操作やブレーキ・加減速アシスト(通称Autopilot)などの車両の自動機能が無効化されていることを確認します」と書かれている。TechCrunchが閲覧した車両整備プランによると、その後の確認はCWPMの技術者によって毎日行われる。

万が一乗客が、Loopのテスラ車がAutopilotを使用しているかどうかを尋ねた場合は、ドライバーは回答するだろう。しかしこれに関する内容は、TechCrunchが入手した文書では「公共の安全に関わる機密事項」とされ、他の多くの技術的な詳細と同様に編集されていた。

この決定について、TechCrunchは関係者に何度も説明を求めたが、回答は得られなかった。

名前を言ってはいけないあの人

台本には、マスク氏自身に関する質問への回答も含まれている。「この種の質問は聞かれることが非常に多く、非常にデリケートな質問です。当社の創業者に対する世間の関心は必然的なものであり、会話の大部分を占める可能性があります。可能な限り簡潔に、そしてそのような会話を止めるために最善を尽くしてください。乗客がその話題を強要し続ける場合は、『申し訳ありませんが、本当にコメントできません』と丁寧に伝え、話題を変えてください」。

にもかかわらず、このスクリプトには、マスクのよくある質問に対する答えがいくつも用意されている。マスクはどんな人かと聞けば、こんな答えが返ってくるはずだ。「彼はすごい人です!刺激的 / やる気にさせてくれる、など」。

さらにこんな追い打ちをかける。「彼の元で働くのは好きですか?」と尋ねると、北朝鮮のような答えが返ってくる。「はい、彼はすばらしいリーダーです!私たちがすばらしい仕事ができるようにやる気を与えてくれます」。

乗客が、マスク氏がどのようにビジネスに関わっているのか疑問に思った場合、ドライバーは次のように答えるだろう。「彼は会社の創設者であり、非常に深く関与し、サポートしてくれています」。また、マスク氏の不規則なツイートについての質問は「イーロンは有名人なのです。私たちはただ、すばらしい移動体験を提供するためにここにいるのです!」と跳ねのけられる。

しかし、ある質問は、すべての人がマスクの下で働くことに満足しているわけではないことを示唆しているようだ。「新聞で読んだ彼についての記事で、彼は『意地悪な上司である/マリファナを吸う/従業員に休暇を取らせない / など』というのは本当ですか?」ドライバーはどちらかというと曖昧な返事をするだろう。「その記事は見ていませんが、私の経験ではそんなことはありません」。

余談だが、TechCrunchが入手した数百ページに及ぶトレーニング文書や業務マニュアルには、Loopでの薬物使用やハラスメントを防止する強いポリシーが詳細に記されているが「休暇」という言葉は出てこない。

認められている技術

クラーク郡は現在、Loop内での自動運転機能の使用を禁止しているため、しばらくは人間のドライバーがシステムの一部となる可能性がある。しかし、クラーク郡に提出された設計・運用文書によると、このシステムには他にも多くの先進技術が導入されている。地下のLoopに設置された62台のテスラには、非接触型決済システムに使用される固有のRFIDチップが搭載されており、車道、駅、駐車場に設置された55個のアンテナの上を通過すると、その位置が特定されるようになっている。

また、各車両は、速度、充電状態、乗車人数、シートベルト着用の有無などのデータを24のホットスポットに送信する。乗客が気を付けるべきなのは、車内に設置されたカメラからの映像も常時ストリーミングされていることだ。これらのデータは、Loop内に設置された81台の固定カメラの映像とともに、コンベンションセンターから数ブロック離れた場所にあるオペレーションコントロールセンター(OCC)に送られる。映像は最低でも2週間は録画・保存される。

OCCでは、オペレーターがカメラの映像やその他のセンサーを監視し、セキュリティ上の脅威や、ドライバーの携帯電話の使用やスピード違反などの問題を発見する。OCCは、Bluetoothヘッドセットや車載用iPadを使ってドライバーと通信し、メッセージや警告、トンネル内の車両の位置を地図上に表示する。車両には、駅構内での時速16.09キロメートルからトンネルの直線区間の時速64.37キロメートルの範囲で厳しい速度制限があり、前の車と6秒以上の間隔を保たなければならない。

2021年の春に行われたテストでは、クラーク郡の職員が、一部のドライバーが規則を守っていないことを発見したことが文書に記されている。「速度制限について質問したところ、何人かのドライバーは、直線および / またはカーブしたトンネルの速度を間違って答えていた。駅、急行レーン、傾斜部の速度については誰も答えられなかった」とある文書には書かれている。「ドライバーは乗客にシートベルトを締めるようにアナウンスしておらず、質問されても、任意であるまたは必要ないと『答えていた者がいた』」。

また、何人かのドライバーは、前の車との安全のための距離を6秒維持できていなかった。TBCはクラーク郡に対し、これらの分野で再教育を行うと答えた。

TBC、クラーク郡、およびLVCCを管轄するラスベガスコンベンション・観光当局は、この件に関する複数のコメント要求に答えなかった。

LVCVAは最近、Alphabet(アルファベット)がスピンアウトした都市型広告代理店Intersection Media(インターセクション・メディア)とLoopシステムの命名権を販売する契約を結び、450万ドル(約4億9100万円)の利益を見込んでいる。

TBCは現在、近隣のホテルにサービスを提供するためLoopの2つの拡張工事を行っているが、最終的にはストリップとラスベガスのダウンタウンの大部分をカバーし、40以上の駅を持つ交通システムを構築したいと考えている。このシステムは、TBCが資金を提供し、チケット販売によってサポートされることになる。

関連記事
財政苦境に直面するイーロン・マスク氏のラスベガスループ地下輸送システム、The Boring Companyに賠償金数億円の可能性
イーロン・マスク氏のラスベガスループの旅客輸送能力は想定より大幅に少ない可能性
イーロン・マスクの次世代交通システム「Loop」、ラスベガスの地下へ

カテゴリー:モビリティ
タグ:LoopElon MuskTeslaAutopilot運転支援システムThe Boring Company

画像クレジット:Ethan Miller / Getty Images

原文へ

(文:Mark Harris、翻訳:Dragonfly)

財政苦境に直面するイーロン・マスク氏のラスベガスループ地下輸送システム、The Boring Companyに賠償金数億円の可能性

米国ネバダ州の規制当局が課した制限により、イーロン・マスク氏のThe Boring Company(ザ・ボーリング・カンパニー、TBC)は、同氏初の地下交通システム「LVCC Loop(ラスベガス・コンベンションセンター・ループ)」の契約目標達成が困難になっている。

ラスベガス・コンベンションセンター(LVCC)のLoopシステムは60台以上の完全自律型高速車両を使い、展示ホール間で毎時最大4400人の乗客を輸送することになっている。しかしTechCrunchの取材によると、クラーク郡の規制当局がこれまでに承認したのは人間が運転する車両わずか11台で、さらに厳しい速度制限を設け、Tesla(テスラ)の「完全自律走行」先進運転支援システム「Autopilot(オートパイロット)」の一部であるオンボード衝突回避技術の使用を禁止しているという。そのようにブランディングされているものの、TeslaのAutopilotシステムは技術的には完全自動運転のレベルには達していない。Teslaとカリフォルニア州の規制当局との間で交わされたやり取りによると、内部的にも、Autopilotは特定の機能を自動化できる先進的な運転支援システムと見なされている。

関連記事:マスク氏の「年末までに自動運転を実現」という発言は「エンジニアリングの現実とは一致しない」とテスラ社員

LVCCの母体であるラスベガス観光局(LVCVA、Las Vegas Convention and Visitor’s Authority)は、マスク氏にインセンティブを与え、TBCが約束を確実に果たすように促す契約を結んだ。契約は固定価格で、TBCがすべての支払いを受けるためには、特定のマイルストーンを達成しなければならない。この契約では、トンネル掘削完了、全体の作業システムの完成、テスト期間の終了と安全レポート、そして乗客を輸送できるという証明など、プロセスのさまざまな段階で支払いが行われる。最後の3つのマイルストーンは、何人の乗客を輸送できるかに関するものだ。Loopが1時間に乗客2200人の輸送能力を示すことができれば、TBCは440万ドル(約4億8000万円)を受け取ることができ、3300人を達成すれば再び同じ額をもらえる。4400人を達成した場合も同様だ。これらの輸送能力に応じた支払いの総額は、固定契約金の30%に相当する。

1時間に4000人以上の乗客を運ぶどころか、制約されたシステムでは1000人以下のキャパシティに制限される可能性があり、TBCは契約目標を達成できなかった場合、多額の違約金を支払うことになる。TBCは乗客から料金を徴収して収益を得ることはない(乗車は無料)。

【更新】本記事の公開直後にラスベガス観光局のSteve Hill(スティーブ・ヒル)代表は、今週行われた数百人規模のLoop試験で、予定されていた1時間あたり4400人の乗客を輸送できるキャパシティが実証されたとツイートした。これにより、後述の追加建設資金が確保される可能性がある。TBCは罰金を避けるためには、今後数カ月の間に実際のカンファレンスでこの数字をまだ達成しなければならない。TechCrunchは記事公開に先立ち数週間にわたり、LVCVA、クラーク郡、そしてTBCと何度も報道内容を共有した。実質的な回答をしたのはLVCVAだけで、キャパシティの問題や、子どもやモビリティの問題を抱える乗客についての未解決の質問については回答を得られなかった。

例えばTechCrunchが新たに入手した管理契約によると、CESのような大規模なトレードショーの際には、LVCCはTBCがシステムを運営・管理する1日ごとに3万ドル(約330万円)を支払うことになっている。しかし、2019年にTBCが締結した当初の契約書には、TBCが1時間あたり約4000人を輸送できない大規模なイベントごとに、30万ドル(約3300万円)の賠償金が課されると明記されている。

つまり、3~4日間のイベントで、TBCはシステムの運営費に加え数十万ドル(約数千万円)の損失を被ることになるのだ。パンデミック前の通常の年であれば、LVCCではこのような大規模なイベントを年12回ほど開催している。なお、TBCが車内広告などによる別の収益手段を計画しているかどうかは不明だ。

このキャパシティの問題は、すでにTBCにコストをかけている。契約では、TBCがパフォーマンス目標を大幅に下回った場合、マスク氏の会社は建設予算のうち1300万ドル(約14億3000万円)以上を受け取ることができないとされている。LVCVAはTechCrunchの取材に対し、契約に基づきTBCが1時間に数千人を輸送できる能力を実証するまで、建設費を保留していることを確認した。

年間20回ほど開催されるより小規模なイベントの場合、キャパシティ賠償金は適用されないが、契約によればTBCに支払われる1日あたりの使用料は1万1500ドル(約126万円)へと激減する。また、コンベンションの数にかかわらず、TBCは毎月16万7000ドル(約1830万円)の支払いを受けてシステムの稼働を維持することになっている。

米国時間5月25日に行われたLoopのキャパシティテストに参加したのはわずか300人と報じられているが、LVCVAの担当者は、1時間あたり4400人という数字は「十分に達成可能な範囲」と述べた。

管理契約によると、TBCは人間のドライバーチームの他にも、オペレーションセンター、メンテナンス・充電施設にスタッフを配置し、制服を着たカスタマーサービススタッフ、セキュリティスタッフ、フルタイムのレジデントマネージャーを提供しなければならない。

この料金体系は「予想される自律走行への移行」を考慮して、2021年末までにおそらく下方修正されることになっている。

画像クレジット:Ethan Miller / Getty Images

衝突警告システムは使用不可

Loopの初期運用に関する制限事項のいくつかは、クラーク郡の建築消防局に提示されたものだ。その内容は、ルート全体での制限速度を時速40マイル(時速約64km)に抑える、Loopの3つの駅構内では時速10マイル(時速約16km)に減速する、車両を11台までに制限することなどである。

クラーク郡消防局のWarren Whitney(ウォーレン・ホイットニー)副消防局長は、TBCからLoop内でTeslaの衝突警告システムを使用することは許可されていないと聞いている、と述べている。クラーク郡が米国時間5月27日に発行した交通システム運営ライセンスでは、Loopは「非自律走行」で「手動運転」の車両を使用しなければならないと規定されている。このライセンスは、計画されている62台の車両に対して発行された。クラーク郡当局およびTBCのいずれも、この運用制限に関する詳細な質問には回答しておらず、いつ、どのような場合に解除されるのかについても言及していない。

トヨタは以前、レーダーを使った衝突警告システムがトンネル内で正しく機能しない可能性があると警告していた。

衝突警告レーダーを欠いたTeslaが安全に「完全自律走行」できるかどうかは定かではないが、マスク氏は、車両からレーダーセンサーを取り除いてカメラのみを使用することを提案し、現在その計画を実行している。Teslaは2021年5月から、レーダーセンサーを搭載していない「Model 3(モデル3)」と「Model Y(モデルY)」の納車を開始した。レーダーセンサーがないことを受けて、米国道路交通安全局は、2021年4月27日以降に製造されたModel 3とModel Yには、自動緊急ブレーキ、前方衝突警告、車線逸脱警告、ダイナミックブレーキサポートについて、同局の認定がなくなると発表した。またこの決定を受け、Consumer Reports(コンシューマー・レポート)はModel 3をトップピックとして掲載しなくなり、米国道路安全保険協会はModel 3のトップセイフティピック+指定を外す予定だという。

関連記事
テスラの北米向けModel 3とModel Yがレーダー非搭載に
テスラが車内カメラでAutopilot使用中のドライバーを監視

同消防局は他にも、何時間も続く可能性のあるバッテリー火災など、トンネル内での緊急事態への対応に懸念を抱いていた。ホイットニー氏はTechCrunchに次のように述べている。「電気自動車が事故を起こさずに炎上したケースは過去ありました。今のところ我々の計画は、まず人々を避難させ、その後、撤退して火が燃え続ける間待つことです」。

ホイットニー氏は、Loopシステムには多くのカメラや煙探知機が設置されていることに加え、毎分40万立方フィートの空気をトンネル内の両方向に移動させることができる「強力な」換気システムを備えていることを指摘した。これにより、乗客やドライバーは車の周りを歩いて脱出できるはずだという。TBCはそれほど深刻ではない事故のために、故障した車両を回収するための牽引車(これもTesla)を用意している。

TechCrunchの問い合わせに対し、TBCとクラーク郡はいずれも、Loopが車イス利用者、通常はチャイルドシートが必要な子どもや幼児、その他のモビリティの問題を抱えている人々、ペットや介助犬などの動物の輸送を許可するかどうかについては答えなかった。

消防隊員たちは、駅から遠く離れた場所で、2〜3台の他の車両が行く手を塞いでいるような事故を想定した地下システムでの訓練をすでに何度も行っている。ホイットニー氏は「11台であれば問題ありません」という。「しかし、クルマの数が増えてくるとそれは問題かもしれません。TBCは営利企業であり、効率を最大限に高めたいと考えていますから、キャパシティを増やそうとした時に、さらに議論が必要になるかもしれません」とも。

拡張計画

TBCは、既存のLoopでより多くの車両を使用したいと考えているだけでなく、すでにシステムの拡張を計画している。2021年3月末、TBCはクラーク郡に対し、LVCCの1駅から新しいResorts World(リゾート・ワールド・ラスベガス)ホテルまでの延長工事に着工したことを報告し、近くにあるEncore(アンコール・アット・ウィン・ラスベガス)までの同様の延長工事の許可も得ている。

さらにTBCは、ラスベガスのストリップやダウンタウンの大部分をカバーし、40以上の駅で数多くのホテルやアトラクション、そして最終的には空港を結ぶ交通システムを構築したいと考えている。そちらのシステムはTBCが資金を提供し、チケット販売によって支えられることになる。

このような拡張が可能かどうかは、TBCが比較的シンプルなLVCC Loopで約束した技術や運用をどれだけ早く実現できるか、また、トンネル内のタクシーがマスコミに書かれる量と同じくらい収益を上げられると実証できるかどうかにかかっている。

関連記事:イーロン・マスク氏のラスベガスループの旅客輸送能力は想定より大幅に少ない可能性

カテゴリー:モビリティ
タグ:The Boring Companyイーロン・マスクネバダラスベガスAutopilotTeslaLVCC Loop自律運転電気自動車

画像クレジット:Ethan Miller / Getty Images

原文へ

(文:Mark Harris、翻訳:Aya Nakazato)

テスラが車内カメラでAutopilot使用中のドライバーを監視

Tesla(テスラ)は、同社の電気自動車「Model 3(モデル3)」と「Model Y(モデルY)」のドライバーが先進運転支援システム「Autopilot (オートパイロット)」を使用する時、車内に設置されたカメラがドライバーを監視できるようにした。

テスラはソフトウェアアップデートで「バックミラーの上部に設置された車内カメラが、Autopilot作動中のドライバーの不注意を検知し、警告することができるようになりました」と告げている。ただし、同社によれば、カメラで撮影した画像が車外に出ないように、データにはクローズドループシステムが採用されているという。データ共有が有効になっていない限り、システムは情報を保存したり転送したりすることはできないとのこと。このファームウェアアップデートの説明は、多くのテスラ車オーナー、業界ウォッチャー、ブロガーたちによってTwitter(ツイッター)で公開されている。

テスラは、オーナーがAutopilotシステムを悪用しているという証拠があるにもかかわらず、車内のドライバー監視システムを作動させていなかったとして批判を浴びてきた。YouTube(ユーチューブ)やTikTok(ティックトック)には、テスラ車のオーナーがAutopilotシステムを悪用している動画が数多く投稿されており、中には後部座席に座って高速道路を走行している自分の姿を撮影している人もいる。Autopilot作動中のテスラ車でいくつもの死亡事故が発生していることから、同社の対応を求める圧力が高まっていた。

これまでテスラは、車内に搭載されたカメラは使用せず、ステアリングホイールのセンサーでトルクを測定することによって、ドライバーが運転中にハンドルから手を放していないと判定していた。しかし、ドライバーの中には、センサーを騙して人間がハンドルを握っていると思わせる方法を発見し、それをソーシャルメディアで公開している人もいる。

Brian Krause@bak112233

納車はどうでしたか?

緊急自動ブレーキや前方衝突警報が無効になっていませんでしたか?

納車時に特別なソースのソフトウェアのバージョンが適用されていませんでしたか?

Kevin Smith@spleck

納車はとてもスムーズでした。Summon(サモン)と車線逸脱防止機能は今のところ無効になっていて、追従距離は長く、ハードキャップは時速75マイル(時速約120キロメートル)で、自動ハイビームを使うにはAPの解除が求められ、ドライバー監視のための車内カメラ……まだ予想外のことは何もありません。

Consumer Reports(コンシューマー・レポート)の自動車テスト担当シニアディレクターであるJake Fisher(ジェイク・フィッシャー)氏は、TechCrunchに次のように語った。「コンシューマーレポートは何年も前から、テスラのAutopilotのような運転自動化システムには、カメラを使ったドライバー監視システムが必要であると訴えてきました。テスラの現行のシステムは、ハンドルに掛かっているトルクを感知するもので、ドライバーが道路を見ているかどうかは判断できません。この新しいシステムが有効であることが証明されれば、ドライバーの注意散漫を防ぎ、安全性を大きく向上させることができ、ひいては人命を救う可能性があります。他のモデルもすぐにアップデートされることを我々は期待しており、それらを評価することを楽しみにしています」。

テスラは、このドライバー監視システムの詳細(例えば、視線または頭の位置をトラッキングしているのかなど)や、これが手放し運転を可能にするために使われるのかどうかについては明らかにしていない。GMのSuper Cruise(スーパークルーズ)やFord(フォード)のBlue Cruise(ブルークルーズ)は、高速道路の特定の区域で、手放し運転を可能にする先進運転支援システムだ。これらのシステムでは、地図データ、高精度GPS、カメラ、レーダーセンサーに加え、運転者を監視するドライバーアテンションシステムを搭載し、ドライバーが運転に注意を払っているかどうかを確認している。

テスラのクルマには、運転支援システムのAutopilotが全車に標準装備されており、さらに1万ドル(約110万円)の追加料金を払えば、FSD(フル・セルフ・ドライビング)と呼ばれるシステムにアップグレードすることができる。これはElon Musk(イーロン・マスク)CEOが「いつかは完全な自動運転を実現する」と約束している機能だ。FSDは何年も前からオプションとして提供されているが、価格と機能が年々着実に向上している。

しかし、今のところ、テスラのクルマは自動運転車ではない。FSDには、駐車場などで無人のクルマを呼び寄せることができる「Summon(サモン)」機能や、高速道路の入口から出口まで、インターチェンジや車線変更を含めて車両の走行を導くアクティブガイダンス運転支援機能「Navigate on Autopilot(ナビゲート・オン・オートパイロット)」機能が含まれている。この機能はドライバーが車載ナビゲーションシステムでルートを設定する度にオンになる。

今回の動きは、テスラが北米向けのModel YとModel 3にレーダーの搭載をやめたとツイートしてから、わずか1週間後のことだった。これは、Autopilotやその他のアクティブセーフティ機能をサポートするために、レーダーなどのセンサー類を用いず、カメラと機械学習を組み合わせたものだけを使用したいというマスク氏の要望を実現したものだ。

自動車メーカーは通常、レーダーとカメラ、さらに場合によってはLiDARさえも組み合わせ、周囲の交通状況に合わせて車両の走行速度を調整するアダプティブ・クルーズ・コントロールや、車線維持および自動車線変更など、先進運転支援システムの機能を実現するために必要なセンシングを行っている。しかし、以前からマスク氏は、カメラといわゆるニューラルネット処理のみで、車両を取り巻く環境で起きていることを検知・認識し、適切な対応を行うシステムの可能性を喧伝してきた。このシステムにはブランド名を冠した「Tesla Vision(テスラ・ビジョン)」という名称が付けられている。

車両にレーダーを搭載しないという決定は、同社にいくつかの反発をもたらした。Consumer Reportsは、消費者に推薦できると評価した「Top Pick(トップ・トピック)」からModel 3を削除し、米国道路安全保険協会はModel 3から最高評価「Top Safety Pick+(トップセーフティピック+)」の指定を外す予定だと語っている。米国高速道路交通安全局は、2021年4月27日以降に製造されたModel 3とModel Yには、自動緊急ブレーキ、前方衝突警告、車線逸脱警告、ダイナミック・ブレーキ・サポートに同局のチェックマークが付かなくなると発表した。

関連記事
テスラの北米向けModel 3とModel Yがレーダー非搭載に
フォードがGMやテスラに対抗し手放し運転機能の導入を発表
GMが手放し運転システムを市街地走行に拡大

カテゴリー:モビリティ
タグ:TeslaModel 3Model YAutopilot自動運転

画像クレジット:Tesla

原文へ

(文:Kirsten Korosec、翻訳:Hirokazu Kusakabe)

テスラの北米向けModel 3とModel Yがレーダー非搭載に

北米の顧客向けに製造されるTesla(テスラ)の「Model Y(モデルY)」と「Model 3 (モデル3)」には、レーダーが搭載されなくなる。これは、機械学習を組み合わせたカメラのみを使用して、同社の先進運転支援システムやその他のアクティブセーフティ機能をサポートするようにしたいという、Elon Musk(イーロン・マスク)CEOの意向を反映した変更だ。

センサーの使用をやめるという決定は、多くのテスラの動向と同様に、業界の標準的な考え方に反している。今のところ、レーダーなしのテスラ車は、北米のみで販売される。テスラは、中国や欧州の顧客向けに製造される車両から、レーダーセンサーを削除する時期やその可能性については言及していない。

自動車メーカーは通常、レーダーとカメラを(さらにはLiDARも)組み合わせ、周囲の交通状況に合わせて車両の走行速度を調整するアダプティブ・クルーズ・コントロールや、車線維持および自動車線変更など、先進運転支援システムの機能を実現するために必要なセンシングを行っている。

しかし、以前からマスク氏は、カメラといわゆるニューラルネット処理のみで、車両を取り巻く環境で起きていることを検知・認識し、適切な対応を行うシステムの可能性を喧伝しており、このシステムにはブランド名を冠した「Tesla Vision(テスラ・ビジョン)」という名称が付けられている。

ニューラルネットとは、人間の学習の仕方を模倣した機械学習の一種で、一連の接続されたネットワークを使用してデータのパターンを識別することにより、コンピュータが学習することを可能にする、人工知能アルゴリズムの洗練された形態だ。自動運転技術を開発している多くの企業は、特定の問題を処理するためにディープニューラルネットワークを使用しているが、彼らはこのディープネットワークを壁で囲い、ルールベースのアルゴリズムを使って、より広範なシステムに結びつけている。

Whole Mars Catalog@WholeMarsBlog
ピュア・ビジョンの考え方について、もう少し詳しく教えてください。

レーダーを使わないのは時代に逆行するという意見もありますが、なぜ使わないほうがいいと判断したのでしょうか?

Elon Musk@elonmusk
レーダーと視覚が一致しないとき、あなたはどちらを信じますか? 視覚認識の方がはるかに精度が高いので、複数のセンサーを組み合わせるよりも視覚認識を倍に増やした方が良いのです。

テスラは更新したウェブサイトでレーダーからの移行について詳述し、2021年5月から切り替えを開始したと述べている。このカメラと機械学習(特にニューラルネット処理)を組み合わせた方式は「Tesla Vision」と呼ばれ、同社の車両に標準装備されている先進運転支援システム「Autopilot(オートパイロット)」と、そのアップグレード版で1万ドル(約109万円)の追加料金が必要な「FSD(フル・セルフ・ドライビング)」に使われる。テスラのクルマは自動運転ではないので、人間のドライバーが常に運転に関与し続ける必要がある。

レーダーを搭載していないテスラ車では、当初は運転支援機能が制限される。例えば、Autosteer(オートステア)と呼ばれる車線維持機能が使える速度は最高時速75マイル(時速約120キロメートル)までに制限され、最小追従距離も長くなる。また、緊急車線逸脱回避機能や、駐車場で自車を自分の側まで呼び寄せることができるSmart Summon(スマート・サモン)機能は、納車当初には利用できない可能性があると、テスラは述べている。

同社では、今後数週間のうちにワイヤレス・ソフトウェア・アップデートによって、これらの機能を復活させることを計画しているという。ただし、テスラはその具体的なスケジュールを明らかにしていない。他のAutopilotやFSDの機能は、(注文した仕様にもよるが)納車時にすべて有効になっているとのこと。

一方、Model S(モデルS)とModel X(モデルX)の新車や、北米以外の市場向けに製造されるすべてのモデルには、引き続きレーダーが搭載され、レーダーを使ったAutopilotの機能も利用できる。

テスラは「よくある質問」の中で「Model 3とModel Yは、当社の製品の中でも生産台数が多いモデルです。これらのモデルを先にTesla Visionに移行することで、膨大な実世界におけるデータを短時間で分析することが可能になり、結果的にTesla Visionをベースとした機能の展開を早めることができます」と書いている。

関連記事
マスク氏の「年末までに自動運転を実現」という発言は「エンジニアリングの現実とは一致しない」とテスラ社員
イーロン・マスク氏がビットコインでのテスラ車購入停止を指示、ツイート後ビットコインは下落中
テスラがノルウェーでの判決を受け最大約243億円の補償金支払いに直面

カテゴリー:モビリティ
タグ:TeslaModel YModel 3アメリカカナダイーロン・マスクニューラルネットワーク機械学習コンピュータービジョンオートパイロット

画像クレジット:Tesla

原文へ

(文:Kirsten Korosec、翻訳:Hirokazu Kusakabe)

運転席に誰も乗っていないテスラ車が事故を起こし後部座席と助手席の2名が死亡

米国時間4月17日、テキサス州ヒューストン郊外で、誰も運転席に座っていない状態で走行していたTesla(テスラ)の車両が立木に衝突し、男性2人が死亡した事故について、米国運輸省道路交通安全局(NHTSA)は調査を開始した。

地元CBS系列のKHOU-TVが報じたところによると、この2019年型Tesla Model S(テスラ・モデルS)は、ゆるいカーブを曲がり切れず道路外に飛び出したという。ハリス郡第4分署のMark Herman(マーク・ハーマン)保安官は、このような事故は前例がないと地元記者に語った。

「我々の署では、このような事故現場を経験したことがありません」と述べた同氏は「通常、消防隊が到着すると、車両火災は数分で鎮圧されますが、今回は4時間近くも続きました」と続けた。この長時間の火災は、電気自動車のバッテリーが再発火を繰り返していたためと報じられている。

消火には11万リットル以上の水が使われた。犠牲者の1人は助手席に、もう1人は後部座席に座っており「事故当時、(運転席には)誰もいませんでした」とハーマン氏は述べている。

事故当日、テスラのCEOであるElon Musk(イーロン・マスク)氏は、同社が2021年第1四半期の安全報告書を発表した際のニュースをリツイートし「Autopilot(オートパイロット)を作動させたテスラは現在、平均的な車両よりも事故の確率が10分の1近くまで減少しています」と述べた。テスラは、Autopilotを「一連の運転支援機能パッケージ」と表現し「積極的なドライバーの監視」が必要だとしている。

「NHTSAは、テキサス州ヒューストン郊外で発生したテスラ車の悲劇的な事故を認識しています」と、広報担当者はTechCrunchに語った。「NHTSAは直ちに特別事故調査チームを起ち上げ、この事故を調査しています。我々は、地元の法執行機関およびテスラ社と積極的に連携し、事故の詳細を調べており、より多くの情報が得られ次第、適切な措置を取る予定です」。

TechCrunchはテスラにコメントを求めており、同社からの回答があれば記事を更新する。

関連記事:

カテゴリー:モビリティ
タグ:TeslaAutopilot米国運輸省道路交通安全局(NHTSA)自動運転アメリカイーロン・マスク

画像クレジット:Spencer Platt / Getty Images

原文へ

(文:Aria Alamalhodaei、翻訳:Hirokazu Kusakabe)