米国国家道路交通安全局は、危険な交通違反の報告を受け、テスラのFull Self-Drivingソフトウェアに対する6回目の調査を開始した。この調査では、赤信号無視や誤った車線での走行を含む事件を検証し、これらが衝突事故と負傷を引き起こした。テスラがロボットタクシーと無監督運転に向けた推進を進める中での出来事だ。
先週、2025年10月7日、国家道路交通安全局(NHTSA)は、Full Self-Driving(FSD)や他のドライバー支援機能が搭載された288万台のテスラ車両に対する調査を発表した。これは少なくとも6回目の同様の調査で、赤信号を無視する、対向車線に逸脱する、二重黄色線を越える、誤った曲がりを行うなど、安全でない行動に関する数十件の苦情に焦点を当てている。報告された事件の一つでは、テスラが赤信号の交差点に近づき、通過を続け、他の車両に衝突した。
情報源は衝突事故の詳細を異なって報告している:CNNは3件の事故で5人の負傷者を挙げ、FOX 4 Newsは少なくとも6件の事故で4人の負傷者を指摘した。NHTSAの欠陥調査局は、ソフトウェアが赤信号で停止せず、信号を認識せず、対向交通への急な車線変更などの操作に対する警告を提供しなかった18件の苦情を指摘した。同局は、テスラがドライバーに十分な介入機会を提供したかどうかを評価する。
FSDとAutopilotに関する既存の調査、致命的な衝突を含むものは、数年にわたる精査にもかかわらず継続中だ。スタンフォード大学の法学・工学教授であるブライアント・ウォーカー・スミス氏は、このプロセスを「規制のホイール・オブ・フォーチュン」と形容し、時間がかかり、急速な技術進歩と適合しにくいと指摘した。米国の自己認証制度の下で、自動車メーカーは基準遵守を約束するが、NHTSAはFSDのような先進システムに対する具体的な規則を欠いており、市場投入前の承認を制限している。
テスラはFSDを部分的に自律型と分類し、ドライバーの積極的な監督を必要とするとしており、ウェブサイトに次のように記載されている:「有効にすると、あなたの車両はあなたの積極的な監督のもとでほぼどこへでもあなたを運転し、最小限の介入を必要とします。」同社は2025年初頭にテキサス州オースティンでロボットタクシーのパイロットプログラムを開始し、当初は乗客席に従業員を配置したが、地元規則に従い運転席に移した。CEOのイーロン・マスク氏は完全に無人運転の運用と、ステアリングやペダルなしの「Cybercab」を構想している。テスラは自社の技術が人間のドライバーより安全だと主張するが、裏付けデータは提供していない。スミス氏はドライバーの注意力散漫のリスクを警告した:「人間が...ただ見ているだけで何もしなければ、注意を失うという大きな懸念がある。」NHTSAはより厳格な基準を推進する可能性があるが、事前承認権限を得るためには議会による法的変更が必要で、自動車業界の影響力と道路死亡事故への公衆の寛容さから、近いうちに実現しそうにない。