Realistic photo illustration of a Tesla car violating traffic rules at an intersection, under investigation by NHTSA officials, highlighting safety concerns with autonomous driving technology.
AIによって生成された画像

NHTSA、テスラのFull Self-Drivingソフトウェアを交通違反で調査

AIによって生成された画像

米国国家道路交通安全局は、危険な交通違反の報告を受け、テスラのFull Self-Drivingソフトウェアに対する6回目の調査を開始した。この調査では、赤信号無視や誤った車線での走行を含む事件を検証し、これらが衝突事故と負傷を引き起こした。テスラがロボットタクシーと無監督運転に向けた推進を進める中での出来事だ。

先週、2025年10月7日、国家道路交通安全局(NHTSA)は、Full Self-Driving(FSD)や他のドライバー支援機能が搭載された288万台のテスラ車両に対する調査を発表した。これは少なくとも6回目の同様の調査で、赤信号を無視する、対向車線に逸脱する、二重黄色線を越える、誤った曲がりを行うなど、安全でない行動に関する数十件の苦情に焦点を当てている。報告された事件の一つでは、テスラが赤信号の交差点に近づき、通過を続け、他の車両に衝突した。

情報源は衝突事故の詳細を異なって報告している:CNNは3件の事故で5人の負傷者を挙げ、FOX 4 Newsは少なくとも6件の事故で4人の負傷者を指摘した。NHTSAの欠陥調査局は、ソフトウェアが赤信号で停止せず、信号を認識せず、対向交通への急な車線変更などの操作に対する警告を提供しなかった18件の苦情を指摘した。同局は、テスラがドライバーに十分な介入機会を提供したかどうかを評価する。

FSDとAutopilotに関する既存の調査、致命的な衝突を含むものは、数年にわたる精査にもかかわらず継続中だ。スタンフォード大学の法学・工学教授であるブライアント・ウォーカー・スミス氏は、このプロセスを「規制のホイール・オブ・フォーチュン」と形容し、時間がかかり、急速な技術進歩と適合しにくいと指摘した。米国の自己認証制度の下で、自動車メーカーは基準遵守を約束するが、NHTSAはFSDのような先進システムに対する具体的な規則を欠いており、市場投入前の承認を制限している。

テスラはFSDを部分的に自律型と分類し、ドライバーの積極的な監督を必要とするとしており、ウェブサイトに次のように記載されている:「有効にすると、あなたの車両はあなたの積極的な監督のもとでほぼどこへでもあなたを運転し、最小限の介入を必要とします。」同社は2025年初頭にテキサス州オースティンでロボットタクシーのパイロットプログラムを開始し、当初は乗客席に従業員を配置したが、地元規則に従い運転席に移した。CEOのイーロン・マスク氏は完全に無人運転の運用と、ステアリングやペダルなしの「Cybercab」を構想している。テスラは自社の技術が人間のドライバーより安全だと主張するが、裏付けデータは提供していない。スミス氏はドライバーの注意力散漫のリスクを警告した:「人間が...ただ見ているだけで何もしなければ、注意を失うという大きな懸念がある。」NHTSAはより厳格な基準を推進する可能性があるが、事前承認権限を得るためには議会による法的変更が必要で、自動車業界の影響力と道路死亡事故への公衆の寛容さから、近いうちに実現しそうにない。

関連記事

NHTSA officials inspecting a Tesla vehicle amid investigation into Full Self-Driving software safety issues.
AIによって生成された画像

NHTSA、テスラのフルセルフドライビングソフトウェアに関する調査を開始

AIによるレポート AIによって生成された画像

米国国立道路交通安全局は、車両が赤信号を無視したり対向車線に入ったりする報告を受け、テスラのフルセルフドライビング機能に対する調査を開始した。この調査は約290万台の車両を対象とし、数十件のインシデント、衝突や負傷を含むもので、規制当局はシステムがドライバーに適切な警告を提供しているかどうかを検証している。

米国家道路交通安全局(NHTSA)は、交通違反に関する数十件の苦情を受けた後、テスラのFull Self-Drivingシステムに対する調査を開始した。この調査は288万台の車両を対象とし、この機能に関連する14件の衝突事故と23件の負傷の報告に続くものである。今年3回目のテスラに対する同様の調査となる。

AIによるレポート

国立高速道路交通安全管理局は、テスラのFull Self-Drivingソフトウェアが交通ルールを80件以上違反した事例を記録した。これには赤信号無視や逆走レーン進入が含まれる。10月の調査開始時の約50件から大幅増加だ。規制当局は2026年1月19日までにテスラから詳細データを求めている。

テスラのFull Self-Driving (Supervised)システムが重要なマイルストーンに到達し、オーナーが合計で70億マイル以上を走行しました。この数字には、都市部の道路で走行した25億マイル以上の自動走行距離が含まれ、同社の蓄積した膨大な実世界データが際立っています。このマイルストーンは、テスラが規模とデータを通じてより安全な自動運転を目指す取り組みを強調しています。

AIによるレポート

カリフォルニア州の規制当局は、テスラが自動運転機能のマーケティングを見直さない場合、同州での車両販売ライセンスを30日間停止する構えだ。行政法裁判官は、「Autopilot」や「Full Self-Driving」などの用語が、常時人間の監視を必要とする技術の能力について消費자를誤解させていると判断した。テスラには90日以内に遵守し、罰則を回避する必要がある。

オースティンでの初期の無人試験に続き、テスラはそのロボットタクシー艦隊の高い衝突率で精査を受けている一方、アナリストは大幅な成長を予測しており、同社は無監督の公共展開に向け推進している。

AIによるレポート

Tesla Cybertruckの運転手が車両のFull Self-Drivingシステムを高速道路で作動させた状態でビデオゲームGrand Theft Autoをプレイする様子を捉えた動画が浮上した。運転手はコントローラーを使い、目がゲーム画面に集中している中、トラックが交通をナビゲートしている。この事件は、運転手たちがTeslaのドライバーモニタリングの安全策を回避しようとする継続的な努力を浮き彫りにしている。

 

 

 

このウェブサイトはCookieを使用します

サイトを改善するための分析にCookieを使用します。詳細については、プライバシーポリシーをお読みください。
拒否