Realistic photo illustration of a Tesla car violating traffic rules at an intersection, under investigation by NHTSA officials, highlighting safety concerns with autonomous driving technology.
Realistic photo illustration of a Tesla car violating traffic rules at an intersection, under investigation by NHTSA officials, highlighting safety concerns with autonomous driving technology.
AIによって生成された画像

NHTSA、テスラのFull Self-Drivingソフトウェアを交通違反で調査

AIによって生成された画像

米国国家道路交通安全局は、危険な交通違反の報告を受け、テスラのFull Self-Drivingソフトウェアに対する6回目の調査を開始した。この調査では、赤信号無視や誤った車線での走行を含む事件を検証し、これらが衝突事故と負傷を引き起こした。テスラがロボットタクシーと無監督運転に向けた推進を進める中での出来事だ。

先週、2025年10月7日、国家道路交通安全局(NHTSA)は、Full Self-Driving(FSD)や他のドライバー支援機能が搭載された288万台のテスラ車両に対する調査を発表した。これは少なくとも6回目の同様の調査で、赤信号を無視する、対向車線に逸脱する、二重黄色線を越える、誤った曲がりを行うなど、安全でない行動に関する数十件の苦情に焦点を当てている。報告された事件の一つでは、テスラが赤信号の交差点に近づき、通過を続け、他の車両に衝突した。

情報源は衝突事故の詳細を異なって報告している:CNNは3件の事故で5人の負傷者を挙げ、FOX 4 Newsは少なくとも6件の事故で4人の負傷者を指摘した。NHTSAの欠陥調査局は、ソフトウェアが赤信号で停止せず、信号を認識せず、対向交通への急な車線変更などの操作に対する警告を提供しなかった18件の苦情を指摘した。同局は、テスラがドライバーに十分な介入機会を提供したかどうかを評価する。

FSDとAutopilotに関する既存の調査、致命的な衝突を含むものは、数年にわたる精査にもかかわらず継続中だ。スタンフォード大学の法学・工学教授であるブライアント・ウォーカー・スミス氏は、このプロセスを「規制のホイール・オブ・フォーチュン」と形容し、時間がかかり、急速な技術進歩と適合しにくいと指摘した。米国の自己認証制度の下で、自動車メーカーは基準遵守を約束するが、NHTSAはFSDのような先進システムに対する具体的な規則を欠いており、市場投入前の承認を制限している。

テスラはFSDを部分的に自律型と分類し、ドライバーの積極的な監督を必要とするとしており、ウェブサイトに次のように記載されている:「有効にすると、あなたの車両はあなたの積極的な監督のもとでほぼどこへでもあなたを運転し、最小限の介入を必要とします。」同社は2025年初頭にテキサス州オースティンでロボットタクシーのパイロットプログラムを開始し、当初は乗客席に従業員を配置したが、地元規則に従い運転席に移した。CEOのイーロン・マスク氏は完全に無人運転の運用と、ステアリングやペダルなしの「Cybercab」を構想している。テスラは自社の技術が人間のドライバーより安全だと主張するが、裏付けデータは提供していない。スミス氏はドライバーの注意力散漫のリスクを警告した:「人間が...ただ見ているだけで何もしなければ、注意を失うという大きな懸念がある。」NHTSAはより厳格な基準を推進する可能性があるが、事前承認権限を得るためには議会による法的変更が必要で、自動車業界の影響力と道路死亡事故への公衆の寛容さから、近いうちに実現しそうにない。

関連記事

NHTSA officials inspecting a Tesla vehicle amid investigation into Full Self-Driving software safety issues.
AIによって生成された画像

NHTSA、テスラのフルセルフドライビングソフトウェアに関する調査を開始

AIによるレポート AIによって生成された画像

米国国立道路交通安全局は、車両が赤信号を無視したり対向車線に入ったりする報告を受け、テスラのフルセルフドライビング機能に対する調査を開始した。この調査は約290万台の車両を対象とし、数十件のインシデント、衝突や負傷を含むもので、規制当局はシステムがドライバーに適切な警告を提供しているかどうかを検証している。

米国家道路交通安全局(NHTSA)は、交通違反に関する数十件の苦情を受けた後、テスラのFull Self-Drivingシステムに対する調査を開始した。この調査は288万台の車両を対象とし、この機能に関連する14件の衝突事故と23件の負傷の報告に続くものである。今年3回目のテスラに対する同様の調査となる。

AIによるレポート

国立高速道路交通安全管理局は、テスラのFull Self-Drivingソフトウェアが交通ルールを80件以上違反した事例を記録した。これには赤信号無視や逆走レーン進入が含まれる。10月の調査開始時の約50件から大幅増加だ。規制当局は2026年1月19日までにテスラから詳細データを求めている。

TeslaのCEOであるElon Musk氏は、2025年12月4日、最新のFull Self-Driving(FSD)ソフトウェア更新により、システムが作動中、周囲の交通状況によってはドライバーが運転中にテキストメッセージを送信できると述べました。これは11月の約束に続き、合法性と安全性への懸念を引き起こしており、米国ほぼ全州で運転中のテキスト送信は禁止されています。独立テストにより、低混雑シナリオでアラートなしに機能が確認されました。

AIによるレポート

テスラはテキサス州オースティンでRobotaxiサービスのテストドライブを開始し、無監督と称している。しかし、報告によると、人間のモニターがまだ関与しており、追跡車から車両を追跡している。批評家はこの設定が遠隔監督者を過負荷にする可能性があり、新しい安全リスクを生むと主張している。

NHTSAの新データで、テスラのオースティン robotaxi フリートが2025年11月まで人間運転手より9倍頻繁に衝突、セーフティモニター同伴でも。前回の報道で1月嵐後の無監督ライド未実現への懐疑が指摘されたが、同社は監督運用を継続、安全課題の継続を示す。

AIによるレポート

テスラは2025年12月14日、テキサス州オースティンで無監督ロボットタクシー試験を開始し、空のModel Y車両が公道を走行、CEOのイーロン・マスク氏が確認。6月からの監督付き試験に続くマイルストーンで、Waymoへの挑戦を目指すが、最近の衝突事故と規制の壁がある。

 

 

 

このウェブサイトはCookieを使用します

サイトを改善するための分析にCookieを使用します。詳細については、プライバシーポリシーをお読みください。
拒否