A Tesla car speeding on a highway, illustrating NHTSA's probe into the 'Mad Max' mode for exceeding speed limits.
A Tesla car speeding on a highway, illustrating NHTSA's probe into the 'Mad Max' mode for exceeding speed limits.
AIによって生成された画像

米規制当局がテスラの「Mad Max」運転モードを調査

AIによって生成された画像

国立道路交通安全管理局(NHTSA)は、フルセルフドライビングシステムの新機能「Mad Max」モードについてテスラに情報を求めている。このモードは車両が速度制限を超えることを許可する。今回の調査は、この技術に関連する交通違反の広範な調査の一環だ。ドライバーは高速走行やローリングストップなどの攻撃的な行動を報告している。

2025年10月24日、国立道路交通安全管理局(NHTSA)は、テスラのFull Self-Driving(FSD)ソフトウェアバージョン14.1.2の新設定「Mad Max」モードに関する詳細を収集するため、テスラに連絡することを発表した。このモードは、2018年のAutopilotベータテストから再導入されたもので、他のプロファイル(「Hurry」、「Standard」、「Chill」、新「Sloth」)に比べて高い速度とより頻繁な車線変更を可能にする。ソーシャルメディアのユーザーは、65mph制限の高速道路で85mph、50mphゾーンで75mph、35mphエリアで65mphに達するテスラの動画を共有しており、しばしば速度制限表示を無視している。

NHTSAは、「ハンドルを握る人間が車両の運転とすべての交通安全法の遵守に全面的に責任を負う」と強調した。同局は、このモードが速度制限超過や急な操縦などの違反を助長するかどうかを審査中だ。これは、2025年10月の以前の調査に続くもので、FSD搭載の290万台のテスラ車両を対象とし、58件の報告に基づく(うち14件の衝突事故と23件の負傷)。具体的な懸念には、FSD作動中の車両が赤信号を通過した6件のインシデントが含まれており、衝突を引き起こした。

テスラは直接コメントしていないが、ソーシャルメディアの記述をリポストした:「Mad Maxモードはクレイジーだ。スポーツカーのように車を運転する。遅刻しそうなら、このモードがぴったり。」同社はFSDを積極的な監督と最小限の介入を必要とするものとしてマーケティングし、レベル2の自動化に分類している。ソフトウェア起業家のダン・オードウドのような批評家は、他者に危険を及ぼすと主張し、「道路の安全を向上させるどころか、テスラの最新ソフトウェア更新はより多くの人を危険にさらしている」と述べた。テスラは継続的な監視に直面しており、2022年の「ローリングストップ」機能による5万台超の車両リコールや、自動運転能力に関する誤解を招く主張に対する司法省の調査が含まれる。

2025年第3四半期報告書で、テスラはAutopilot作動時で1回の衝突あたり636万マイル(全米車両の1回あたり72万マイルに対し)と記した。

関連記事

Courtroom scene illustrating Tesla's lawsuit against California DMV over Autopilot and Full Self-Driving false advertising claims.
AIによって生成された画像

Tesla sues California DMV to overturn false advertising ruling on Autopilot and Full Self-Driving

AIによるレポート AIによって生成された画像

Tesla filed a lawsuit on February 13, 2026, against the California Department of Motor Vehicles, challenging a December 2025 ruling that accused the company of misleading consumers through marketing of its Autopilot and Full Self-Driving features. Despite complying with required changes to avoid a sales license suspension, Tesla argues the decision was factually erroneous, legally flawed, and lacked evidence of consumer harm. The dispute underscores intense scrutiny of Tesla's driver-assistance systems amid its major California operations.

In a follow-up to NHTSA's October 2025 investigation into Tesla's Full Self-Driving (FSD) software for dangerous maneuvers like running red lights, Tesla must submit data on over 8,300 potential violations by March 9, 2026. This is separate from reports on 14 robotaxi incidents since June 2025. Tesla's safety data shows improving autonomous performance amid scrutiny.

AIによるレポート

Tesla's Full Self-Driving (Supervised) system has accumulated over 8.4 billion cumulative miles driven worldwide as of March 2, 2026, per the company's safety page—nearing CEO Elon Musk's 10 billion mile target for safe unsupervised self-driving. In parallel, Tesla has begun supervised FSD testing in Abu Dhabi under local oversight.

このウェブサイトはCookieを使用します

サイトを改善するための分析にCookieを使用します。詳細については、プライバシーポリシーをお読みください。
拒否