A Tesla car speeding on a highway, illustrating NHTSA's probe into the 'Mad Max' mode for exceeding speed limits.
A Tesla car speeding on a highway, illustrating NHTSA's probe into the 'Mad Max' mode for exceeding speed limits.
Image générée par IA

Le régulateur américain enquête sur le mode de conduite 'Mad Max' de Tesla

Image générée par IA

L'Administration nationale de la sécurité routière (NHTSA) demande des informations à Tesla concernant son nouveau mode 'Mad Max' dans le système Full Self-Driving, qui permet aux véhicules de dépasser les limites de vitesse. Cette enquête s'inscrit dans une investigation plus large sur les infractions au code de la route impliquant cette technologie. Les conducteurs signalent des comportements agressifs tels que des vitesses élevées et des arrêts roulants.

Le 24 octobre 2025, l'Administration nationale de la sécurité routière (NHTSA) a annoncé qu'elle contactait Tesla pour recueillir des détails sur le mode 'Mad Max', un nouveau paramètre dans la version 14.1.2 du logiciel Full Self-Driving (FSD) de l'entreprise. Ce mode, réintroduit d'un test bêta Autopilot de 2018, permet des vitesses plus élevées et des changements de voie plus fréquents par rapport à d'autres profils comme 'Hurry', 'Standard', 'Chill' et le nouveau 'Sloth'. Des utilisateurs de réseaux sociaux ont partagé des vidéos montrant des Tesla atteignant 85 mph sur des autoroutes limitées à 65 mph, 75 mph dans des zones à 50 mph et 65 mph dans des zones à 35 mph, ignorant souvent les affichages des limites de vitesse.

La NHTSA a souligné que 'l'humain derrière le volant est pleinement responsable de la conduite du véhicule et du respect de toutes les lois sur la sécurité routière'. L'agence examine si ce mode encourage des infractions telles que le dépassement des limites de vitesse ou des manœuvres brusques. Cela fait suite à une enquête d'octobre 2025 sur 2,9 millions de véhicules Tesla équipés de FSD, basée sur 58 rapports de problèmes incluant 14 accidents et 23 blessures. Des préoccupations spécifiques incluent six incidents où des véhicules avec FSD activé ont grillé des feux rouges, entraînant des collisions.

Tesla n'a pas commenté directement mais a republié une description sur les réseaux sociaux : 'Le mode Mad Max est FOU. Il conduit votre voiture comme une voiture de sport. Si vous êtes en retard, c'est le mode pour vous.' L'entreprise présente le FSD comme nécessitant une supervision active et une intervention minimale, le classant comme automatisation de niveau 2. Des critiques comme l'entrepreneur en logiciel Dan O’Dowd soutiennent qu'il met les autres en danger, déclarant : 'Plutôt que d'améliorer la sécurité routière, la dernière mise à jour logicielle de Tesla met plus de personnes en risque.' Tesla fait face à un examen continu, y compris un rappel en 2022 de plus de 50 000 véhicules pour une fonction d'« arrêt roulant » et une enquête du Département de la Justice sur des affirmations trompeuses concernant les capacités de conduite autonome.

Dans son rapport du troisième trimestre 2025, Tesla a noté un accident par 6,36 millions de miles avec Autopilot activé, comparé à un par 720 000 miles pour tous les véhicules aux États-Unis.

Articles connexes

Courtroom scene illustrating Tesla's lawsuit against California DMV over Autopilot and Full Self-Driving false advertising claims.
Image générée par IA

Tesla sues California DMV to overturn false advertising ruling on Autopilot and Full Self-Driving

Rapporté par l'IA Image générée par IA

Tesla filed a lawsuit on February 13, 2026, against the California Department of Motor Vehicles, challenging a December 2025 ruling that accused the company of misleading consumers through marketing of its Autopilot and Full Self-Driving features. Despite complying with required changes to avoid a sales license suspension, Tesla argues the decision was factually erroneous, legally flawed, and lacked evidence of consumer harm. The dispute underscores intense scrutiny of Tesla's driver-assistance systems amid its major California operations.

In a follow-up to NHTSA's October 2025 investigation into Tesla's Full Self-Driving (FSD) software for dangerous maneuvers like running red lights, Tesla must submit data on over 8,300 potential violations by March 9, 2026. This is separate from reports on 14 robotaxi incidents since June 2025. Tesla's safety data shows improving autonomous performance amid scrutiny.

Rapporté par l'IA

Tesla's Full Self-Driving (Supervised) system has accumulated over 8.4 billion cumulative miles driven worldwide as of March 2, 2026, per the company's safety page—nearing CEO Elon Musk's 10 billion mile target for safe unsupervised self-driving. In parallel, Tesla has begun supervised FSD testing in Abu Dhabi under local oversight.

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser