L'Administration nationale de la sécurité routière (NHTSA) demande des informations à Tesla concernant son nouveau mode 'Mad Max' dans le système Full Self-Driving, qui permet aux véhicules de dépasser les limites de vitesse. Cette enquête s'inscrit dans une investigation plus large sur les infractions au code de la route impliquant cette technologie. Les conducteurs signalent des comportements agressifs tels que des vitesses élevées et des arrêts roulants.
Le 24 octobre 2025, l'Administration nationale de la sécurité routière (NHTSA) a annoncé qu'elle contactait Tesla pour recueillir des détails sur le mode 'Mad Max', un nouveau paramètre dans la version 14.1.2 du logiciel Full Self-Driving (FSD) de l'entreprise. Ce mode, réintroduit d'un test bêta Autopilot de 2018, permet des vitesses plus élevées et des changements de voie plus fréquents par rapport à d'autres profils comme 'Hurry', 'Standard', 'Chill' et le nouveau 'Sloth'. Des utilisateurs de réseaux sociaux ont partagé des vidéos montrant des Tesla atteignant 85 mph sur des autoroutes limitées à 65 mph, 75 mph dans des zones à 50 mph et 65 mph dans des zones à 35 mph, ignorant souvent les affichages des limites de vitesse.
La NHTSA a souligné que 'l'humain derrière le volant est pleinement responsable de la conduite du véhicule et du respect de toutes les lois sur la sécurité routière'. L'agence examine si ce mode encourage des infractions telles que le dépassement des limites de vitesse ou des manœuvres brusques. Cela fait suite à une enquête d'octobre 2025 sur 2,9 millions de véhicules Tesla équipés de FSD, basée sur 58 rapports de problèmes incluant 14 accidents et 23 blessures. Des préoccupations spécifiques incluent six incidents où des véhicules avec FSD activé ont grillé des feux rouges, entraînant des collisions.
Tesla n'a pas commenté directement mais a republié une description sur les réseaux sociaux : 'Le mode Mad Max est FOU. Il conduit votre voiture comme une voiture de sport. Si vous êtes en retard, c'est le mode pour vous.' L'entreprise présente le FSD comme nécessitant une supervision active et une intervention minimale, le classant comme automatisation de niveau 2. Des critiques comme l'entrepreneur en logiciel Dan O’Dowd soutiennent qu'il met les autres en danger, déclarant : 'Plutôt que d'améliorer la sécurité routière, la dernière mise à jour logicielle de Tesla met plus de personnes en risque.' Tesla fait face à un examen continu, y compris un rappel en 2022 de plus de 50 000 véhicules pour une fonction d'« arrêt roulant » et une enquête du Département de la Justice sur des affirmations trompeuses concernant les capacités de conduite autonome.
Dans son rapport du troisième trimestre 2025, Tesla a noté un accident par 6,36 millions de miles avec Autopilot activé, comparé à un par 720 000 miles pour tous les véhicules aux États-Unis.