L'Administration nationale de la sécurité routière des États-Unis a lancé sa sixième enquête sur le logiciel Full Self-Driving de Tesla suite à des rapports de violations dangereuses du code de la route. L'enquête examine des incidents incluant le passage au feu rouge et la conduite sur des voies incorrectes, qui ont conduit à des accidents et des blessures. Cela survient alors que Tesla pousse vers les robotaxis et la conduite sans supervision.
La semaine dernière, le 7 octobre 2025, l'Administration nationale de la sécurité routière (NHTSA) a annoncé une enquête sur 2,88 millions de véhicules Tesla équipés de Full Self-Driving (FSD) ou d'autres fonctionnalités d'assistance au conducteur. Cela marque au moins la sixième enquête de ce type, se concentrant sur des dizaines de plaintes concernant des comportements dangereux, y compris des véhicules traversant des feux rouges, déviant sur des voies opposées, franchissant des lignes jaunes doubles et effectuant des virages incorrects. Un incident rapporté impliquait un Tesla s'approchant d'un carrefour avec un signal rouge, continuant et percutant d'autres véhicules.
Les sources rapportent des détails variés sur les accidents : CNN a cité trois accidents entraînant cinq blessures, tandis que FOX 4 News a mentionné au moins six accidents avec quatre blessures. Le Bureau des enquêtes sur les défauts de la NHTSA a noté 18 plaintes où le logiciel a échoué à s'arrêter aux feux rouges, à reconnaître les signaux ou à fournir des avertissements pour des manœuvres comme des changements de voie soudains vers la circulation en sens inverse. L'agence évaluera si Tesla a offert aux conducteurs des opportunités adéquates d'intervenir.
Les enquêtes existantes sur FSD et Autopilot, y compris des accidents mortels, sont toujours en cours malgré des années de surveillance. Bryant Walker Smith, professeur de droit et d'ingénierie à Stanford, a décrit le processus comme un 'whack-a-mole réglementaire', notant qu'il prend beaucoup de temps et s'aligne mal sur les avancées technologiques rapides. Sous le régime d'auto-certification américain, les constructeurs automobiles promettent de respecter les normes, mais la NHTSA manque de règles spécifiques pour les systèmes avancés comme FSD, limitant les approbations pré-commerciales.
Tesla classe FSD comme partiellement autonome, nécessitant une supervision active du conducteur, comme indiqué sur son site web : 'lorsque activé, votre véhicule vous emmènera presque partout avec votre supervision active, nécessitant une intervention minimale.' L'entreprise a lancé un pilote de robotaxi à Austin, Texas, plus tôt en 2025, initialement avec un employé sur le siège passager, puis déplacé sur le siège conducteur conformément aux règles locales. Le PDG Elon Musk envisage des opérations totalement sans conducteur et un 'Cybercab' sans volant ni pédales. Tesla affirme que sa technologie est plus sûre que les conducteurs humains mais n'a pas fourni de données à l'appui. Smith a averti des risques de distraction des conducteurs : 'Il y a une grande, grande préoccupation que les humains... perdent leur attention s'ils ne font rien d'autre que regarder.' La NHTSA pourrait pousser pour des normes plus strictes, mais des changements législatifs du Congrès sont nécessaires pour une autorité d'approbation préalable, peu probable à court terme en raison de l'influence de l'industrie automobile et de la tolérance publique aux fatalités routières.