Realistic photo illustration of a Tesla car violating traffic rules at an intersection, under investigation by NHTSA officials, highlighting safety concerns with autonomous driving technology.
Realistic photo illustration of a Tesla car violating traffic rules at an intersection, under investigation by NHTSA officials, highlighting safety concerns with autonomous driving technology.
Image générée par IA

La NHTSA enquête sur le logiciel Full Self-Driving de Tesla pour violations du code de la route

Image générée par IA

L'Administration nationale de la sécurité routière des États-Unis a lancé sa sixième enquête sur le logiciel Full Self-Driving de Tesla suite à des rapports de violations dangereuses du code de la route. L'enquête examine des incidents incluant le passage au feu rouge et la conduite sur des voies incorrectes, qui ont conduit à des accidents et des blessures. Cela survient alors que Tesla pousse vers les robotaxis et la conduite sans supervision.

La semaine dernière, le 7 octobre 2025, l'Administration nationale de la sécurité routière (NHTSA) a annoncé une enquête sur 2,88 millions de véhicules Tesla équipés de Full Self-Driving (FSD) ou d'autres fonctionnalités d'assistance au conducteur. Cela marque au moins la sixième enquête de ce type, se concentrant sur des dizaines de plaintes concernant des comportements dangereux, y compris des véhicules traversant des feux rouges, déviant sur des voies opposées, franchissant des lignes jaunes doubles et effectuant des virages incorrects. Un incident rapporté impliquait un Tesla s'approchant d'un carrefour avec un signal rouge, continuant et percutant d'autres véhicules.

Les sources rapportent des détails variés sur les accidents : CNN a cité trois accidents entraînant cinq blessures, tandis que FOX 4 News a mentionné au moins six accidents avec quatre blessures. Le Bureau des enquêtes sur les défauts de la NHTSA a noté 18 plaintes où le logiciel a échoué à s'arrêter aux feux rouges, à reconnaître les signaux ou à fournir des avertissements pour des manœuvres comme des changements de voie soudains vers la circulation en sens inverse. L'agence évaluera si Tesla a offert aux conducteurs des opportunités adéquates d'intervenir.

Les enquêtes existantes sur FSD et Autopilot, y compris des accidents mortels, sont toujours en cours malgré des années de surveillance. Bryant Walker Smith, professeur de droit et d'ingénierie à Stanford, a décrit le processus comme un 'whack-a-mole réglementaire', notant qu'il prend beaucoup de temps et s'aligne mal sur les avancées technologiques rapides. Sous le régime d'auto-certification américain, les constructeurs automobiles promettent de respecter les normes, mais la NHTSA manque de règles spécifiques pour les systèmes avancés comme FSD, limitant les approbations pré-commerciales.

Tesla classe FSD comme partiellement autonome, nécessitant une supervision active du conducteur, comme indiqué sur son site web : 'lorsque activé, votre véhicule vous emmènera presque partout avec votre supervision active, nécessitant une intervention minimale.' L'entreprise a lancé un pilote de robotaxi à Austin, Texas, plus tôt en 2025, initialement avec un employé sur le siège passager, puis déplacé sur le siège conducteur conformément aux règles locales. Le PDG Elon Musk envisage des opérations totalement sans conducteur et un 'Cybercab' sans volant ni pédales. Tesla affirme que sa technologie est plus sûre que les conducteurs humains mais n'a pas fourni de données à l'appui. Smith a averti des risques de distraction des conducteurs : 'Il y a une grande, grande préoccupation que les humains... perdent leur attention s'ils ne font rien d'autre que regarder.' La NHTSA pourrait pousser pour des normes plus strictes, mais des changements législatifs du Congrès sont nécessaires pour une autorité d'approbation préalable, peu probable à court terme en raison de l'influence de l'industrie automobile et de la tolérance publique aux fatalités routières.

Articles connexes

NHTSA officials inspecting a Tesla vehicle amid investigation into Full Self-Driving software safety issues.
Image générée par IA

La NHTSA ouvre une enquête sur le logiciel de conduite autonome complète de Tesla

Rapporté par l'IA Image générée par IA

L'Administration nationale de la sécurité routière a lancé une enquête sur la fonction Full Self-Driving de Tesla après des rapports de véhicules grillant des feux rouges et entrant sur des voies opposées. L'enquête couvre près de 2,9 millions de véhicules et découle de dizaines d'incidents, y compris des collisions et des blessures. Les régulateurs examinent si le système fournit des avertissements adéquats aux conducteurs.

L'Administration nationale de la sécurité routière des États-Unis a ouvert une enquête sur le système Full Self-Driving de Tesla après avoir reçu des dizaines de plaintes concernant des infractions au code de la route. L'enquête couvre 2,88 millions de véhicules et fait suite à des rapports de 14 accidents et 23 blessures liés à cette fonction. Il s'agit de la troisième enquête de ce type sur Tesla cette année.

Rapporté par l'IA

L'Administration nationale de la sécurité routière a documenté au moins 80 cas où le logiciel Full Self-Driving de Tesla a violé les règles de circulation, y compris en passant des feux rouges et en empruntant des voies interdites. Cela marque une augmentation significative par rapport aux environ 50 violations signalées au début de l'enquête en octobre. Les régulateurs exigent désormais des données détaillées de Tesla d'ici le 19 janvier 2026.

Le PDG de Tesla, Elon Musk, a déclaré le 4 décembre 2025 que la dernière mise à jour du logiciel Full Self-Driving (FSD) permet aux conducteurs d'envoyer des SMS lorsque le système est activé, en fonction des conditions de circulation environnantes. Cela fait suite à une promesse faite en novembre et suscite des inquiétudes quant à la légalité et à la sécurité, l'envoi de SMS au volant restant interdit dans presque tous les États américains. Des tests indépendants ont confirmé le fonctionnement de la fonctionnalité dans des scénarios de faible congestion sans alertes.

Rapporté par l'IA

Tesla a commencé des essais routiers pour son service Robotaxi à Austin, au Texas, les qualifiant de non supervisés. Cependant, des rapports indiquent que des surveillants humains sont toujours impliqués, suivant les véhicules depuis des voitures suiveuses. Les critiques soutiennent que cette configuration introduit de nouveaux risques pour la sécurité en surchargeant potentiellement les superviseurs à distance.

De nouvelles données de la NHTSA révèlent que la flotte de robotaxis Tesla à Austin a eu des crashes neuf fois plus fréquents que les conducteurs humains jusqu'en novembre 2025, même avec des surveillants de sécurité. Comme la couverture antérieure notait le scepticisme sur les promesses non tenues de trajets sans supervision après la tempête de janvier, l'entreprise continue les opérations supervisées, soulignant les obstacles persistants de sécurité.

Rapporté par l'IA

Tesla a commencé des tests de robotaxi sans supervision à Austin, Texas, le 14 décembre 2025, avec des véhicules Model Y vides naviguant sur les routes publiques, comme confirmé par le PDG Elon Musk. Cette étape suit des essais supervisés depuis juin et vise à concurrencer Waymo, malgré des accidents récents et des obstacles réglementaires.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser