NHTSA officials inspecting a Tesla vehicle amid investigation into Full Self-Driving software safety issues.
NHTSA officials inspecting a Tesla vehicle amid investigation into Full Self-Driving software safety issues.
Image générée par IA

La NHTSA ouvre une enquête sur le logiciel de conduite autonome complète de Tesla

Image générée par IA

L'Administration nationale de la sécurité routière a lancé une enquête sur la fonction Full Self-Driving de Tesla après des rapports de véhicules grillant des feux rouges et entrant sur des voies opposées. L'enquête couvre près de 2,9 millions de véhicules et découle de dizaines d'incidents, y compris des collisions et des blessures. Les régulateurs examinent si le système fournit des avertissements adéquats aux conducteurs.

Le 10 octobre 2025, l'Administration nationale de la sécurité routière des États-Unis (NHTSA) a annoncé une évaluation préliminaire du logiciel Full Self-Driving (FSD) de Tesla, un système d'assistance à la conduite de niveau 2 qui nécessite une supervision active du conducteur. L'enquête a été déclenchée par au moins 18 plaintes et des rapports supplémentaires détaillant de 50 à 58 incidents où des Tesla équipés de FSD ont violé les lois sur la circulation, comme ne pas s'arrêter à un feu rouge ou dévier sur des voies opposées.

Selon le rapport de la NHTSA du 7 octobre, les scénarios courants incluent des véhicules traversant des intersections contre des feux rouges, avec six cas aboutissant à des collisions impliquant d'autres véhicules motorisés. Quatre de ces collisions ont causé des blessures, contribuant à un total d'environ deux douzaines de blessures sur 10 incidents, en plus de 14 collisions ou incendies. Les plaignants ont rapporté que le système n'a fourni aucun avertissement avant des manœuvres inattendues, comme des changements de voie vers la circulation en sens inverse ou le franchissement de lignes jaunes doubles.

L'enquête concerne 2,9 millions de véhicules Tesla équipés de FSD, qui reposent uniquement sur des caméras pour la navigation. Tesla maintient que les conducteurs restent pleinement responsables du respect des lois sur la circulation et doivent intervenir si nécessaire. Cependant, les experts remettent en question la fiabilité du logiciel. L'analyste de Morningstar Seth Goldstein a demandé : « La question ultime est : 'Le logiciel fonctionne-t-il ?' » Le gestionnaire de fonds Ross Gerber a ajouté : « Le monde est devenu un immense terrain d'essai pour le concept de conduite autonome complète d'Elon, et cela ne fonctionne pas. »

Cette enquête s'ajoute aux enquêtes en cours de la NHTSA sur les fonctionnalités de Tesla, y compris les collisions en faible visibilité et les retards dans le signalement des accidents. Elle intervient alors qu'Elon Musk promet de déployer des centaines de milliers de taxis sans conducteur d'ici fin 2026, malgré des difficultés de ventes récentes et une décision récente d'un jury de Miami accordant plus de 240 millions de dollars dans une affaire distincte liée à Autopilot. L'action Tesla a chuté de 0,7 % le jour de l'annonce. La NHTSA vise à évaluer si le FSD permet une intervention adéquate du conducteur.

Articles connexes

Realistic photo illustration of a Tesla car violating traffic rules at an intersection, under investigation by NHTSA officials, highlighting safety concerns with autonomous driving technology.
Image générée par IA

La NHTSA enquête sur le logiciel Full Self-Driving de Tesla pour violations du code de la route

Rapporté par l'IA Image générée par IA

L'Administration nationale de la sécurité routière des États-Unis a lancé sa sixième enquête sur le logiciel Full Self-Driving de Tesla suite à des rapports de violations dangereuses du code de la route. L'enquête examine des incidents incluant le passage au feu rouge et la conduite sur des voies incorrectes, qui ont conduit à des accidents et des blessures. Cela survient alors que Tesla pousse vers les robotaxis et la conduite sans supervision.

L'Administration nationale de la sécurité routière des États-Unis a ouvert une enquête sur le système Full Self-Driving de Tesla après avoir reçu des dizaines de plaintes concernant des infractions au code de la route. L'enquête couvre 2,88 millions de véhicules et fait suite à des rapports de 14 accidents et 23 blessures liés à cette fonction. Il s'agit de la troisième enquête de ce type sur Tesla cette année.

Rapporté par l'IA

L'Administration nationale de la sécurité routière a documenté au moins 80 cas où le logiciel Full Self-Driving de Tesla a violé les règles de circulation, y compris en passant des feux rouges et en empruntant des voies interdites. Cela marque une augmentation significative par rapport aux environ 50 violations signalées au début de l'enquête en octobre. Les régulateurs exigent désormais des données détaillées de Tesla d'ici le 19 janvier 2026.

Tesla's latest Full Self-Driving (FSD) software version 14 has shown significant improvements, with miles between critical interventions jumping from 440 to over 9,200, according to Piper Sandler analysts. The firm describes the system as very close to achieving unsupervised autonomy. However, a recent review highlights the need for constant driver vigilance despite its advanced capabilities.

Rapporté par l'IA

Les propriétaires de Tesla ont collectivement parcouru plus de 7,5 milliards de miles avec le logiciel Full Self-Driving (Supervised), la majorité sur autoroutes. Parallèlement, les tests publics de FSD non supervisé s'étendent à Austin. Un témoignage personnel met en lumière des performances fluides dans des conditions difficiles.

Le ministère des Transports israélien a approuvé Tesla pour mener des essais de son système de conduite autonome supervisée sur les routes publiques. L'initiative vise à intégrer la technologie dans les conditions locales tout en priorisant la sécurité. Cette étape ambitionne de positionner Israël comme un hub d'innovation pour les véhicules intelligents.

Rapporté par l'IA

Un conducteur a testé un Tesla Cybertruck Full Self-Driving, s’engageant dans une course contre une Corvette à moteur central et feignant de dormir au volant. L’expérience a mis en lumière les aspects positifs et négatifs de la technologie. Les autorités ont arrêté le véhicule en raison du manque apparent de vigilance du conducteur.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser