Realistic photo illustration of a Tesla car violating traffic rules at an intersection, under investigation by NHTSA officials, highlighting safety concerns with autonomous driving technology.
Image générée par IA

La NHTSA enquête sur le logiciel Full Self-Driving de Tesla pour violations du code de la route

Image générée par IA

L'Administration nationale de la sécurité routière des États-Unis a lancé sa sixième enquête sur le logiciel Full Self-Driving de Tesla suite à des rapports de violations dangereuses du code de la route. L'enquête examine des incidents incluant le passage au feu rouge et la conduite sur des voies incorrectes, qui ont conduit à des accidents et des blessures. Cela survient alors que Tesla pousse vers les robotaxis et la conduite sans supervision.

La semaine dernière, le 7 octobre 2025, l'Administration nationale de la sécurité routière (NHTSA) a annoncé une enquête sur 2,88 millions de véhicules Tesla équipés de Full Self-Driving (FSD) ou d'autres fonctionnalités d'assistance au conducteur. Cela marque au moins la sixième enquête de ce type, se concentrant sur des dizaines de plaintes concernant des comportements dangereux, y compris des véhicules traversant des feux rouges, déviant sur des voies opposées, franchissant des lignes jaunes doubles et effectuant des virages incorrects. Un incident rapporté impliquait un Tesla s'approchant d'un carrefour avec un signal rouge, continuant et percutant d'autres véhicules.

Les sources rapportent des détails variés sur les accidents : CNN a cité trois accidents entraînant cinq blessures, tandis que FOX 4 News a mentionné au moins six accidents avec quatre blessures. Le Bureau des enquêtes sur les défauts de la NHTSA a noté 18 plaintes où le logiciel a échoué à s'arrêter aux feux rouges, à reconnaître les signaux ou à fournir des avertissements pour des manœuvres comme des changements de voie soudains vers la circulation en sens inverse. L'agence évaluera si Tesla a offert aux conducteurs des opportunités adéquates d'intervenir.

Les enquêtes existantes sur FSD et Autopilot, y compris des accidents mortels, sont toujours en cours malgré des années de surveillance. Bryant Walker Smith, professeur de droit et d'ingénierie à Stanford, a décrit le processus comme un 'whack-a-mole réglementaire', notant qu'il prend beaucoup de temps et s'aligne mal sur les avancées technologiques rapides. Sous le régime d'auto-certification américain, les constructeurs automobiles promettent de respecter les normes, mais la NHTSA manque de règles spécifiques pour les systèmes avancés comme FSD, limitant les approbations pré-commerciales.

Tesla classe FSD comme partiellement autonome, nécessitant une supervision active du conducteur, comme indiqué sur son site web : 'lorsque activé, votre véhicule vous emmènera presque partout avec votre supervision active, nécessitant une intervention minimale.' L'entreprise a lancé un pilote de robotaxi à Austin, Texas, plus tôt en 2025, initialement avec un employé sur le siège passager, puis déplacé sur le siège conducteur conformément aux règles locales. Le PDG Elon Musk envisage des opérations totalement sans conducteur et un 'Cybercab' sans volant ni pédales. Tesla affirme que sa technologie est plus sûre que les conducteurs humains mais n'a pas fourni de données à l'appui. Smith a averti des risques de distraction des conducteurs : 'Il y a une grande, grande préoccupation que les humains... perdent leur attention s'ils ne font rien d'autre que regarder.' La NHTSA pourrait pousser pour des normes plus strictes, mais des changements législatifs du Congrès sont nécessaires pour une autorité d'approbation préalable, peu probable à court terme en raison de l'influence de l'industrie automobile et de la tolérance publique aux fatalités routières.

Articles connexes

NHTSA officials inspecting a Tesla vehicle amid investigation into Full Self-Driving software safety issues.
Image générée par IA

La NHTSA ouvre une enquête sur le logiciel de conduite autonome complète de Tesla

Rapporté par l'IA Image générée par IA

L'Administration nationale de la sécurité routière a lancé une enquête sur la fonction Full Self-Driving de Tesla après des rapports de véhicules grillant des feux rouges et entrant sur des voies opposées. L'enquête couvre près de 2,9 millions de véhicules et découle de dizaines d'incidents, y compris des collisions et des blessures. Les régulateurs examinent si le système fournit des avertissements adéquats aux conducteurs.

L'Administration nationale de la sécurité routière des États-Unis a ouvert une enquête sur le système Full Self-Driving de Tesla après avoir reçu des dizaines de plaintes concernant des infractions au code de la route. L'enquête couvre 2,88 millions de véhicules et fait suite à des rapports de 14 accidents et 23 blessures liés à cette fonction. Il s'agit de la troisième enquête de ce type sur Tesla cette année.

Rapporté par l'IA

L'Administration nationale de la sécurité routière a documenté au moins 80 cas où le logiciel Full Self-Driving de Tesla a violé les règles de circulation, y compris en passant des feux rouges et en empruntant des voies interdites. Cela marque une augmentation significative par rapport aux environ 50 violations signalées au début de l'enquête en octobre. Les régulateurs exigent désormais des données détaillées de Tesla d'ici le 19 janvier 2026.

Le système Full Self-Driving (Supervised) de Tesla a atteint une étape importante, les propriétaires ayant collectivement parcouru plus de 7 milliards de miles. Ce chiffre inclut plus de 2,5 milliards de miles autonomes sur routes urbaines, soulignant les vastes données du monde réel accumulées par l’entreprise. Cette étape met en lumière la poussée de Tesla pour une conduite autonome plus sûre grâce à l’échelle et aux données.

Rapporté par l'IA

Les régulateurs californiens s’apprêtent à suspendre la licence de vente de véhicules de Tesla dans l’État pendant 30 jours, à moins que l’entreprise ne révise son marketing des fonctionnalités de conduite autonome. Un juge administratif a statué que des termes comme « Autopilot » et « Full Self-Driving » induisent les consommateurs en erreur sur les capacités de la technologie, qui nécessite une supervision humaine constante. Tesla dispose de 90 jours pour se conformer et éviter la sanction.

Après les premiers essais sans conducteur à Austin, Tesla fait face à un examen minutieux concernant des taux d’accidents plus élevés dans sa flotte de robotaxi, tandis que les analystes prévoient une croissance significative, alors que l’entreprise avance vers un déploiement public sans supervision.

Rapporté par l'IA

Une vidéo a fait surface montrant un conducteur de Tesla Cybertruck jouant au jeu vidéo Grand Theft Auto alors que le système Full Self-Driving du véhicule est activé sur l'autoroute. Le conducteur utilise une manette, les yeux rivés sur l'écran du jeu, tandis que le camion navigue dans la circulation. Cet incident met en lumière les efforts continus des conducteurs pour contourner les mesures de surveillance du conducteur de Tesla.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser