Conductrice de Houston poursuit Tesla après accident de Cybertruck en pilotage automatique

Une conductrice de Houston a intenté une action en justice contre Tesla après un incident où son Cybertruck aurait tenté de quitter un pont surélevé alors qu'il utilisait la fonction autopilot. La plainte affirme que la technologie de conduite autonome de Tesla est conçue de manière défectueuse et commercialisée de façon trompeuse comme totalement autonome. L'événement s'est produit l'année dernière.

L'action en justice découle d'un incident survenu l'année dernière impliquant un Cybertruck équipé du système autopilot de Tesla. Selon la plainte déposée par la conductrice de Houston, le véhicule aurait tenté de quitter un pont surélevé alors que l'autopilot était engagé, entraînant un crash contre une barrière. La plaignante argue que la technologie de conduite autonome de Tesla est conçue de manière défectueuse, posant des risques de sécurité pour les utilisateurs. Elle soutient également que l'entreprise a commercialisé la fonctionnalité de manière trompeuse comme autonome, pouvant donner aux conducteurs un faux sentiment de sécurité. Tesla n'a pas encore réagi publiquement à l'action en justice, et les détails sur les circonstances précises de l'accident se limitent au récit de la plaignante. Cette affaire met en lumière l'examen continu des systèmes avancés d'assistance à la conduite dans les véhicules électriques. L'action a été rapportée par Law360, soulignant les préoccupations concernant la fiabilité et le marketing des capacités de conduite autonome de Tesla.

Articles connexes

Dramatic illustration of a crashed Tesla Cybertruck on a Houston overpass, central to lawsuit over Full Self-Driving failure.
Image générée par IA

Propriétaire texane d’un Cybertruck, Justine Saint Amour, poursuit Tesla pour plus d’un million de dollars après un crash Full Self-Driving contre une barrière de viaduc

Rapporté par l'IA Image générée par IA

Justine Saint Amour, propriétaire texane d’un Cybertruck, poursuit Tesla pour plus d’un million de dollars et dommages punitifs après que son véhicule a percuté une barrière en béton sur un viaduc de Houston en utilisant le système Full Self-Driving (FSD). Déposée au tribunal de district du comté de Harris, la plainte allègue négligence dans la conception, le marketing et le maintien du PDG Elon Musk, dans le contexte d’un examen continu de la technologie d’assistance à la conduite de Tesla.

Tesla a déposé une plainte le 13 février 2026 contre le Département des véhicules motorisés de Californie, contestant une décision de décembre 2025 qui accusait l’entreprise d’avoir induit les consommateurs en erreur par la promotion de ses fonctionnalités Autopilot et Full Self-Driving. Malgré le respect des modifications exigées pour éviter la suspension de sa licence de vente, Tesla affirme que la décision était factuellement erronée, juridiquement défectueuse et dépourvue de preuves de préjudice pour les consommateurs. Ce litige met en lumière l’examen approfondi des systèmes d’assistance à la conduite de Tesla au cœur de ses importantes opérations en Californie.

Rapporté par l'IA

Un juge fédéral américain a rejeté la demande de Tesla d'annuler un verdict de jury de 243 millions de dollars lié à un accident mortel en 2019 impliquant la fonctionnalité Autopilot de l'entreprise. La décision tient Tesla partiellement responsable de l'incident qui a tué une personne et blessé une autre. Tesla devrait faire appel de la décision.

Le Cybertruck de Tesla a fait face à 10 rappels depuis son entrée sur le marché, dont un majeur affectant près de 116 000 véhicules en 2025. Les problèmes vont des panneaux se détachant à des phares et essuie-glaces défectueux. Les critiques estiment que l’entreprise doit en faire plus pour assurer la sécurité malgré son image de « presque indestructible ».

Rapporté par l'IA

Tesla a signalé cinq nouveaux accidents impliquant sa flotte de robotaxis à Austin, Texas, portant le total à 14 incidents depuis le début du service en juin 2025. Les dernières données de la National Highway Traffic Safety Administration révèlent un taux d'accidents supérieur à celui des conducteurs humains typiques, au milieu d'un examen continu du système autonome. Un incident antérieur a été mis à jour pour inclure une hospitalisation.

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser