Vidéo d'infirmière dans sa Tesla enflamme le débat sur la sécurité de la conduite autonome

Une infirmière diplômée a partagé une vidéo TikTok où elle semble dormir pendant que sa Tesla roulait en mode de conduite autonome complète après un shift de nuit, attirant des critiques massives pour promotion d'un comportement risqué. Les commentateurs ont souligné les dangers et l'illégalité de dépendre totalement de la technologie, bien que l'infirmière ait clarifié que ses yeux étaient ouverts. L'incident met en lumière les préoccupations persistantes sur les garde-fous du système Full Self-Driving de Tesla.

Vanessa Lim, une infirmière diplômée connue sur TikTok sous le nom @vanessalim, a publié une vidéo la montrant avachie sur le siège du conducteur de sa Tesla électrique lors d'un trajet solitaire pour rentrer chez elle après un shift de nuit. Le clip inclut un texte superposé indiquant : « merci mon Dieu pour ma Tesla en conduite autonome parce que comment j'aurais conduit à la maison après ce shift », avec des bâtiments et des voitures visibles défilant à l'extérieur. Son bras droit semble tendu comme pour filmer, son bras gauche autour du cou, et aucune main ne touche le volant. Bien que ses yeux semblent fermés au début, un examen attentif révèle des paupières papillotantes, un point relevé par un commentateur : « Les gens ne voient pas que vous clignez des yeux ? »

La vidéo a rapidement suscité des réactions négatives des spectateurs qui l'ont jugée irresponsable. L'un a remarké : « Ouais, ne jouons pas avec la vie des gens », soulignant le potentiel d'issue fatale. Un autre a averti : « Chérie non, c'est illégal et dangereux. Ces voitures autonomes ne sont pas à faire confiance à 100 %. Protège-toi. J'ai aussi travaillé de nuit donc je comprends la galère. » En réponse, Lim a demandé : « Attends, comment conduire une Tesla en mode Full self-driving est illégal ? » Un troisième commentateur a observé : « Mdrr je pense qu'elle croit qu'elle dort vraiment...pendant qu'elle filme hein », auquel Lim a répondu : « Mec mes yeux sont ouverts dans cette vidéo. »

Le système Full Self-Driving (Supervised) de Tesla exige que les conducteurs restent attentifs et prêts à prendre le contrôle à tout moment, comme l'indique l'entreprise. Des discussions sur des forums comme Tesla Motors Club suggèrent que, bien que les mises à jour visent à empêcher l'assoupissement, des vidéos en ligne montrent que ces mesures ne sont pas toujours efficaces. Une mise à jour logicielle de mai 2025 a réduit le suivi oculaire en cabine pour répondre aux plaintes sur des alertes excessives, même quand les conducteurs étaient concentrés. Le PDG de Tesla, Elon Musk, a affirmé que les propriétaires pourraient bientôt envoyer des textos en conduisant en toute sécurité avec cette technologie. Des rapports mentionnent aussi des invites pour conducteurs somnolents, comme une fenêtre pop-up : « Tirez vers le bas pour activer FSD (Supervised). Déviation de voie détectée. Laissez FSD vous aider pour rester concentré. » InsideEVs a contacté Lim et Tesla pour des commentaires supplémentaires.

Articles connexes

Realistic photo illustration of a Tesla car violating traffic rules at an intersection, under investigation by NHTSA officials, highlighting safety concerns with autonomous driving technology.
Image générée par IA

La NHTSA enquête sur le logiciel Full Self-Driving de Tesla pour violations du code de la route

Rapporté par l'IA Image générée par IA

L'Administration nationale de la sécurité routière des États-Unis a lancé sa sixième enquête sur le logiciel Full Self-Driving de Tesla suite à des rapports de violations dangereuses du code de la route. L'enquête examine des incidents incluant le passage au feu rouge et la conduite sur des voies incorrectes, qui ont conduit à des accidents et des blessures. Cela survient alors que Tesla pousse vers les robotaxis et la conduite sans supervision.

Une vidéo a fait surface montrant un conducteur de Tesla Cybertruck jouant au jeu vidéo Grand Theft Auto alors que le système Full Self-Driving du véhicule est activé sur l'autoroute. Le conducteur utilise une manette, les yeux rivés sur l'écran du jeu, tandis que le camion navigue dans la circulation. Cet incident met en lumière les efforts continus des conducteurs pour contourner les mesures de surveillance du conducteur de Tesla.

Rapporté par l'IA

Une Tesla Model 3 a dévié vers la circulation en sens inverse lors d'une démonstration en livestream de ses fonctionnalités Full Self-Driving en Chine, provoquant une collision frontale. Personne n'a été grièvement blessé, mais l'incident a suscité de nouvelles préoccupations concernant la dépendance excessive aux capacités du système. Le conducteur a publié des images montrant que le logiciel a initié le changement de voie erroné.

Les régulateurs californiens s’apprêtent à suspendre la licence de vente de véhicules de Tesla dans l’État pendant 30 jours, à moins que l’entreprise ne révise son marketing des fonctionnalités de conduite autonome. Un juge administratif a statué que des termes comme « Autopilot » et « Full Self-Driving » induisent les consommateurs en erreur sur les capacités de la technologie, qui nécessite une supervision humaine constante. Tesla dispose de 90 jours pour se conformer et éviter la sanction.

Rapporté par l'IA

Une conductrice de Houston a intenté une action en justice contre Tesla après un incident où son Cybertruck aurait tenté de quitter un pont surélevé alors qu'il utilisait la fonction autopilot. La plainte affirme que la technologie de conduite autonome de Tesla est conçue de manière défectueuse et commercialisée de façon trompeuse comme totalement autonome. L'événement s'est produit l'année dernière.

La famille d’un motard de 28 ans tué dans une collision en 2024 a intenté une action en justice pour mort injuste contre Tesla, affirmant que le système Autopilot de l’entreprise a échoué à détecter le véhicule arrêté. L’incident s’est produit sur la State Route 522 dans le comté de Snohomish, Washington, lorsqu’une Tesla Model S a percuté Jeffrey Nissen Jr. par l’arrière.

Rapporté par l'IA

Un homme de Géorgie a survécu à une crise cardiaque grâce au système Full Self-Driving de Tesla, qui a redirigé son véhicule vers un centre médical proche après que son fils a changé la destination via l'application. L'incident s'est produit alors que l'homme conduisait à travers Atlanta en route pour Birmingham. Les médecins ont ensuite confirmé que le réacheminement rapide avait sauvé sa vie.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser