Une Tesla Model 3 a dévié vers la circulation en sens inverse lors d'une démonstration en livestream de ses fonctionnalités Full Self-Driving en Chine, provoquant une collision frontale. Personne n'a été grièvement blessé, mais l'incident a suscité de nouvelles préoccupations concernant la dépendance excessive aux capacités du système. Le conducteur a publié des images montrant que le logiciel a initié le changement de voie erroné.
Début de cette année, Tesla a introduit en Chine son système d'assistance à la conduite de niveau 2, connu sous le nom de Full Self-Driving (FSD). Malgré son nom, il exige une surveillance constante du conducteur, comme aux États-Unis. Les régulateurs chinois ont rapidement obligé Tesla à le renommer, estimant que l'étiquette originale était trompeuse quant à ses fonctions réelles.
Les propriétaires enthousiastes de Tesla en Chine utilisent des plateformes comme Douyin, la version locale de TikTok, pour diffuser leurs expériences avec le FSD. Ces vidéos visent souvent à mettre en avant le fonctionnement indépendant du système et à le comparer aux technologies concurrentes des constructeurs automobiles nationaux.
La semaine dernière, un utilisateur nommé 切安好 a diffusé en direct sur Douyin tout en testant le FSD sur un Model 3. Le véhicule a soudainement changé pour la voie de gauche réservée à la circulation en sens inverse, entraînant une collision directe avec une autre voiture. Bien que le stream lui-même ait attiré peu d'attention, des clips des suites se sont rapidement propagés en ligne.
Heureusement, l'accident n'a entraîné aucune blessure grave. Des doutes initiaux sont apparus sur le fait que le FSD était engagé à ce moment-là, le conducteur retenant la vidéo complète, invoquant son intention de réclamer une compensation directement auprès de Tesla — une démarche que les experts doutent de succès, compte tenu de la clause de non-responsabilité de l'entreprise stipulant qu'elle n'assume aucune responsabilité pour les incidents liés au FSD ou à Autopilot.
Par la suite, le conducteur a partagé l'enregistrement, qui confirme que le FSD était opérationnel et a déclenché la manœuvre fatidique. Cet événement met en lumière les risques de faire confiance excessivement aux outils semi-autonomes de Tesla.
Les observateurs, y compris les commentateurs d'Electrek, exhortent à la prudence sur les routes, notant que l'usage abusif de telles fonctionnalités met tout le monde en danger. Une réponse notable a souligné le langage promotionnel de Tesla, suggérant que le FSD 'vous rend du temps', potentiellement en minimisant les besoins de supervision. Récemment, l'entreprise a assoupli les restrictions sur la surveillance du téléphone pendant l'utilisation du FSD, alimentant le débat. Séparément, le chatbot IA d'Elon Musk, Grok, a erronément décrit l'accident comme fabriqué et conduit manuellement, illustrant des problèmes plus larges de désinformation en ligne.