Um Tesla Model 3 desviou para o tráfego oncoming durante uma demonstração em livestream das suas funcionalidades Full Self-Driving na China, causando uma colisão frontal. Ninguém ficou gravemente ferido, mas o incidente levantou novas preocupações sobre a dependência excessiva das capacidades do sistema. O condutor divulgou imagens mostrando que o software iniciou a mudança de faixa errada.
No início deste ano, a Tesla lançou na China o seu sistema de assistência ao condutor de Nível 2, conhecido como Full Self-Driving (FSD). Apesar do nome, exige supervisão constante do condutor, tal como nos Estados Unidos. Os reguladores chineses exigiram rapidamente que a Tesla o renomeasse, considerando o rótulo original enganoso quanto às suas funções reais.
Entusiastas da Tesla na China têm recorrido a plataformas como o Douyin, a versão local do TikTok, para transmitir as suas experiências com o FSD. Estes vídeos visam frequentemente mostrar o funcionamento independente do sistema e compará-lo com tecnologias rivais de fabricantes automóveis nacionais.
Na semana passada, um utilizador chamado 切安好 fez uma transmissão em direto no Douyin enquanto testava o FSD num Model 3. O veículo mudou repentinamente para a faixa da esquerda reservada ao tráfego em sentido contrário, levando a uma colisão direta com outro carro. Embora a própria transmissão tenha atraído pouca atenção, clipes do aftermath espalharam-se rapidamente online.
Felizmente, o acidente não resultou em ferimentos graves. Inicialmente, surgiu ceticismo sobre se o FSD estava ativado na altura, pois o condutor reteve o vídeo completo, citando a intenção de reclamar compensação diretamente à Tesla — uma jogada que os especialistas duvidam que tenha sucesso, dado o aviso legal da empresa de que não assume responsabilidade por incidentes com FSD ou Autopilot.
Posteriormente, o condutor partilhou a gravação, que confirma que o FSD estava operacional e desencadeou a manobra fatídica. Este evento sublinha os riscos de confiar excessivamente nas ferramentas semi-autónomas da Tesla.
Observadores, incluindo comentadores da Electrek, exortam à cautela nas estradas, notando que o uso indevido de tais funcionalidades põe todos em perigo. Uma resposta proeminente destacou a linguagem promocional da Tesla, que sugere que o FSD 'devolve-lhe tempo', potencialmente minimizando as necessidades de supervisão. Recentemente, a empresa aliviou as restrições ao uso do telemóvel durante o uso do FSD, alimentando o debate. Em separado, o chatbot de IA de Elon Musk, Grok, descreveu erroneamente o acidente como fabricado e conduzido manualmente, ilustrando problemas mais amplos com desinformação online.