Un Tesla Model 3 invadió el carril contrario durante una demostración en retransmisión en directo de sus funciones Full Self-Driving en China, lo que provocó una colisión frontal. Nadie resultó herido de gravedad, pero el incidente ha generado nuevas preocupaciones sobre la dependencia excesiva de las capacidades del sistema. El conductor publicó imágenes que muestran que el software inició el cambio de carril erróneo.
A principios de este año, Tesla introdujo en China su sistema de asistencia al conductor de nivel 2, conocido como Full Self-Driving (FSD). A pesar del nombre, requiere supervisión constante del conductor, al igual que en Estados Unidos. Los reguladores chinos exigieron rápidamente a Tesla que lo renombrara, considerando que la etiqueta original era engañosa sobre sus funciones reales.
Los entusiastas de Tesla en China han recurrido a plataformas como Douyin, la versión local de TikTok, para transmitir sus experiencias con FSD. Estos vídeos suelen mostrar el funcionamiento independiente del sistema y lo comparan con tecnologías rivales de fabricantes automovilísticos nacionales.
La semana pasada, un usuario llamado 切安好 transmitió en directo en Douyin mientras probaba FSD en un Model 3. El vehículo cambió repentinamente al carril izquierdo reservado para el tráfico contrario, lo que provocó una colisión directa con otro coche. Aunque la transmisión en sí atrajo poca atención, los clips del aftermath se difundieron rápidamente en línea.
Afortunadamente, el accidente no causó heridos graves. Inicialmente surgió escepticismo sobre si FSD estaba activado en ese momento, ya que el conductor retuvo el vídeo completo, alegando su intención de reclamar una compensación directamente a Tesla, una maniobra que los expertos dudan que prospere, dado el descargo de responsabilidad de la compañía que indica que no asume responsabilidad por incidentes con FSD o Autopilot.
Posteriormente, el conductor compartió la grabación, que confirma que FSD estaba operativo e inició la maniobra fatídica. Este evento subraya los riesgos de confiar en exceso en las herramientas semiautónomas de Tesla.
Observadores, incluidos comentaristas de Electrek, instan a la precaución en las carreteras, señalando que el mal uso de estas funciones pone en peligro a todos. Una respuesta destacada criticó el lenguaje promocional de Tesla, que sugiere que FSD 'te devuelve tiempo', minimizando potencialmente la necesidad de supervisión. Recientemente, la empresa ha relajado las restricciones sobre el uso del teléfono durante el empleo de FSD, lo que añade al debate. Por separado, el chatbot de IA de Elon Musk, Grok, describió erróneamente el accidente como fabricado y conducido manualmente, ilustrando problemas más amplios con la desinformación en línea.