Full Self-Driving de Tesla choca en retransmisión en directo china

Un Tesla Model 3 invadió el carril contrario durante una demostración en retransmisión en directo de sus funciones Full Self-Driving en China, lo que provocó una colisión frontal. Nadie resultó herido de gravedad, pero el incidente ha generado nuevas preocupaciones sobre la dependencia excesiva de las capacidades del sistema. El conductor publicó imágenes que muestran que el software inició el cambio de carril erróneo.

A principios de este año, Tesla introdujo en China su sistema de asistencia al conductor de nivel 2, conocido como Full Self-Driving (FSD). A pesar del nombre, requiere supervisión constante del conductor, al igual que en Estados Unidos. Los reguladores chinos exigieron rápidamente a Tesla que lo renombrara, considerando que la etiqueta original era engañosa sobre sus funciones reales.

Los entusiastas de Tesla en China han recurrido a plataformas como Douyin, la versión local de TikTok, para transmitir sus experiencias con FSD. Estos vídeos suelen mostrar el funcionamiento independiente del sistema y lo comparan con tecnologías rivales de fabricantes automovilísticos nacionales.

La semana pasada, un usuario llamado 切安好 transmitió en directo en Douyin mientras probaba FSD en un Model 3. El vehículo cambió repentinamente al carril izquierdo reservado para el tráfico contrario, lo que provocó una colisión directa con otro coche. Aunque la transmisión en sí atrajo poca atención, los clips del aftermath se difundieron rápidamente en línea.

Afortunadamente, el accidente no causó heridos graves. Inicialmente surgió escepticismo sobre si FSD estaba activado en ese momento, ya que el conductor retuvo el vídeo completo, alegando su intención de reclamar una compensación directamente a Tesla, una maniobra que los expertos dudan que prospere, dado el descargo de responsabilidad de la compañía que indica que no asume responsabilidad por incidentes con FSD o Autopilot.

Posteriormente, el conductor compartió la grabación, que confirma que FSD estaba operativo e inició la maniobra fatídica. Este evento subraya los riesgos de confiar en exceso en las herramientas semiautónomas de Tesla.

Observadores, incluidos comentaristas de Electrek, instan a la precaución en las carreteras, señalando que el mal uso de estas funciones pone en peligro a todos. Una respuesta destacada criticó el lenguaje promocional de Tesla, que sugiere que FSD 'te devuelve tiempo', minimizando potencialmente la necesidad de supervisión. Recientemente, la empresa ha relajado las restricciones sobre el uso del teléfono durante el empleo de FSD, lo que añade al debate. Por separado, el chatbot de IA de Elon Musk, Grok, describió erróneamente el accidente como fabricado y conducido manualmente, ilustrando problemas más amplios con la desinformación en línea.

Artículos relacionados

Illustration of a Tesla vehicle involved in a Full Self-Driving incident under NHTSA investigation, showing emergency response and officials on a highway.
Imagen generada por IA

La NHTSA inicia investigación sobre la función Full Self-Driving de Tesla

Reportado por IA Imagen generada por IA

La Administración Nacional de Seguridad del Tráfico en las Carreteras de EE.UU. ha abierto una investigación sobre el sistema Full Self-Driving de Tesla tras recibir docenas de quejas por violaciones de tráfico. La pesquisa abarca 2,88 millones de vehículos y sigue informes de 14 accidentes y 23 heridos relacionados con la función. Esta es la tercera indagación de este tipo sobre Tesla este año.

Un propietario de Cybertruck en Nuevo México dice que el sistema Full Self-Driving de Tesla dirigió su vehículo lejos de una colisión frontal con una camioneta que venía en sentido contrario. Clifford Lee conducía a 75 mph en la Highway 54 cuando ocurrió el incidente. Salió ileso después de que el sistema interviniera en el último momento.

Reportado por IA

Elon Musk expresó optimismo en el Foro Económico Mundial de Davos sobre la inminente aprobación del sistema Full Self-Driving de Tesla en China. Sin embargo, una fuente del gobierno chino ha contradicho esto, afirmando que las afirmaciones de una aprobación rápida son inexactas. Tesla continúa expandiendo sus funciones de asistencia al conductor en su mercado clave en medio de una fuerte competencia local.

Nicholas Brownell, propietario de un Tesla Cybertruck, describió una experiencia aterradora con el sistema Full Self-Driving del vehículo durante una ventisca con blancura total. El sistema tuvo dificultades con las cámaras cubiertas de nieve y eligió caminos secundarios sin limpiar en lugar de rutas principales despejadas, lo que obligó a múltiples intervenciones manuales. Este incidente pone de manifiesto las limitaciones de la tecnología autónoma solo basada en visión de Tesla en condiciones meteorológicas extremas.

Reportado por IA

Tesla ha discontinuado su paquete básico de Autopilot como estándar en nuevos Model 3, Model Y y Cybertruck base en EE.UU. y Canadá. Los compradores ahora solo obtienen Traffic-Aware Cruise Control, con Autosteer de centrado de carril disponible exclusivamente mediante la suscripción mensual a Full Self-Driving de $99, ampliando el cambio de la semana pasada que hace FSD solo por suscripción después del 14 de febrero. El cambio se produce en medio de presión regulatoria por afirmaciones de marketing engañosas.

Una enfermera registrada compartió un vídeo de TikTok en el que parece dormir mientras su Tesla conducía en modo de conducción autónoma completa tras un turno nocturno, atrayendo críticas generalizadas por promover un comportamiento arriesgado. Los comentaristas resaltaron los peligros y la ilegalidad de depender totalmente de la tecnología, aunque la enfermera aclaró que tenía los ojos abiertos. El incidente pone de manifiesto las preocupaciones continuas sobre las medidas de seguridad del sistema Full Self-Driving de Tesla.

Reportado por IA

David Moss, propietario de un Tesla del estado de Washington, logró un récord de 12.961 millas de conducción sin intervenciones utilizando el modo Full Self-Driving en su Model 3, recorriendo de costa a costa EE.UU. La racha, impulsada por la versión 14.2 de FSD, terminó en el rural Wisconsin debido al severo clima invernal. Moss enfatizó la seguridad, permaneciendo atento durante todo el viaje.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar