Realistic photo illustration of a Tesla car violating traffic rules at an intersection, under investigation by NHTSA officials, highlighting safety concerns with autonomous driving technology.
Realistic photo illustration of a Tesla car violating traffic rules at an intersection, under investigation by NHTSA officials, highlighting safety concerns with autonomous driving technology.
Imagen generada por IA

La NHTSA investiga el software Full Self-Driving de Tesla por violaciones de tráfico

Imagen generada por IA

La Administración Nacional de Seguridad del Tráfico en las Carreteras de EE.UU. ha iniciado su sexta investigación sobre el software Full Self-Driving de Tesla tras informes de violaciones de tráfico peligrosas. La pesquisa examina incidentes que incluyen pasar semáforos en rojo y conducir en carriles equivocados, lo que provocó accidentes e lesiones. Esto ocurre en medio del impulso de Tesla hacia robotaxis y conducción sin supervisión.

La semana pasada, el 7 de octubre de 2025, la Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA) anunció una investigación sobre 2,88 millones de vehículos Tesla equipados con Full Self-Driving (FSD) u otras funciones de asistencia al conductor. Esto marca al menos la sexta pesquisa de este tipo, centrada en docenas de quejas sobre comportamientos inseguros, incluyendo vehículos que pasan semáforos en rojo, se desvían a carriles contrarios, cruzan líneas amarillas dobles y hacen giros incorrectos. Un incidente reportado involucró a un Tesla que se acercaba a una intersección con señal roja, continuaba y chocaba contra otros vehículos.

Fuentes reportan detalles variados sobre los accidentes: CNN citó tres choques que resultaron en cinco lesiones, mientras que FOX 4 News mencionó al menos seis accidentes con cuatro lesiones. La Oficina de Investigación de Defectos de la NHTSA señaló 18 quejas donde el software falló en detenerse en semáforos rojos, reconocer señales o proporcionar advertencias para maniobras como cambios de carril repentinos hacia el tráfico oncoming. La agencia evaluará si Tesla ofreció a los conductores oportunidades adecuadas para intervenir.

Las investigaciones existentes sobre FSD y Autopilot, incluyendo choques fatales, continúan en curso a pesar de años de escrutinio. Bryant Walker Smith, profesor de derecho e ingeniería en Stanford, describió el proceso como 'regulatorio whack-a-mole', señalando que toma mucho tiempo y se alinea mal con los rápidos avances tecnológicos. Bajo el régimen de autocertificación de EE.UU., los fabricantes de automóviles prometen cumplimiento de estándares, pero la NHTSA carece de reglas específicas para sistemas avanzados como FSD, limitando las aprobaciones previas al mercado.

Tesla clasifica FSD como parcialmente autónomo, requiriendo supervisión activa del conductor, como se indica en su sitio web: 'cuando se activa, su vehículo lo llevará casi a cualquier lugar con su supervisión activa, requiriendo intervención mínima.' La compañía lanzó un piloto de robotaxi en Austin, Texas, a principios de 2025, inicialmente con un empleado en el asiento del pasajero, luego movido al asiento del conductor según las reglas locales. El CEO Elon Musk envisiona operaciones completamente sin conductor y un 'Cybercab' sin volante ni pedales. Tesla insiste en que su tecnología es más segura que los conductores humanos pero no ha proporcionado datos de apoyo. Smith advirtió sobre riesgos de la inatención del conductor: 'Hay una gran, gran preocupación de que los humanos... van a perder la atención si no hacen nada más que mirar.' La NHTSA podría impulsar estándares más estrictos, pero se necesitan cambios legales del Congreso para autoridad de preaprobación, poco probable pronto debido a la influencia de la industria automovilística y la tolerancia pública a las fatalidades en carretera.

Artículos relacionados

NHTSA officials inspecting a Tesla vehicle amid investigation into Full Self-Driving software safety issues.
Imagen generada por IA

La NHTSA abre investigación sobre el software de conducción autónoma completa de Tesla

Reportado por IA Imagen generada por IA

La Administración Nacional de Seguridad del Tráfico en las Carreteras ha iniciado una investigación sobre la función Full Self-Driving de Tesla tras informes de vehículos que se saltan semáforos en rojo y entran en carriles contrarios. La investigación abarca casi 2,9 millones de vehículos y se origina en docenas de incidentes, incluidos choques e lesiones. Los reguladores examinan si el sistema proporciona advertencias adecuadas a los conductores.

La Administración Nacional de Seguridad del Tráfico en las Carreteras de EE.UU. ha abierto una investigación sobre el sistema Full Self-Driving de Tesla tras recibir docenas de quejas por violaciones de tráfico. La pesquisa abarca 2,88 millones de vehículos y sigue informes de 14 accidentes y 23 heridos relacionados con la función. Esta es la tercera indagación de este tipo sobre Tesla este año.

Reportado por IA

La Administración Nacional de Seguridad del Tráfico en las Carreteras ha documentado al menos 80 casos del software Full Self-Driving de Tesla violando normas de tráfico, incluyendo pasar semáforos en rojo y cruzar a carriles equivocados. Esto representa un aumento significativo desde las aproximadamente 50 infracciones reportadas cuando comenzó la investigación en octubre. Los reguladores ahora exigen datos detallados a Tesla para el 19 de enero de 2026.

El CEO de Tesla, Elon Musk, declaró el 4 de diciembre de 2025 que la última actualización del software Full Self-Driving (FSD) permite a los conductores enviar mensajes de texto mientras el sistema está activado, dependiendo de las condiciones del tráfico circundante. Esto sigue a una promesa hecha en noviembre y ha generado preocupaciones sobre legalidad y seguridad, ya que enviar mensajes mientras se conduce sigue prohibido en casi todos los estados de EE.UU. Pruebas independientes confirmaron el funcionamiento de la función en escenarios de baja congestión sin alertas.

Reportado por IA

Tesla ha iniciado pruebas de su servicio Robotaxi en Austin, Texas, etiquetándolas como sin supervisión. Sin embargo, informes indican que aún hay supervisores humanos involucrados, siguiendo los vehículos desde coches de seguimiento. Los críticos argumentan que esta configuración introduce nuevos riesgos de seguridad al sobrecargar potencialmente a los supervisores remotos.

Nuevos datos de la NHTSA revelan que la flota de robotaxis de Tesla en Austin ha tenido accidentes nueve veces más frecuentes que los conductores humanos hasta noviembre de 2025, incluso con monitores de seguridad. Como informó anteriormente la cobertura sobre el escepticismo ante las promesas incumplidas de viajes sin supervisión tras la tormenta de enero, la empresa continúa con operaciones supervisadas, lo que subraya los persistentes obstáculos de seguridad.

Reportado por IA

Tesla comenzó pruebas de robotaxi sin supervisión en Austin, Texas, el 14 de diciembre de 2025, con vehículos Model Y vacíos navegando por carreteras públicas, según confirmó el CEO Elon Musk. Este hito sigue a pruebas supervisadas desde junio y busca desafiar a Waymo, a pesar de choques recientes y obstáculos regulatorios.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar