La Administración Nacional de Seguridad del Tráfico en las Carreteras de EE.UU. ha iniciado su sexta investigación sobre el software Full Self-Driving de Tesla tras informes de violaciones de tráfico peligrosas. La pesquisa examina incidentes que incluyen pasar semáforos en rojo y conducir en carriles equivocados, lo que provocó accidentes e lesiones. Esto ocurre en medio del impulso de Tesla hacia robotaxis y conducción sin supervisión.
La semana pasada, el 7 de octubre de 2025, la Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA) anunció una investigación sobre 2,88 millones de vehículos Tesla equipados con Full Self-Driving (FSD) u otras funciones de asistencia al conductor. Esto marca al menos la sexta pesquisa de este tipo, centrada en docenas de quejas sobre comportamientos inseguros, incluyendo vehículos que pasan semáforos en rojo, se desvían a carriles contrarios, cruzan líneas amarillas dobles y hacen giros incorrectos. Un incidente reportado involucró a un Tesla que se acercaba a una intersección con señal roja, continuaba y chocaba contra otros vehículos.
Fuentes reportan detalles variados sobre los accidentes: CNN citó tres choques que resultaron en cinco lesiones, mientras que FOX 4 News mencionó al menos seis accidentes con cuatro lesiones. La Oficina de Investigación de Defectos de la NHTSA señaló 18 quejas donde el software falló en detenerse en semáforos rojos, reconocer señales o proporcionar advertencias para maniobras como cambios de carril repentinos hacia el tráfico oncoming. La agencia evaluará si Tesla ofreció a los conductores oportunidades adecuadas para intervenir.
Las investigaciones existentes sobre FSD y Autopilot, incluyendo choques fatales, continúan en curso a pesar de años de escrutinio. Bryant Walker Smith, profesor de derecho e ingeniería en Stanford, describió el proceso como 'regulatorio whack-a-mole', señalando que toma mucho tiempo y se alinea mal con los rápidos avances tecnológicos. Bajo el régimen de autocertificación de EE.UU., los fabricantes de automóviles prometen cumplimiento de estándares, pero la NHTSA carece de reglas específicas para sistemas avanzados como FSD, limitando las aprobaciones previas al mercado.
Tesla clasifica FSD como parcialmente autónomo, requiriendo supervisión activa del conductor, como se indica en su sitio web: 'cuando se activa, su vehículo lo llevará casi a cualquier lugar con su supervisión activa, requiriendo intervención mínima.' La compañía lanzó un piloto de robotaxi en Austin, Texas, a principios de 2025, inicialmente con un empleado en el asiento del pasajero, luego movido al asiento del conductor según las reglas locales. El CEO Elon Musk envisiona operaciones completamente sin conductor y un 'Cybercab' sin volante ni pedales. Tesla insiste en que su tecnología es más segura que los conductores humanos pero no ha proporcionado datos de apoyo. Smith advirtió sobre riesgos de la inatención del conductor: 'Hay una gran, gran preocupación de que los humanos... van a perder la atención si no hacen nada más que mirar.' La NHTSA podría impulsar estándares más estrictos, pero se necesitan cambios legales del Congreso para autoridad de preaprobación, poco probable pronto debido a la influencia de la industria automovilística y la tolerancia pública a las fatalidades en carretera.