A Administração Nacional de Segurança no Trânsito Rodoviário dos EUA iniciou sua sexta investigação sobre o software Full Self-Driving da Tesla após relatos de violações de trânsito perigosas. A investigação examina incidentes incluindo passar por semáforos vermelhos e dirigir em faixas erradas, que levaram a colisões e ferimentos. Isso ocorre em meio ao impulso da Tesla em direção a robotáxis e direção sem supervisão.
Na semana passada, em 7 de outubro de 2025, a Administração Nacional de Segurança no Trânsito Rodoviário (NHTSA) anunciou uma investigação sobre 2,88 milhões de veículos Tesla equipados com Full Self-Driving (FSD) ou outros recursos de assistência ao motorista. Isso marca pelo menos a sexta investigação desse tipo, focando em dezenas de reclamações sobre comportamentos inseguros, incluindo veículos que passam por semáforos vermelhos, desviam para faixas opostas, cruzam linhas amarelas duplas e fazem curvas incorretas. Um incidente relatado envolveu um Tesla se aproximando de uma interseção com sinal vermelho, continuando e colidindo com outros veículos.
Fontes relatam detalhes variados sobre colisões: a CNN citou três acidentes resultando em cinco ferimentos, enquanto a FOX 4 News mencionou pelo menos seis colisões com quatro ferimentos. O Escritório de Investigação de Defeitos da NHTSA observou 18 reclamações em que o software falhou em parar em semáforos vermelhos, reconhecer sinais ou fornecer alertas para manobras como mudanças de faixa repentinas para o tráfego oncoming. A agência avaliará se a Tesla ofereceu aos motoristas oportunidades adequadas para intervir.
Investigações existentes sobre FSD e Autopilot, incluindo colisões fatais, permanecem em andamento apesar de anos de escrutínio. Bryant Walker Smith, professor de direito e engenharia na Stanford, descreveu o processo como 'regulatório whack-a-mole', notando que leva muito tempo e se alinha mal com avanços tecnológicos rápidos. Sob o regime de auto-certificação dos EUA, montadoras prometem conformidade com padrões, mas a NHTSA carece de regras específicas para sistemas avançados como FSD, limitando aprovações pré-mercado.
A Tesla classifica o FSD como parcialmente autônomo, exigindo supervisão ativa do motorista, como afirmado em seu site: 'quando ativado, seu veículo o levará quase a qualquer lugar com sua supervisão ativa, exigindo intervenção mínima.' A empresa lançou um piloto de robotáxi em Austin, Texas, no início de 2025, inicialmente com um funcionário no banco do passageiro, depois movido para o banco do motorista conforme regras locais. O CEO Elon Musk envisiona operações totalmente sem motorista e um 'Cybercab' sem volante ou pedais. A Tesla insiste que sua tecnologia é mais segura que motoristas humanos, mas não forneceu dados de suporte. Smith alertou sobre riscos de desatenção do motorista: 'Há uma grande preocupação de que humanos... percam a atenção se não fizerem nada além de assistir.' A NHTSA poderia pressionar por padrões mais rigorosos, mas mudanças legais do Congresso são necessárias para autoridade de pré-aprovação, improvável em breve devido à influência da indústria automotiva e tolerância pública a fatalidades em estradas.