A Tesla car speeding on a highway, illustrating NHTSA's probe into the 'Mad Max' mode for exceeding speed limits.
A Tesla car speeding on a highway, illustrating NHTSA's probe into the 'Mad Max' mode for exceeding speed limits.
Imagem gerada por IA

Regulador dos EUA investiga modo de condução 'Mad Max' da Tesla

Imagem gerada por IA

A Administração Nacional de Segurança no Trânsito Rodoviário está solicitando informações à Tesla sobre o novo modo 'Mad Max' no sistema Full Self-Driving, que permite que os veículos excedam os limites de velocidade. Esta investigação ocorre no âmbito de uma apuração mais ampla sobre violações de trânsito envolvendo a tecnologia. Motoristas relatam comportamentos agressivos, como altas velocidades e paradas rolantes.

Em 24 de outubro de 2025, a Administração Nacional de Segurança no Trânsito Rodoviário (NHTSA) anunciou que está contatando a Tesla para coletar detalhes sobre o modo 'Mad Max', uma nova configuração na versão 14.1.2 do software Full Self-Driving (FSD) da empresa. Esse modo, reintroduzido de um teste beta do Autopilot de 2018, permite velocidades mais altas e mudanças de faixa mais frequentes em comparação com outros perfis como 'Hurry', 'Standard', 'Chill' e o novo 'Sloth'. Usuários de redes sociais compartilharam vídeos mostrando Teslas atingindo 85 mph em rodovias com limites de 65 mph, 75 mph em zonas de 50 mph e 65 mph em áreas de 35 mph, frequentemente ignorando as exibições de limites de velocidade.

A NHTSA enfatizou que 'o humano atrás do volante é totalmente responsável pela condução do veículo e pelo cumprimento de todas as leis de segurança no trânsito'. A agência está examinando se o modo incentiva violações como exceder limites de velocidade ou manobras abruptas. Isso segue uma investigação anterior de outubro de 2025 em 2,9 milhões de veículos Tesla equipados com FSD, baseada em 58 relatos de problemas, incluindo 14 acidentes e 23 ferimentos. Preocupações específicas incluem seis incidentes em que veículos com FSD ativado passaram por semáforos vermelhos, levando a colisões.

A Tesla não comentou diretamente, mas republicou uma descrição em redes sociais: 'O modo Mad Max é INSANO. Ele dirige seu carro como um carro esportivo. Se você está atrasado, este é o modo para você.' A empresa comercializa o FSD como exigindo supervisão ativa e intervenção mínima, classificando-o como automação de Nível 2. Críticos como o empreendedor de software Dan O’Dowd argumentam que ele coloca outros em perigo, afirmando: 'Em vez de melhorar a segurança nas estradas, a atualização de software mais recente da Tesla está colocando mais pessoas em risco.' A Tesla enfrenta escrutínio contínuo, incluindo um recall de 2022 de mais de 50.000 veículos por um recurso de 'parada rolante' e uma investigação do Departamento de Justiça sobre alegações enganosas sobre capacidades de condução autônoma.

Em seu relatório do terceiro trimestre de 2025, a Tesla observou um acidente por 6,36 milhões de milhas com Autopilot ativado, em comparação com um por 720.000 milhas para todos os veículos nos EUA.

Artigos relacionados

A Tesla Model 3 driving aggressively in Mad Max mode on a highway, illustrating the new FSD v14.1.2 update with traffic and dashboard details.
Imagem gerada por IA

Tesla lança FSD v14.1.2 com modo de condução Mad Max

Reportado por IA Imagem gerada por IA

A Tesla começou a implementar a versão 14.1.2 do Full Self-Driving para testadores de acesso antecipado, reintroduzindo o modo agressivo Mad Max para velocidades mais altas e mudanças de faixa mais frequentes. Esta atualização expande os perfis de condução do sistema para cinco níveis, do cauteloso Sloth ao assertivo Mad Max. Embora os usuários elogiem seu desempenho no tráfego, os críticos destacam preocupações de segurança em meio a escrutínio regulatório contínuo.

A Administração Nacional de Segurança no Trânsito Rodoviário dos EUA iniciou sua sexta investigação sobre o software Full Self-Driving da Tesla após relatos de violações de trânsito perigosas. A investigação examina incidentes incluindo passar por semáforos vermelhos e dirigir em faixas erradas, que levaram a colisões e ferimentos. Isso ocorre em meio ao impulso da Tesla em direção a robotáxis e direção sem supervisão.

Reportado por IA

A Administração Nacional de Segurança no Trânsito Rodoviário dos EUA abriu uma investigação sobre o sistema Full Self-Driving da Tesla após receber dezenas de reclamações sobre violações de trânsito. A investigação abrange 2,88 milhões de veículos e segue relatos de 14 acidentes e 23 ferimentos ligados ao recurso. Esta é a terceira investigação desse tipo sobre a Tesla este ano.

Um dono de Cybertruck no Novo México diz que o sistema Full Self-Driving da Tesla desviou seu veículo de uma colisão frontal com uma picape que vinha no sentido oposto. Clifford Lee dirigia a 75 mph na Highway 54 quando o incidente ocorreu. Ele escapou ileso após o sistema intervir no último momento.

Reportado por IA

A Tesla surpreendeu os membros de acesso antecipado com o Full Self-Driving v14.2.1.25 junto com a Atualização de Férias. A nova versão corrige deficiências chave da v14.2.1, particularmente em perfis de velocidade, mudanças de faixa e reconhecimento de limites de velocidade. Testes mostram melhorias significativas no desempenho em autoestrada.

Um Tesla Model 3 desviou para o tráfego oncoming durante uma demonstração em livestream das suas funcionalidades Full Self-Driving na China, causando uma colisão frontal. Ninguém ficou gravemente ferido, mas o incidente levantou novas preocupações sobre a dependência excessiva das capacidades do sistema. O condutor divulgou imagens mostrando que o software iniciou a mudança de faixa errada.

Reportado por IA

Um condutor testou um Tesla Cybertruck Full Self-Driving, envolvendo-se numa corrida contra um Corvette de motor central e fingindo dormir ao volante. A experiência destacou aspetos positivos e negativos da tecnologia. As autoridades pararam o veículo devido à aparente falta de alerta do condutor.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar