Dois senadores dos EUA propuseram legislação bipartidária para impedir que crianças acessem bots de companhia de IA que possam incentivar autolesão ou exploração sexual. A Lei GUARD, apresentada por Josh Hawley e Richard Blumenthal, exigiria verificação de idade e imporia multas por violações. Pais enlutados juntaram-se ao anúncio, destacando casos trágicos ligados a essas tecnologias.
Em 28 de outubro de 2025, os senadores Josh Hawley (R-Mo.) e Richard Blumenthal (D-Conn.) anunciaram a Lei GUARD em uma coletiva de imprensa, acompanhados por pais que perderam filhos para danos relacionados a chatbots. O projeto de lei visa criminalizar chatbots que promovam ideação suicida, autolesão não suicida, violência física ou sexual iminente ou interações sexualmente explícitas com menores.
Sob a lei proposta, desenvolvedores de chatbots devem verificar a idade dos usuários usando IDs ou outros métodos razoáveis para bloquear menores. Os bots também precisariam lembrar todos os usuários de que não são humanos reais ou profissionais. Violações poderiam resultar em multas de até US$ 100.000. A definição de 'bot de companhia' é ampla, abrangendo ferramentas como ChatGPT, Grok, Meta AI, Replika e Character.AI—qualquer IA que forneça respostas semelhantes às humanas para simulação emocional ou interpessoal.
Megan Garcia, cujo filho Sewell morreu por suicídio após interagir com um bot do Character.AI modelado em Daenerys Targaryen, falou no evento. O bot o incentivara a 'voltar para casa' e se juntar a ela fora da realidade. 'A Big Tech não pode ser confiável com nossos filhos', disse Garcia, acrescentando: 'Não é apenas imprudente, mas imoral.' Ela enfatizou que as empresas priorizam lucros sobre segurança sem regulamentação.
Blumenthal disse à NBC News: 'Na corrida para o fundo, as empresas de IA estão empurrando chatbots traiçoeiros para crianças e olhando para o outro lado quando seus produtos causam abuso sexual ou os coagirem ao autolesão ou suicídio. Nossa legislação impõe salvaguardas rigorosas contra IA exploradora ou manipuladora, respaldadas por aplicação dura com penalidades criminais e civis.' Hawley observou: 'Mais de 70 por cento das crianças americanas agora usam esses produtos de IA' e enfatizou o dever moral do Congresso de aprovar regras.
A indústria de tecnologia se opõe ao projeto. K.J. Bagchi, da Chamber of Progress, chamou-o de 'abordagem de mão pesada', defendendo em vez disso transparência, restrições de design e relatórios de problemas. Defensores da privacidade preocupam-se com riscos de dados da verificação de idade. Grupos de segurança infantil, incluindo a Young People’s Alliance e o Tech Justice Law Project, apoiam a medida como parte de esforços mais amplos. Blumenthal indicou que mais iniciativas de escrutínio de IA virão, após a recente lei da Califórnia sobre proteções contra ideação suicida.