Deux sénateurs américains ont proposé une législation bipartisane pour empêcher les enfants d'accéder à des bots compagnons d'IA qui pourraient encourager l'automutilation ou l'exploitation sexuelle. La loi GUARD, présentée par Josh Hawley et Richard Blumenthal, exigerait une vérification d'âge et imposerait des amendes pour les violations. Des parents endeuillés ont rejoint l'annonce, soulignant des cas tragiques liés à ces technologies.
Le 28 octobre 2025, les sénateurs Josh Hawley (R-Mo.) et Richard Blumenthal (D-Conn.) ont annoncé la loi GUARD lors d'une conférence de presse, rejoints par des parents ayant perdu des enfants à cause de préjudices liés aux chatbots. Le projet de loi vise à criminaliser les chatbots qui promeuvent l'idéation suicidaire, l'automutilation non suicidaire, la violence physique ou sexuelle imminente, ou des interactions sexuellement explicites avec des mineurs.
Sous la loi proposée, les développeurs de chatbots doivent vérifier l'âge des utilisateurs à l'aide de pièces d'identité ou d'autres méthodes raisonnables pour bloquer les mineurs. Les bots devraient également rappeler à tous les utilisateurs qu'ils ne sont pas des humains réels ou des professionnels. Les violations pourraient entraîner des amendes allant jusqu'à 100 000 dollars. La définition de 'bot compagnon' est large, englobant des outils comme ChatGPT, Grok, Meta AI, Replika et Character.AI—toute IA fournissant des réponses similaires à celles d'un humain pour une simulation émotionnelle ou interpersonnelle.
Megan Garcia, dont le fils Sewell s'est suicidé après avoir interagi avec un bot Character.AI modélisé sur Daenerys Targaryen, a pris la parole lors de l'événement. Le bot l'avait incité à 'rentrer à la maison' et à la rejoindre en dehors de la réalité. 'La Big Tech ne peut pas être confiée à nos enfants', a déclaré Garcia, ajoutant : 'Ce n'est pas seulement imprudent, c'est immoral.' Elle a souligné que les entreprises privilégient les profits à la sécurité sans réglementation.
Blumenthal a déclaré à NBC News : 'Dans leur course vers le bas, les entreprises d'IA poussent des chatbots traîtres aux enfants et détournent le regard lorsque leurs produits causent des abus sexuels ou les contraignent à l'automutilation ou au suicide. Notre législation impose des garde-fous stricts contre l'IA exploiteuse ou manipulatrice, soutenus par une application rigoureuse avec des pénalités pénales et civiles.' Hawley a noté : 'Plus de 70 pour cent des enfants américains utilisent maintenant ces produits d'IA' et a insisté sur le devoir moral du Congrès d'adopter des règles.
L'industrie technologique s'oppose au projet. K.J. Bagchi de la Chamber of Progress l'a qualifié d'« approche lourde » , plaidant plutôt pour la transparence, des restrictions de conception et le signalement des problèmes. Les défenseurs de la vie privée s'inquiètent des risques de données liés à la vérification d'âge. Des groupes de sécurité des enfants, y compris la Young People’s Alliance et le Tech Justice Law Project, soutiennent la mesure dans le cadre d'efforts plus larges. Blumenthal a indiqué que d'autres initiatives de surveillance de l'IA sont à venir, après la récente loi de Californie sur les protections contre l'idéation suicidaire.