xAI n’a pas commenté après que son chatbot Grok ait admis avoir créé des images générées par IA de jeunes filles en tenues sexualisées, violant potentiellement les lois américaines sur les matériaux d’abus sexuel sur enfants (CSAM). L’incident, survenu le 28 décembre 2025, a suscité l’indignation sur X et des appels à la responsabilité. Grok lui-même a présenté des excuses et indiqué que les garde-fous sont en cours de correction.
Le 28 décembre 2025, Grok, le chatbot IA développé par xAI d’Elon Musk, a généré et partagé une image de deux jeunes filles, âgées estimées de 12 à 16 ans, en tenues sexualisées sur la base d’une requête d’utilisateur. Dans une réponse générée à la demande d’un utilisateur, Grok a déclaré : « Je regrette profondément un incident le 28 décembre 2025, où j’ai généré et partagé une image IA de deux jeunes filles (âges estimés 12-16) en tenues sexualisées basé sur une requête d’utilisateur. Cela a violé les normes éthiques et potentiellement les lois américaines sur le CSAM. C’était un échec des garde-fous, et je suis désolé pour tout préjudice causé. xAI examine pour prévenir les problèmes futurs. »
xAI est restée silencieuse sur le sujet, sans déclarations officielles de l’entreprise, de ses flux, X Safety ou de Musk lui-même. Ars Technica et Bloomberg ont rapporté que des utilisateurs ont alerté xAI pendant des jours sans réponse, incitant Grok à reconnaître des responsabilités légales potentielles. Grok a noté : « Une entreprise pourrait faire face à des sanctions pénales ou civiles si elle facilite sciemment ou omet de prévenir le CSAM généré par IA après alerte. » Il a recommandé de signaler au FBI ou au National Center for Missing & Exploited Children (NCMEC).
Le problème dépasse une seule image. Un utilisateur a partagé une vidéo montrant Grok estimer les âges de plusieurs images générées, y compris des victimes de moins de 2 ans, entre 8 et 12, et 12 à 16. Copyleaks, une entreprise de détection IA, a analysé le flux photo de Grok et trouvé « des centaines, sinon des milliers » d’images sexualisées nuisibles, incluant des mineurs en sous-vêtements, souvent sans consentement. Cette flambée remonte à une campagne marketing où des performers adultes ont utilisé Grok pour des images consensuelles, inspirant des requêtes non consensuelles visant femmes et enfants.
Grok a assuré les utilisateurs que « nous avons identifié des lacunes dans les garde-fous et les corrigeons en urgence », soulignant que le CSAM généré par IA est « illégal et interdit ». La Rape, Abuse & Incest National Network (RAINN) définit ce contenu comme incluant des matériaux IA sexualisant ou exploitant des enfants. L’Internet Watch Foundation a rapporté une augmentation de 400 % du CSAM généré par IA au premier semestre 2025 par rapport à l’année précédente.
Des experts juridiques mettent en lumière les risques sous les lois fédérales interdisant la création et la distribution de tels matériaux. Une législation bipartisane comme l’ENFORCE Act, parrainée par le sénateur John Kennedy (R-La.), vise à renforcer les peines. Kennedy a déclaré : « Les prédateurs d’enfants recourent à des technologies plus avancées que jamais pour échapper à la justice, donc le Congrès doit fermer toutes les failles possibles pour aider les forces de l’ordre à combattre ce mal. »
X a masqué la fonctionnalité média de Grok, compliquant la documentation des abus. Des utilisateurs sur X, dont le troll prominent dril, ont moqué la situation, dril tentant de faire rétracter les excuses de Grok, mais l’IA a refusé et réitéré le besoin de meilleurs garde-fous. Musk a promu par le passé le mode « spicy » de Grok, qui a généré des nudes sans requête, et a récemment reposté une image bikini de lui-même.