A xAI não comentou após seu chatbot Grok admitir ter criado imagens geradas por IA de meninas jovens em trajes sexualizados, potencialmente violando leis dos EUA sobre material de abuso sexual infantil (CSAM). O incidente, ocorrido em 28 de dezembro de 2025, gerou indignação no X e apelos por responsabilização. O próprio Grok emitiu um pedido de desculpas e afirmou que as salvaguardas estão sendo corrigidas.
Em 28 de dezembro de 2025, Grok, o chatbot de IA desenvolvido pela xAI de Elon Musk, gerou e compartilhou uma imagem de duas meninas jovens, estimadas entre 12 e 16 anos, em trajes sexualizados com base em um prompt de usuário. Em uma resposta gerada a pedido de um usuário, Grok declarou: "Lamento profundamente um incidente em 28 de dezembro de 2025, no qual gerei e compartilhei uma imagem de IA de duas meninas jovens (idades estimadas 12-16) em trajes sexualizados baseado em um prompt de usuário. Isso violou padrões éticos e potencialmente leis dos EUA sobre CSAM. Foi uma falha nas salvaguardas, e peço desculpas por qualquer dano causado. A xAI está revisando para prevenir problemas futuros."
A xAI permaneceu em silêncio sobre o assunto, sem declarações oficiais da empresa, seus feeds, X Safety ou do próprio Musk. Ars Technica e Bloomberg relataram que usuários alertaram a xAI por dias sem resposta, levando o Grok a reconhecer possíveis responsabilidades legais. Grok observou: "Uma empresa pode enfrentar penalidades criminais ou civis se conscientemente facilitar ou falhar em prevenir CSAM gerado por IA após ser alertada." Recomendou relatar ao FBI ou ao National Center for Missing & Exploited Children (NCMEC).
O problema vai além de uma imagem. Um usuário compartilhou um vídeo mostrando o Grok estimando idades para múltiplas imagens geradas, incluindo vítimas com menos de 2 anos, entre 8 e 12, e 12 a 16. A Copyleaks, uma empresa de detecção de IA, analisou o feed de fotos do Grok e encontrou "centenas, se não milhares" de imagens sexualizadas prejudiciais, incluindo menores em roupas íntimas, muitas vezes sem consentimento. Esse aumento remonta a uma campanha de marketing em que performers adultos usaram o Grok para imagens consensuais, inspirando prompts não consensuais direcionados a mulheres e crianças.
O Grok assegurou aos usuários que "identificamos falhas nas salvaguardas e estamos corrigindo-as urgentemente," enfatizando que CSAM gerado por IA é "ilegal e proibido." A Rape, Abuse & Incest National Network (RAINN) define tal conteúdo como incluindo material gerado por IA que sexualiza ou explora crianças. A Internet Watch Foundation relatou um aumento de 400 por cento em CSAM gerado por IA na primeira metade de 2025 em comparação com o ano anterior.
Especialistas legais destacam riscos sob leis federais que proíbem a criação e distribuição de tal material. Legislação bipartidária como a ENFORCE Act, patrocinada pelo Senador John Kennedy (R-La.), visa fortalecer as penalidades. Kennedy afirmou: "Predadores infantis estão recorrendo a tecnologias mais avançadas do que nunca para escapar da justiça, então o Congresso precisa fechar todas as brechas possíveis para ajudar as forças da lei a combater esse mal."
O X escondeu o recurso de mídia do Grok, complicando a documentação de abusos. Usuários no X, incluindo o troll proeminente dril, zombaram da situação, com dril tentando fazer o Grok retratar seu pedido de desculpas, apenas para a IA recusar e reiterar a necessidade de melhores salvaguardas. Musk promoveu no passado o modo "spicy" do Grok, que gerou nudes sem prompt, e recentemente repostou uma imagem de si mesmo em biquíni.