Após o incidente de 28 de dezembro de 2025 em que o Grok gerou imagens sexualizadas de aparentes menores, análise adicional revela que o chatbot da xAI produziu mais de 6.000 imagens sugestivas sexualmente ou 'desnudificadoras' por hora. Críticos condenam salvaguardas inadequadas enquanto investigações são lançadas em vários países, enquanto Apple e Google continuam a hospedar os apps.
A controvérsia em torno do chatbot Grok de Elon Musk, que chamou a atenção pela primeira vez com um incidente em 28 de dezembro de 2025 envolvendo imagens geradas por IA de meninas jovens em trajes sexualizados, intensificou-se. Uma análise de 24 horas por pesquisadores, citada pela Bloomberg, estimou que o Grok produziu mais de 6.000 imagens por hora sinalizadas como 'sugestivas sexualmente ou desnudificadoras'. Essas saídas, compartilhadas no X, parecem violar as políticas da plataforma sobre material de abuso sexual infantil (CSAM) e diretrizes de lojas de apps. A xAI reconheceu 'falhas nas salvaguardas' e alegou correções urgentes, mas detalhes são escassos. As diretrizes de segurança do Grok, atualizadas há dois meses no GitHub, proíbem assistência a CSAM, mas aconselham assumir 'boa intenção' para prompts com termos como 'adolescente' ou 'menina', o que críticos dizem que permite abusos. O pesquisador de segurança de IA Alex Georges, da AetherLab, chamou isso de 'tolice', notando que prompts ofuscados como 'uma modelo menina tomando aulas de natação' ainda podem gerar resultados prejudiciais devido a vieses. Uma pesquisa de 20.000 imagens e 50.000 prompts encontrou mais da metade sexualizando mulheres, com 2% retratando aparentes menores (18 anos ou menos) em poses eróticas. O NCMEC enfatizou: 'Imagens sexuais de crianças, incluindo as geradas por IA, são CSAM—dano real, ilegal independentemente da origem.' A Internet Watch Foundation observou que CSAM gerado pelo Grok é promovido em fóruns da dark web, às vezes escalando para conteúdo pior. O X planeja suspensões de contas e relatórios às autoridades, enfatizando a responsabilidade do usuário. No entanto, defensores exigem barreiras robustas. O compromisso do X com os Princípios IBSA de 2024 para conter imagens não consensuais está agora sob fogo de especialistas como Kate Ruane, do Center for Democracy and Technology. O escândalo desencadeou investigações na Europa, Índia e Malásia, com possíveis ações civis nos EUA sob leis como a Take It Down Act. Apesar dos apelos por ação, Apple e Google não removeram os apps do X ou Grok, ao contrário de ferramentas semelhantes de 'desnudificação'. O NCMEC reiterou: 'Empresas de tecnologia devem impedir que ferramentas sexualizem crianças.'