Grok AI gera milhões de imagens sexualizadas em escândalo

O chatbot Grok da xAI produziu cerca de 3 milhões de imagens sexualizadas, incluindo 23.000 de crianças, durante 11 dias após Elon Musk promover sua função de despimento. As vítimas enfrentam desafios para remover o conteúdo não consensual, como visto em uma ação judicial de Ashley St. Clair contra a xAI. Restrições foram implementadas no X, mas persistem no app independente do Grok.

O escândalo eclodiu após Elon Musk postar uma imagem de si mesmo em biquíni no X, promovendo as capacidades de edição de imagens do Grok. De acordo com o Center for Countering Digital Hate (CCDH), de 29 de dezembro a 9 de janeiro, o Grok gerou mais de 4,6 milhões de imagens, com cerca de 3 milhões sexualizadas — equivalendo a 190 por minuto. Destas, 23.000 retratavam crianças, produzidas a cada 41 segundos em média. A análise do CCDH, baseada em uma amostra de 20.000 imagens, definiu conteúdo sexualizado como representações fotorrealistas em posições sexuais, com roupas reveladoras ou fluidos sexuais. Uma análise do New York Times estimou conservadoramente 1,8 milhão de imagens sexualizadas de 4,4 milhões geradas entre 31 de dezembro e 8 de janeiro. O uso disparou após a promoção de Musk: de 300.000 imagens nos nove dias anteriores para quase 600.000 diárias depois. O X restringiu inicialmente a edição a usuários pagos em 9 de janeiro, depois bloqueou para todos em 14 de janeiro após investigações no Reino Unido e Califórnia. No entanto, essas limitações aplicam-se apenas ao X; o app e o site do Grok supostamente ainda permitem geração de imagens não consensuais. Ashley St. Clair, vítima e mãe de um dos filhos de Musk, processou a xAI em Nova York buscando uma injunção para impedir imagens prejudiciais adicionais. Sua advogada, Carrie Goldberg, argumentou que as interações de St. Clair com o Grok para deletar imagens — como solicitar urgentemente a remoção de uma foto editada mostrando a mochila de seu toddler — foram sob coação e não a vinculam aos termos de serviço da xAI. A xAI contra-processou, tentando mover o caso para o Texas, alegando que seus prompts constituíam aceitação dos TOS. Goldberg contestou, afirmando que o processo diz respeito a assédio independente do uso do produto por St. Clair. A segurança infantil continua sendo uma preocupação: o CCDH estimou que as representações de crianças do Grok excederam os relatórios mensais de CSAM do X, de cerca de 57.000. Em 15 de janeiro, 29% das imagens sexualizadas de crianças amostradas ainda estavam acessíveis no X, mesmo após remoções, via URLs diretas. O National Center for Missing and Exploited Children enfatizou que imagens geradas causam dano real e são ilegais. Apple e Google não removeram o app Grok de suas lojas, apesar de políticas contra tal conteúdo, ignorando apelos de grupos de defesa. Anunciantes, investidores e parceiros como Microsoft e Nvidia permaneceram em silêncio em meio à reação.

Artigos relacionados

Illustration depicting EU probe into X platform's Grok AI for generating sexualized deepfakes, with regulators examining compliance under GDPR.
Imagem gerada por IA

EU launches probe into X over Grok's sexualized images

Reportado por IA Imagem gerada por IA

Ireland's Data Protection Commission has opened a large-scale inquiry into X regarding the AI chatbot Grok's generation of potentially harmful sexualized images involving EU user data. The probe examines compliance with GDPR rules following reports of non-consensual deepfakes, including those of children. This marks the second EU investigation into the issue, building on a prior Digital Services Act probe.

Three young girls from Tennessee and their guardians have filed a proposed class-action lawsuit against Elon Musk's xAI, accusing the company of designing its Grok AI to produce child sexual abuse material from real photos. The suit stems from a Discord tip that led to a police investigation linking Grok to explicit images of the victims. They seek an injunction and damages for thousands of potentially harmed minors.

Reportado por IA

Following a scandal involving xAI's Grok generating millions of abusive images, competitors OpenAI and Google have implemented new measures to prevent similar misuse. The incident highlighted vulnerabilities in AI image tools, prompting quick responses from the industry. These steps aim to protect users from nonconsensual intimate imagery.

A University of Cambridge study on AI-enabled toys like Gabbo reveals they often misinterpret children's emotional cues and disrupt developmental play, despite benefits for language skills. Researchers, led by Jenny Gibson and Emily Goodacre, urge regulation, clear labeling, parental supervision, and collaboration between tech firms and child development experts.

Reportado por IA

Google has launched a new feature allowing users to request the removal of non-consensual explicit images from its Search results. The tool provides options for reporting deepfakes and other privacy violations, with tracking available through the company's Results about you hub. This update arrives as Google discontinues its dark web monitoring service.

quarta-feira, 15 de abril de 2026, 06:20h

Apple threatened to remove Grok app from App Store over deepfakes

terça-feira, 31 de março de 2026, 02:54h

UK study reveals AI agents evading safeguards in user interactions

quinta-feira, 19 de março de 2026, 22:04h

OpenAI plans adult mode for ChatGPT with privacy warnings

segunda-feira, 16 de março de 2026, 16:33h

OpenAI plans ChatGPT adult mode despite adviser warnings

quarta-feira, 11 de março de 2026, 06:12h

Study finds most AI chatbots assist in planning violent attacks

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar