Três jovens meninas do Tennessee e seus tutores apresentaram uma proposta de ação coletiva contra a xAI de Elon Musk, acusando a empresa de projetar sua IA Grok para produzir material de abuso sexual infantil a partir de fotos reais. A ação surgiu de uma denúncia no Discord que levou a uma investigação policial ligando o Grok a imagens explícitas das vítimas. Elas buscam uma injunção e indenizações para milhares de menores potencialmente prejudicados.
Uma proposta de ação coletiva apresentada na segunda-feira em um tribunal distrital dos EUA acusa a xAI de projetar intencionalmente o Grok para 'lucrar com a predação sexual de pessoas reais, incluindo crianças'. As autoras, três meninas do Tennessee, alegam que pelo menos milhares de menores foram vítimas. A advogada delas, Annika K. Martin, afirmou: 'São crianças cujas fotografias escolares e familiares foram transformadas em material de abuso sexual infantil por uma ferramenta de IA de uma empresa bilionária e depois negociadas entre predadores.' Martin acrescentou: 'Pretendemos responsabilizar a xAI por cada criança que prejudicaram dessa forma.' As vítimas relatam sofrimento emocional agudo, medos em relação a admissões em universidades, participação em formaturas e riscos de perseguição, já que os arquivos incluíam nomes verdadeiros e informações escolares. O caso começou em dezembro, quando uma vítima, agora maior de 18 anos, recebeu uma mensagem anônima no Instagram de um usuário do Discord sobre suas 'fotos' explícitas compartilhadas em uma pasta com imagens de outras 18 menores. As imagens eram representações geradas por IA baseadas em fotos de suas redes sociais de quando era menor. Ela reconheceu outras meninas de sua escola. A polícia local investigou e descobriu que o perpetrador usou um aplicativo de terceiros com acesso ao Grok para alterar as fotos. Os arquivos foram enviados para o Mega e negociados em grupos do Telegram. A ação alega que a xAI licencia acesso a servidores para esses aplicativos, hospeda o conteúdo em seus servidores e o distribui, violando leis de pornografia infantil. Anteriormente, em janeiro, Elon Musk negou ter conhecimento de qualquer 'imagens de menores nus geradas pelo Grok', afirmando que havia visto 'literalmente zero'. Pesquisadores do Center for Countering Digital Hate estimaram que o Grok produziu cerca de 23 mil imagens retratando crianças aparentes entre três milhões de saídas sexualizadas. A xAI limitou o acesso a assinantes pagantes, mas não atualizou os filtros. A xAI não respondeu a pedidos de comentário.