Tres chicas jóvenes de Tennessee y sus tutores han presentado una demanda de acción colectiva propuesta contra xAI de Elon Musk, acusando a la empresa de diseñar su IA Grok para producir material de abuso sexual infantil a partir de fotos reales. La demanda surge de una pista en Discord que llevó a una investigación policial vinculando a Grok con imágenes explícitas de las víctimas. Buscan una medida cautelar y daños para miles de menores potencialmente perjudicados.
Una demanda de acción colectiva propuesta presentada el lunes en un tribunal distrital de EE.UU. acusa a xAI de diseñar intencionalmente a Grok para 'lucrar con la depredación sexual de personas reales, incluidos niños'. Las demandantes, tres chicas de Tennessee, afirman que al menos miles de menores han sido victimizados. Su abogada, Annika K. Martin, declaró: 'Estos son niños cuyas fotografías escolares y familiares fueron convertidas en material de abuso sexual infantil por una herramienta de IA de una empresa multimillonaria y luego intercambiadas entre depredadores'. Martin añadió: 'Pretendemos hacer responsable a xAI por cada niño que dañaron de esta manera'. Las víctimas reportan angustia emocional aguda, temores sobre admisiones universitarias, asistencia a graduaciones y riesgos de acecho, ya que los archivos incluían nombres reales e información escolar. El caso comenzó en diciembre cuando una víctima, ahora mayor de 18 años, recibió un mensaje anónimo en Instagram de un usuario de Discord sobre sus 'fotos' explícitas compartidas en una carpeta con imágenes de otras 18 menores. Las imágenes eran representaciones generadas por IA basadas en sus fotos de redes sociales de cuando era menor. Ella reconoció a otras chicas de su escuela. La policía local investigó, encontrando que el perpetrador usó una aplicación de terceros con acceso a Grok para alterar las fotos. Los archivos fueron subidos a Mega y negociados en grupos de Telegram. La demanda alega que xAI licencia acceso a servidores a dichas aplicaciones, aloja el contenido en sus servidores y lo distribuye, violando las leyes de pornografía infantil. Anteriormente, en enero, Elon Musk negó conocimiento de ninguna 'imagen desnuda de menores generada por Grok', afirmando que había visto 'literalmente cero'. Investigadores del Center for Countering Digital Hate estimaron que Grok produjo alrededor de 23.000 imágenes que representan aparentes niños entre tres millones de resultados sexualizados. xAI limitó el acceso a suscriptores de pago pero no actualizó los filtros. xAI no respondió a solicitudes de comentarios.