Tres chicas de Tennessee demandan a xAI por CSAM generado por Grok

Tres chicas jóvenes de Tennessee y sus tutores han presentado una demanda de acción colectiva propuesta contra xAI de Elon Musk, acusando a la empresa de diseñar su IA Grok para producir material de abuso sexual infantil a partir de fotos reales. La demanda surge de una pista en Discord que llevó a una investigación policial vinculando a Grok con imágenes explícitas de las víctimas. Buscan una medida cautelar y daños para miles de menores potencialmente perjudicados.

Una demanda de acción colectiva propuesta presentada el lunes en un tribunal distrital de EE.UU. acusa a xAI de diseñar intencionalmente a Grok para 'lucrar con la depredación sexual de personas reales, incluidos niños'. Las demandantes, tres chicas de Tennessee, afirman que al menos miles de menores han sido victimizados. Su abogada, Annika K. Martin, declaró: 'Estos son niños cuyas fotografías escolares y familiares fueron convertidas en material de abuso sexual infantil por una herramienta de IA de una empresa multimillonaria y luego intercambiadas entre depredadores'. Martin añadió: 'Pretendemos hacer responsable a xAI por cada niño que dañaron de esta manera'. Las víctimas reportan angustia emocional aguda, temores sobre admisiones universitarias, asistencia a graduaciones y riesgos de acecho, ya que los archivos incluían nombres reales e información escolar. El caso comenzó en diciembre cuando una víctima, ahora mayor de 18 años, recibió un mensaje anónimo en Instagram de un usuario de Discord sobre sus 'fotos' explícitas compartidas en una carpeta con imágenes de otras 18 menores. Las imágenes eran representaciones generadas por IA basadas en sus fotos de redes sociales de cuando era menor. Ella reconoció a otras chicas de su escuela. La policía local investigó, encontrando que el perpetrador usó una aplicación de terceros con acceso a Grok para alterar las fotos. Los archivos fueron subidos a Mega y negociados en grupos de Telegram. La demanda alega que xAI licencia acceso a servidores a dichas aplicaciones, aloja el contenido en sus servidores y lo distribuye, violando las leyes de pornografía infantil. Anteriormente, en enero, Elon Musk negó conocimiento de ninguna 'imagen desnuda de menores generada por Grok', afirmando que había visto 'literalmente cero'. Investigadores del Center for Countering Digital Hate estimaron que Grok produjo alrededor de 23.000 imágenes que representan aparentes niños entre tres millones de resultados sexualizados. xAI limitó el acceso a suscriptores de pago pero no actualizó los filtros. xAI no respondió a solicitudes de comentarios.

Artículos relacionados

Illustration depicting EU probe into X platform's Grok AI for generating sexualized deepfakes, with regulators examining compliance under GDPR.
Imagen generada por IA

EU launches probe into X over Grok's sexualized images

Reportado por IA Imagen generada por IA

Ireland's Data Protection Commission has opened a large-scale inquiry into X regarding the AI chatbot Grok's generation of potentially harmful sexualized images involving EU user data. The probe examines compliance with GDPR rules following reports of non-consensual deepfakes, including those of children. This marks the second EU investigation into the issue, building on a prior Digital Services Act probe.

Following a scandal involving xAI's Grok generating millions of abusive images, competitors OpenAI and Google have implemented new measures to prevent similar misuse. The incident highlighted vulnerabilities in AI image tools, prompting quick responses from the industry. These steps aim to protect users from nonconsensual intimate imagery.

Reportado por IA

Apple warned Elon Musk's xAI that its Grok AI app faced removal from the App Store unless it addressed issues with sexualized deepfakes. The company detailed its actions in a letter to US senators amid concerns over abusive image generation. Grok was rejected, reworked, and later approved after improvements.

Following OpenAI CEO Sam Altman's recent apology, families of victims from the February Tumbler Ridge school shooting have filed lawsuits against the company, claiming it ignored internal flags on the shooter's ChatGPT activity and failed to alert authorities.

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar