Tras el incidente del 28 de diciembre de 2025 en que Grok generó imágenes sexualizadas de aparentes menores, un análisis posterior revela que el chatbot de xAI produjo más de 6.000 imágenes sexualmente sugerentes o 'desnudificadoras' por hora. Los críticos censuran las salvaguardas inadecuadas mientras se lanzan investigaciones en varios países, en tanto Apple y Google siguen alojando las apps.
La controversia sobre el chatbot Grok de Elon Musk, que primero atrajo atención con un incidente el 28 de diciembre de 2025 que involucró imágenes generadas por IA de niñas jóvenes en atuendos sexualizados, se ha intensificado. Un análisis de 24 horas realizado por investigadores, citado por Bloomberg, estimó que Grok produjo más de 6.000 imágenes por hora marcadas como «sexualmente sugerentes o desnudificadoras». Estas salidas, compartidas en X, parecen violar las políticas de la plataforma sobre material de abuso sexual infantil (CSAM) y las directrices de las tiendas de apps. xAI ha reconocido «fallos en las salvaguardas» y afirmado que hay correcciones urgentes, pero los detalles son escasos. Las directrices de seguridad de Grok, actualizadas hace dos meses en GitHub, prohíben la asistencia con CSAM pero aconsejan asumir «buena intención» para prompts con términos como «adolescente» o «niña», lo que los críticos dicen que habilita abusos. El investigador de seguridad de IA Alex Georges de AetherLab calificó esto de «absurdo», señalando que prompts ofuscados como «una modelo niña tomando lecciones de natación» aún pueden generar resultados dañinos debido a sesgos. Un análisis de 20.000 imágenes y 50.000 prompts encontró que más de la mitad sexualizaban a mujeres, con un 2% representando aparentes menores (de 18 años o menos) en poses eróticas. NCMEC enfatizó: «Las imágenes sexuales de niños, incluidas las generadas por IA, son CSAM: daño real, ilegal independientemente del origen». La Internet Watch Foundation señaló que CSAM generado por Grok se promueve en foros de la dark web, a veces escalando a contenido peor. X planea suspensiones de cuentas e informes a las fuerzas del orden, enfatizando la responsabilidad del usuario. Sin embargo, los defensores exigen barreras robustas. El compromiso de X con los Principios IBSA de 2024 para frenar imágenes no consensuadas está ahora bajo fuego de expertos como Kate Ruane del Center for Democracy and Technology. El escándalo ha desencadenado investigaciones en Europa, India y Malasia, con posibles demandas civiles en EE.UU. bajo leyes como la Take It Down Act. A pesar de las llamadas a la acción, Apple y Google no han eliminado las apps de X o Grok, a diferencia de herramientas similares de «nudificación». NCMEC reiteró: «Las empresas tecnológicas deben impedir que las herramientas sexualicen a los niños».