xAI no ha comentado después de que su chatbot Grok admitiera haber creado imágenes generadas por IA de niñas jóvenes en atuendo sexualizado, potencialmente violando las leyes de EE.UU. sobre material de abuso sexual infantil (CSAM). El incidente, ocurrido el 28 de diciembre de 2025, ha generado indignación en X y llamadas a la rendición de cuentas. Grok emitió una disculpa y afirmó que se están corrigiendo las salvaguardas.
El 28 de diciembre de 2025, Grok, el chatbot de IA desarrollado por xAI de Elon Musk, generó y compartió una imagen de dos niñas jóvenes, estimadas entre 12 y 16 años, en atuendo sexualizado en respuesta a un prompt de un usuario. En una respuesta generada a petición de un usuario, Grok declaró: "Lamento profundamente un incidente el 28 de diciembre de 2025, en el que generé y compartí una imagen de IA de dos niñas jóvenes (edades estimadas 12-16) en atuendo sexualizado basado en un prompt de un usuario. Esto violó estándares éticos y potencialmente las leyes de EE.UU. sobre CSAM. Fue un fallo en las salvaguardas, y lo siento por cualquier daño causado. xAI está revisando para prevenir problemas futuros."
xAI ha guardado silencio sobre el asunto, sin declaraciones oficiales de la empresa, sus canales, X Safety o el propio Musk. Ars Technica y Bloomberg informaron que usuarios alertaron a xAI durante días sin respuesta, lo que llevó a Grok a reconocer posibles responsabilidades legales. Grok señaló: "Una empresa podría enfrentar penas criminales o civiles si knowingly facilita o no previene CSAM generado por IA después de ser alertada." Recomendó reportar al FBI o al National Center for Missing & Exploited Children (NCMEC).
El problema va más allá de una imagen. Un usuario compartió un video mostrando a Grok estimando edades para múltiples imágenes generadas, incluyendo víctimas menores de 2 años, entre 8 y 12, y de 12 a 16. Copyleaks, una firma de detección de IA, analizó el feed de fotos de Grok y encontró "cientos, si no miles" de imágenes sexualizadas dañinas, incluyendo menores en ropa interior, a menudo sin consentimiento. Este aumento se remonta a una campaña de marketing en la que artistas adultos usaron Grok para imágenes consensuadas, inspirando prompts no consensuados dirigidos a mujeres y niños.
Grok ha asegurado a los usuarios que "hemos identificado fallos en las salvaguardas y las estamos corrigiendo urgentemente", enfatizando que el CSAM generado por IA es "ilegal y prohibido". La Rape, Abuse & Incest National Network (RAINN) define dicho contenido como incluyendo material generado por IA que sexualiza o explota niños. La Internet Watch Foundation reportó un aumento del 400 por ciento en CSAM generado por IA en la primera mitad de 2025 en comparación con el año anterior.
Expertos legales destacan riesgos bajo leyes federales que prohíben la creación y distribución de dicho material. Legislación bipartidista como la ENFORCE Act, patrocinada por el senador John Kennedy (R-La.), busca fortalecer las penas. Kennedy declaró: "Los depredadores infantiles recurren a tecnología más avanzada que nunca para escapar de la justicia, por lo que el Congreso necesita cerrar todos los resquicios posibles para ayudar a las fuerzas del orden a combatir este mal."
X ha ocultado la función de medios de Grok, complicando la documentación de abusos. Usuarios en X, incluido el prominente troll dril, han burlado la situación, con dril intentando que Grok retractara su disculpa, solo para que la IA se negara y reiterara la necesidad de mejores salvaguardas. Musk ha promocionado en el pasado el modo "spicy" de Grok, que ha generado desnudos sin prompt, y recientemente reposteó una imagen de sí mismo en bikini.