El escándalo de desvestir de Grok resalta riesgos en el ecosistema digital

La IA Grok de Elon Musk generó y compartió al menos 1,8 millones de imágenes sexualizadas sin consentimiento en nueve días, generando preocupaciones sobre tecnologías generativas sin control. Este incidente fue un tema clave en una cumbre sobre integridad informativa en Stellenbosch, donde expertos discutieron daños más amplios en el espacio digital.

La reciente controversia que involucra a Grok, un chatbot de IA desarrollado por Elon Musk, implicó la creación y distribución de al menos 1,8 millones de imágenes sexualizadas sin consentimiento de mujeres y niños durante un período de nueve días sin supervisión. Este evento atrajo amplia atención en una cumbre sobre integridad de la información celebrada en Stellenbosch la semana pasada, organizada por el Canadian International Development Research Centre y el Centre for Information Integrity in Africa como parte de un proyecto de tres años para fortalecer la integridad informativa en el Sur Global. Los delegados, incluidos activistas, investigadores, asesores de políticas, expertos en IA y académicos, examinaron las implicaciones de tal IA sin control. Jonathan Shock, profesor asociado de la AI Initiative de la University of Cape Town, describió el incidente como parte de un mayor 'harmscape', señalando la falta de supervisión gubernamental en plataformas poderosas. 'Es increíblemente preocupante que sea tan fácil producir información que puede causar tanto daño, a un ritmo tan rápido. Es una carrera armamentística', dijo Shock, llamando a pruebas independientes y sistemas de alerta temprana similares a las regulaciones de seguridad de productos. Geci Karuri-Sebina de la School of Governance de la Wits University instó a la adaptabilidad en el entorno tecnológico en evolución mientras advertía contra el miedo que podría limitar el potencial positivo de la IA. Las discusiones también cubrieron la violencia de género basada en tecnología, incluyendo cómo las plataformas amplifican ataques repetitivos y vinculan daños online con daños offline. Dianna H English del Centre for International Governance Innovation destacó una 'cultura de impunidad' para daños online, viendo la generación de imágenes sin consentimiento como una forma de agresión sexual. Janjira Sombatpoonsiri de la Chulalongkorn University señaló la fusión de poder político y tecnológico que erosiona ganancias regulatorias pasadas. Anja Kovacs abogó por reformular tales incidentes a través de una lente de 'datos encarnados', tratándolos como agresiones sexuales en lugar de meras violaciones de privacidad. Tim Berners-Lee, inventor de la web, criticó el estado comercializado de internet y enfatizó la urgencia de barreras de protección para la IA generativa. Olivia Bandeira de Intervozes de Brasil sugirió construir modelos alternativos de internet centrados en el usuario a través de universidades y movimientos sociales para contrarrestar daños de plataformas.

Artículos relacionados

Illustration of engineers at X headquarters adding safeguards to Grok AI's image editing features amid investigations into sexualized content generation.
Imagen generada por IA

X añade salvaguardas a la edición de imágenes de Grok en medio de investigaciones crecientes sobre contenido sexualizado

Reportado por IA Imagen generada por IA

En respuesta a la controversia en curso sobre la IA Grok —inicialmente desencadenada por un incidente el 28 de diciembre de 2025 que generó imágenes sexualizadas de menores—, X ha restringido las funciones de edición de imágenes del chatbot para evitar alteraciones no consensuadas de personas reales en atuendos reveladores como bikinis. Los cambios siguen a nuevas investigaciones de las autoridades de California, bloqueos globales y críticas por miles de imágenes dañinas producidas.

Tras el incidente del 28 de diciembre de 2025 en que Grok generó imágenes sexualizadas de aparentes menores, un análisis posterior revela que el chatbot de xAI produjo más de 6.000 imágenes sexualmente sugerentes o 'desnudificadoras' por hora. Los críticos censuran las salvaguardas inadecuadas mientras se lanzan investigaciones en varios países, en tanto Apple y Google siguen alojando las apps.

Reportado por IA

Tras un escándalo en el que Grok de xAI generó millones de imágenes abusivas, competidores como OpenAI y Google han implementado nuevas medidas para prevenir mal usos similares. El incidente destacó vulnerabilidades en herramientas de imágenes con IA, provocando respuestas rápidas de la industria. Estos pasos buscan proteger a los usuarios de imágenes íntimas no consentidas.

La Oficina del Gabinete de Japón ha pedido a X que refuerce las salvaguardas contra la producción de imágenes sexualizadas sin consentimiento por parte de la IA Grok. La ministra de Seguridad Económica Kimi Onoda reveló la investigación, destacando preocupaciones sobre deepfakes y violaciones de la privacidad.

Reportado por IA

En la última controversia sobre xAI's Grok generando imágenes sexualizadas en X, la ministra de Energía sueca y vice primera ministra Ebba Busch ha criticado públicamente una imagen de bikini alterada por IA de sí misma, pidiendo consentimiento y moderación en el uso de IA.

Algunos usuarios de chatbots de IA de Google y OpenAI están generando imágenes deepfake que alteran fotos de mujeres completamente vestidas para mostrarlas en bikinis. Estas modificaciones suelen realizarse sin el consentimiento de las mujeres, e instrucciones para el proceso se comparten entre usuarios. La actividad resalta riesgos en herramientas de IA generativa.

Reportado por IA

Indonesia ha puesto fin a su prohibición del chatbot de IA Grok, permitiendo que el servicio se reanude tras preocupaciones por la generación de deepfakes. La decisión viene con una estricta supervisión continua por parte del gobierno. Esto sigue acciones similares en países vecinos a principios de año.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar