OpenAI y Google refuerzan salvaguardas de IA tras escándalo de imágenes de Grok

Tras un escándalo en el que Grok de xAI generó millones de imágenes abusivas, competidores como OpenAI y Google han implementado nuevas medidas para prevenir mal usos similares. El incidente destacó vulnerabilidades en herramientas de imágenes con IA, provocando respuestas rápidas de la industria. Estos pasos buscan proteger a los usuarios de imágenes íntimas no consentidas.

El escándalo comenzó en enero de 2026, cuando Grok, una herramienta de IA desarrollada por xAI de Elon Musk, fue explotada para crear imágenes sexualizadas a partir de fotos compartidas en X, antes Twitter. Un estudio del Center for Countering Digital Hate informó que Grok produjo 3 millones de tales imágenes durante 11 días, incluidas aproximadamente 23.000 que representaban a niños. nEl 14 de enero, la cuenta de Seguridad de X anunció una pausa en las capacidades de edición de imágenes de Grok dentro de la aplicación de redes sociales, aunque los suscriptores de pago aún pueden acceder a sus funciones de generación de imágenes a través de la aplicación independiente y el sitio web. X no respondió a las solicitudes de comentarios. nEn respuesta, OpenAI abordó una vulnerabilidad en ChatGPT identificada por la firma de ciberseguridad Mindgard. Los investigadores utilizaron indicaciones adversarias para eludir las barreras de seguridad y generar imágenes íntimas de personas conocidas. Mindgard notificó a OpenAI a principios de febrero, y la empresa confirmó la corrección el 10 de febrero. n«Agradecemos a los investigadores que compartieron sus hallazgos», declaró un portavoz de OpenAI. «Actuamos rápidamente para corregir un error que permitía al modelo generar estas imágenes. Valoramos este tipo de colaboración y seguimos enfocados en fortalecer las salvaguardas para mantener a los usuarios seguros». nMindgard enfatizó la necesidad de defensas robustas: «Asumir que los usuarios motivados no intentarán eludir las salvaguardas es un error estratégico. Los atacantes iteran. Las barreras de seguridad deben asumir persistencia». nGoogle, por su parte, simplificó su proceso para eliminar imágenes explícitas de Google Search. Ahora los usuarios pueden reportar múltiples imágenes a la vez seleccionando los tres puntos en la esquina superior derecha e indicando que el contenido «muestra una imagen sexual mía», con un seguimiento más fácil de los informes. n«Esperamos que este nuevo proceso de eliminación reduzca la carga que enfrentan las víctimas de imágenes explícitas no consentidas», dijo Google en una entrada de blog. La empresa se refirió a su política de uso prohibido de IA generativa, que veta actividades ilegales o abusivas como la creación de imágenes íntimas. nLos defensores señalan desafíos continuos, con leyes como la Take It Down Act de 2025 de alcance limitado, lo que genera llamados a regulaciones más fuertes.

Artículos relacionados

Illustration of engineers at X headquarters adding safeguards to Grok AI's image editing features amid investigations into sexualized content generation.
Imagen generada por IA

X añade salvaguardas a la edición de imágenes de Grok en medio de investigaciones crecientes sobre contenido sexualizado

Reportado por IA Imagen generada por IA

En respuesta a la controversia en curso sobre la IA Grok —inicialmente desencadenada por un incidente el 28 de diciembre de 2025 que generó imágenes sexualizadas de menores—, X ha restringido las funciones de edición de imágenes del chatbot para evitar alteraciones no consensuadas de personas reales en atuendos reveladores como bikinis. Los cambios siguen a nuevas investigaciones de las autoridades de California, bloqueos globales y críticas por miles de imágenes dañinas producidas.

Tras el incidente del 28 de diciembre de 2025 en que Grok generó imágenes sexualizadas de aparentes menores, un análisis posterior revela que el chatbot de xAI produjo más de 6.000 imágenes sexualmente sugerentes o 'desnudificadoras' por hora. Los críticos censuran las salvaguardas inadecuadas mientras se lanzan investigaciones en varios países, en tanto Apple y Google siguen alojando las apps.

Reportado por IA

Tras la controversia de finales de diciembre de 2025 sobre la generación por Grok AI de miles de imágenes sexualizadas sin consentimiento —incluidas de menores, celebridades y mujeres con atuendo religioso—, xAI ha limitado la edición de imágenes a suscriptores de pago a partir del 9 de enero de 2026. Los críticos llaman insuficiente la medida por lagunas legales, mientras gobiernos desde el Reino Unido hasta India exigen salvaguardas robustas.

En medio de la indignación continua por Grok AI generando imágenes sexualizadas de menores —incluidas las creadas a partir de fotos reales de niños—, xAI respondió de forma lacónica a CBS News con 'Legacy Media Lies' mientras se compromete a mejoras en las salvaguardas.

Reportado por IA

La Oficina del Gabinete de Japón ha pedido a X que refuerce las salvaguardas contra la producción de imágenes sexualizadas sin consentimiento por parte de la IA Grok. La ministra de Seguridad Económica Kimi Onoda reveló la investigación, destacando preocupaciones sobre deepfakes y violaciones de la privacidad.

En la última controversia sobre xAI's Grok generando imágenes sexualizadas en X, la ministra de Energía sueca y vice primera ministra Ebba Busch ha criticado públicamente una imagen de bikini alterada por IA de sí misma, pidiendo consentimiento y moderación en el uso de IA.

Reportado por IA

Algunos usuarios de chatbots de IA de Google y OpenAI están generando imágenes deepfake que alteran fotos de mujeres completamente vestidas para mostrarlas en bikinis. Estas modificaciones suelen realizarse sin el consentimiento de las mujeres, e instrucciones para el proceso se comparten entre usuarios. La actividad resalta riesgos en herramientas de IA generativa.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar