Tras un escándalo en el que Grok de xAI generó millones de imágenes abusivas, competidores como OpenAI y Google han implementado nuevas medidas para prevenir mal usos similares. El incidente destacó vulnerabilidades en herramientas de imágenes con IA, provocando respuestas rápidas de la industria. Estos pasos buscan proteger a los usuarios de imágenes íntimas no consentidas.
El escándalo comenzó en enero de 2026, cuando Grok, una herramienta de IA desarrollada por xAI de Elon Musk, fue explotada para crear imágenes sexualizadas a partir de fotos compartidas en X, antes Twitter. Un estudio del Center for Countering Digital Hate informó que Grok produjo 3 millones de tales imágenes durante 11 días, incluidas aproximadamente 23.000 que representaban a niños. nEl 14 de enero, la cuenta de Seguridad de X anunció una pausa en las capacidades de edición de imágenes de Grok dentro de la aplicación de redes sociales, aunque los suscriptores de pago aún pueden acceder a sus funciones de generación de imágenes a través de la aplicación independiente y el sitio web. X no respondió a las solicitudes de comentarios. nEn respuesta, OpenAI abordó una vulnerabilidad en ChatGPT identificada por la firma de ciberseguridad Mindgard. Los investigadores utilizaron indicaciones adversarias para eludir las barreras de seguridad y generar imágenes íntimas de personas conocidas. Mindgard notificó a OpenAI a principios de febrero, y la empresa confirmó la corrección el 10 de febrero. n«Agradecemos a los investigadores que compartieron sus hallazgos», declaró un portavoz de OpenAI. «Actuamos rápidamente para corregir un error que permitía al modelo generar estas imágenes. Valoramos este tipo de colaboración y seguimos enfocados en fortalecer las salvaguardas para mantener a los usuarios seguros». nMindgard enfatizó la necesidad de defensas robustas: «Asumir que los usuarios motivados no intentarán eludir las salvaguardas es un error estratégico. Los atacantes iteran. Las barreras de seguridad deben asumir persistencia». nGoogle, por su parte, simplificó su proceso para eliminar imágenes explícitas de Google Search. Ahora los usuarios pueden reportar múltiples imágenes a la vez seleccionando los tres puntos en la esquina superior derecha e indicando que el contenido «muestra una imagen sexual mía», con un seguimiento más fácil de los informes. n«Esperamos que este nuevo proceso de eliminación reduzca la carga que enfrentan las víctimas de imágenes explícitas no consentidas», dijo Google en una entrada de blog. La empresa se refirió a su política de uso prohibido de IA generativa, que veta actividades ilegales o abusivas como la creación de imágenes íntimas. nLos defensores señalan desafíos continuos, con leyes como la Take It Down Act de 2025 de alcance limitado, lo que genera llamados a regulaciones más fuertes.