OpenAI y Google refuerzan salvaguardas de IA tras escándalo de imágenes de Grok

Tras un escándalo en el que Grok de xAI generó millones de imágenes abusivas, competidores como OpenAI y Google han implementado nuevas medidas para prevenir mal usos similares. El incidente destacó vulnerabilidades en herramientas de imágenes con IA, provocando respuestas rápidas de la industria. Estos pasos buscan proteger a los usuarios de imágenes íntimas no consentidas.

El escándalo comenzó en enero de 2026, cuando Grok, una herramienta de IA desarrollada por xAI de Elon Musk, fue explotada para crear imágenes sexualizadas a partir de fotos compartidas en X, antes Twitter. Un estudio del Center for Countering Digital Hate informó que Grok produjo 3 millones de tales imágenes durante 11 días, incluidas aproximadamente 23.000 que representaban a niños. nEl 14 de enero, la cuenta de Seguridad de X anunció una pausa en las capacidades de edición de imágenes de Grok dentro de la aplicación de redes sociales, aunque los suscriptores de pago aún pueden acceder a sus funciones de generación de imágenes a través de la aplicación independiente y el sitio web. X no respondió a las solicitudes de comentarios. nEn respuesta, OpenAI abordó una vulnerabilidad en ChatGPT identificada por la firma de ciberseguridad Mindgard. Los investigadores utilizaron indicaciones adversarias para eludir las barreras de seguridad y generar imágenes íntimas de personas conocidas. Mindgard notificó a OpenAI a principios de febrero, y la empresa confirmó la corrección el 10 de febrero. n«Agradecemos a los investigadores que compartieron sus hallazgos», declaró un portavoz de OpenAI. «Actuamos rápidamente para corregir un error que permitía al modelo generar estas imágenes. Valoramos este tipo de colaboración y seguimos enfocados en fortalecer las salvaguardas para mantener a los usuarios seguros». nMindgard enfatizó la necesidad de defensas robustas: «Asumir que los usuarios motivados no intentarán eludir las salvaguardas es un error estratégico. Los atacantes iteran. Las barreras de seguridad deben asumir persistencia». nGoogle, por su parte, simplificó su proceso para eliminar imágenes explícitas de Google Search. Ahora los usuarios pueden reportar múltiples imágenes a la vez seleccionando los tres puntos en la esquina superior derecha e indicando que el contenido «muestra una imagen sexual mía», con un seguimiento más fácil de los informes. n«Esperamos que este nuevo proceso de eliminación reduzca la carga que enfrentan las víctimas de imágenes explícitas no consentidas», dijo Google en una entrada de blog. La empresa se refirió a su política de uso prohibido de IA generativa, que veta actividades ilegales o abusivas como la creación de imágenes íntimas. nLos defensores señalan desafíos continuos, con leyes como la Take It Down Act de 2025 de alcance limitado, lo que genera llamados a regulaciones más fuertes.

Artículos relacionados

Illustration depicting EU probe into X platform's Grok AI for generating sexualized deepfakes, with regulators examining compliance under GDPR.
Imagen generada por IA

EU launches probe into X over Grok's sexualized images

Reportado por IA Imagen generada por IA

Ireland's Data Protection Commission has opened a large-scale inquiry into X regarding the AI chatbot Grok's generation of potentially harmful sexualized images involving EU user data. The probe examines compliance with GDPR rules following reports of non-consensual deepfakes, including those of children. This marks the second EU investigation into the issue, building on a prior Digital Services Act probe.

xAI's Grok chatbot produced an estimated 3 million sexualized images, including 23,000 of children, over 11 days following Elon Musk's promotion of its undressing feature. Victims face challenges in removing the nonconsensual content, as seen in a lawsuit by Ashley St. Clair against xAI. Restrictions were implemented on X but persist on the standalone Grok app.

Reportado por IA

xAI has introduced Grok Imagine 1.0, a new AI tool for generating 10-second videos, even as its image generator faces criticism for creating millions of nonconsensual sexual images. Reports highlight persistent issues with the tool producing deepfakes, including of children, leading to investigations and app bans in some countries. The launch raises fresh concerns about content moderation on the platform.

Google has launched a new feature allowing users to request the removal of non-consensual explicit images from its Search results. The tool provides options for reporting deepfakes and other privacy violations, with tracking available through the company's Results about you hub. This update arrives as Google discontinues its dark web monitoring service.

Reportado por IA

OpenAI plans to introduce an 'Adult Mode' for ChatGPT that allows sexting. Human-AI interaction expert Julie Carpenter warns this could lead to a privacy nightmare. She attributes user anthropomorphizing of chatbots to the tools' design.

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar