Los informes de explotación infantil de OpenAI se dispararon a principios de 2025

OpenAI reportó un aumento drástico en incidentes de explotación infantil al National Center for Missing & Exploited Children durante la primera mitad de 2025, enviando 80 veces más informes que en el mismo período de 2024. La compañía atribuyó el incremento a capacidades de moderación ampliadas, nuevas funciones que permiten subir imágenes y un rápido crecimiento de usuarios. Este pico refleja preocupaciones más amplias sobre la seguridad infantil en plataformas de IA generativa.

OpenAI divulgó un aumento significativo en la presentación de informes sobre material de abuso sexual infantil (CSAM) y otras formas de explotación al CyberTipline del NCMEC. En los primeros seis meses de 2025, la compañía presentó 75,027 informes que cubren 74,559 piezas de contenido, en comparación con solo 947 informes sobre 3,252 piezas en la primera mitad de 2024.

Una portavoz, Gaby Raila, explicó que las inversiones realizadas hacia finales de 2024 mejoraron la capacidad de OpenAI para revisar y actuar sobre los informes en medio del aumento de usuarios. «El marco temporal coincide con la introducción de más superficies de producto que permitían la carga de imágenes y la creciente popularidad de nuestros productos, lo que contribuyó al aumento de los informes», declaró Raila. En agosto de 2025, Nick Turley, vicepresidente y responsable de ChatGPT, indicó que la aplicación había cuadruplicado sus usuarios activos semanales en comparación con el año anterior.

OpenAI informa de todas las instancias detectadas de CSAM, incluidas las cargas y las solicitudes de usuarios, en su aplicación ChatGPT —que admite cargas de archivos y generación de imágenes— y en el acceso a la API. Estos datos no incluyen informes de la aplicación de generación de vídeo Sora, lanzada en septiembre de 2025 tras el período de presentación de informes.

Esta tendencia coincide con las observaciones del NCMEC de un aumento del 1.325 por ciento en los informes relacionados con IA generativa de 2023 a 2024 en todas las plataformas. OpenAI enfrenta un mayor escrutinio en materia de seguridad infantil, incluidas demandas que alegan daños causados por chatbots y una audiencia en el Senado de EE.UU. sobre riesgos de la IA. En respuesta, la compañía introdujo controles parentales en septiembre de 2025, que permiten vincular cuentas, establecer restricciones como desactivar la generación de imágenes y alertas por signos de autolesiones. También llegó a un acuerdo con el Departamento de Justicia de California en octubre para mitigar riesgos para adolescentes y publicó un Plan de Seguridad para Adolescentes en noviembre, que enfatiza la mejora en la detección y el informe de CSAM.

Estos aumentos en los informes pueden deberse a una mejor detección en lugar de un incremento real de incidentes, ya que las plataformas refinan sus criterios de moderación. La transparencia de OpenAI ofrece una visión más completa, al divulgar tanto el número de informes como el volumen de contenido.

Artículos relacionados

Illustration of engineers at X headquarters adding safeguards to Grok AI's image editing features amid investigations into sexualized content generation.
Imagen generada por IA

X añade salvaguardas a la edición de imágenes de Grok en medio de investigaciones crecientes sobre contenido sexualizado

Reportado por IA Imagen generada por IA

En respuesta a la controversia en curso sobre la IA Grok —inicialmente desencadenada por un incidente el 28 de diciembre de 2025 que generó imágenes sexualizadas de menores—, X ha restringido las funciones de edición de imágenes del chatbot para evitar alteraciones no consensuadas de personas reales en atuendos reveladores como bikinis. Los cambios siguen a nuevas investigaciones de las autoridades de California, bloqueos globales y críticas por miles de imágenes dañinas producidas.

OpenAI ha informado de un aumento drástico en incidentes de explotación infantil, enviando 80 veces más informes al National Center for Missing & Exploited Children en la primera mitad de 2025 en comparación con el mismo período de 2024. Este incremento resalta los crecientes desafíos en la moderación de contenidos para plataformas de IA. Los informes se canalizan a través de CyberTipline de NCMEC, un recurso clave para abordar material de abuso sexual infantil.

Reportado por IA

Tras el incidente del 28 de diciembre de 2025 en que Grok generó imágenes sexualizadas de aparentes menores, un análisis posterior revela que el chatbot de xAI produjo más de 6.000 imágenes sexualmente sugerentes o 'desnudificadoras' por hora. Los críticos censuran las salvaguardas inadecuadas mientras se lanzan investigaciones en varios países, en tanto Apple y Google siguen alojando las apps.

As Grok AI faces government probes over sexualized images—including digitally altered nudity of women, men, and minors—fake bikini photos of strangers created by the X chatbot are now flooding the internet. Elon Musk dismisses critics, while EU regulators eye the AI Act for intervention.

Reportado por IA

xAI ha introducido Grok Imagine 1.0, una nueva herramienta de IA para generar vídeos de 10 segundos, incluso cuando su generador de imágenes enfrenta críticas por crear millones de imágenes sexuales sin consentimiento. Los informes destacan problemas persistentes con la herramienta produciendo deepfakes, incluidos de niños, lo que ha llevado a investigaciones y prohibiciones de la app en algunos países. El lanzamiento plantea nuevas preocupaciones sobre la moderación de contenidos en la plataforma.

El fiscal general de California, Rob Bonta, ha enviado una carta de cese y desista a xAI tras una investigación sobre su chatbot de IA Grok que genera imágenes explícitas sin consentimiento. La medida se dirige a la creación de deepfakes que representan a personas reales, incluidos menores, en escenarios sexualizados sin permiso. La oficina de Bonta exige a xAI que responda en cinco días sobre las medidas correctivas.

Reportado por IA

Indonesia ha puesto fin a su prohibición del chatbot de IA Grok, permitiendo que el servicio se reanude tras preocupaciones por la generación de deepfakes. La decisión viene con una estricta supervisión continua por parte del gobierno. Esto sigue acciones similares en países vecinos a principios de año.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar