OpenAI reportó un aumento drástico en incidentes de explotación infantil al National Center for Missing & Exploited Children durante la primera mitad de 2025, enviando 80 veces más informes que en el mismo período de 2024. La compañía atribuyó el incremento a capacidades de moderación ampliadas, nuevas funciones que permiten subir imágenes y un rápido crecimiento de usuarios. Este pico refleja preocupaciones más amplias sobre la seguridad infantil en plataformas de IA generativa.
OpenAI divulgó un aumento significativo en la presentación de informes sobre material de abuso sexual infantil (CSAM) y otras formas de explotación al CyberTipline del NCMEC. En los primeros seis meses de 2025, la compañía presentó 75,027 informes que cubren 74,559 piezas de contenido, en comparación con solo 947 informes sobre 3,252 piezas en la primera mitad de 2024.
Una portavoz, Gaby Raila, explicó que las inversiones realizadas hacia finales de 2024 mejoraron la capacidad de OpenAI para revisar y actuar sobre los informes en medio del aumento de usuarios. «El marco temporal coincide con la introducción de más superficies de producto que permitían la carga de imágenes y la creciente popularidad de nuestros productos, lo que contribuyó al aumento de los informes», declaró Raila. En agosto de 2025, Nick Turley, vicepresidente y responsable de ChatGPT, indicó que la aplicación había cuadruplicado sus usuarios activos semanales en comparación con el año anterior.
OpenAI informa de todas las instancias detectadas de CSAM, incluidas las cargas y las solicitudes de usuarios, en su aplicación ChatGPT —que admite cargas de archivos y generación de imágenes— y en el acceso a la API. Estos datos no incluyen informes de la aplicación de generación de vídeo Sora, lanzada en septiembre de 2025 tras el período de presentación de informes.
Esta tendencia coincide con las observaciones del NCMEC de un aumento del 1.325 por ciento en los informes relacionados con IA generativa de 2023 a 2024 en todas las plataformas. OpenAI enfrenta un mayor escrutinio en materia de seguridad infantil, incluidas demandas que alegan daños causados por chatbots y una audiencia en el Senado de EE.UU. sobre riesgos de la IA. En respuesta, la compañía introdujo controles parentales en septiembre de 2025, que permiten vincular cuentas, establecer restricciones como desactivar la generación de imágenes y alertas por signos de autolesiones. También llegó a un acuerdo con el Departamento de Justicia de California en octubre para mitigar riesgos para adolescentes y publicó un Plan de Seguridad para Adolescentes en noviembre, que enfatiza la mejora en la detección y el informe de CSAM.
Estos aumentos en los informes pueden deberse a una mejor detección en lugar de un incremento real de incidentes, ya que las plataformas refinan sus criterios de moderación. La transparencia de OpenAI ofrece una visión más completa, al divulgar tanto el número de informes como el volumen de contenido.