Los informes de explotación infantil de OpenAI se dispararon a principios de 2025

OpenAI reportó un aumento drástico en incidentes de explotación infantil al National Center for Missing & Exploited Children durante la primera mitad de 2025, enviando 80 veces más informes que en el mismo período de 2024. La compañía atribuyó el incremento a capacidades de moderación ampliadas, nuevas funciones que permiten subir imágenes y un rápido crecimiento de usuarios. Este pico refleja preocupaciones más amplias sobre la seguridad infantil en plataformas de IA generativa.

OpenAI divulgó un aumento significativo en la presentación de informes sobre material de abuso sexual infantil (CSAM) y otras formas de explotación al CyberTipline del NCMEC. En los primeros seis meses de 2025, la compañía presentó 75,027 informes que cubren 74,559 piezas de contenido, en comparación con solo 947 informes sobre 3,252 piezas en la primera mitad de 2024.

Una portavoz, Gaby Raila, explicó que las inversiones realizadas hacia finales de 2024 mejoraron la capacidad de OpenAI para revisar y actuar sobre los informes en medio del aumento de usuarios. «El marco temporal coincide con la introducción de más superficies de producto que permitían la carga de imágenes y la creciente popularidad de nuestros productos, lo que contribuyó al aumento de los informes», declaró Raila. En agosto de 2025, Nick Turley, vicepresidente y responsable de ChatGPT, indicó que la aplicación había cuadruplicado sus usuarios activos semanales en comparación con el año anterior.

OpenAI informa de todas las instancias detectadas de CSAM, incluidas las cargas y las solicitudes de usuarios, en su aplicación ChatGPT —que admite cargas de archivos y generación de imágenes— y en el acceso a la API. Estos datos no incluyen informes de la aplicación de generación de vídeo Sora, lanzada en septiembre de 2025 tras el período de presentación de informes.

Esta tendencia coincide con las observaciones del NCMEC de un aumento del 1.325 por ciento en los informes relacionados con IA generativa de 2023 a 2024 en todas las plataformas. OpenAI enfrenta un mayor escrutinio en materia de seguridad infantil, incluidas demandas que alegan daños causados por chatbots y una audiencia en el Senado de EE.UU. sobre riesgos de la IA. En respuesta, la compañía introdujo controles parentales en septiembre de 2025, que permiten vincular cuentas, establecer restricciones como desactivar la generación de imágenes y alertas por signos de autolesiones. También llegó a un acuerdo con el Departamento de Justicia de California en octubre para mitigar riesgos para adolescentes y publicó un Plan de Seguridad para Adolescentes en noviembre, que enfatiza la mejora en la detección y el informe de CSAM.

Estos aumentos en los informes pueden deberse a una mejor detección en lugar de un incremento real de incidentes, ya que las plataformas refinan sus criterios de moderación. La transparencia de OpenAI ofrece una visión más completa, al divulgar tanto el número de informes como el volumen de contenido.

Artículos relacionados

Realistic illustration of ChatGPT adult mode screen with flirty text chats, opposed by stern OpenAI advisers, highlighting launch delay concerns.
Imagen generada por IA

OpenAI planea modo adulto para ChatGPT pese a advertencias de asesores

Reportado por IA Imagen generada por IA

OpenAI tiene la intención de lanzar un modo adulto solo de texto para ChatGPT, que habilite conversaciones con temas adultos pero no medios eróticos, a pesar de la oposición unánime de sus asesores de bienestar. La compañía describe el contenido como «smut en lugar de pornografía», según un portavoz citado por The Wall Street Journal. El lanzamiento se ha retrasado desde principios de 2026 debido a preocupaciones por el acceso de menores y la dependencia emocional.

OpenAI ha informado de un aumento drástico en incidentes de explotación infantil, enviando 80 veces más informes al National Center for Missing & Exploited Children en la primera mitad de 2025 en comparación con el mismo período de 2024. Este incremento resalta los crecientes desafíos en la moderación de contenidos para plataformas de IA. Los informes se canalizan a través de CyberTipline de NCMEC, un recurso clave para abordar material de abuso sexual infantil.

Reportado por IA

Tras un escándalo en el que Grok de xAI generó millones de imágenes abusivas, competidores como OpenAI y Google han implementado nuevas medidas para prevenir mal usos similares. El incidente destacó vulnerabilidades en herramientas de imágenes con IA, provocando respuestas rápidas de la industria. Estos pasos buscan proteger a los usuarios de imágenes íntimas no consentidas.

Un estudio de la Universidad de Cambridge sobre juguetes con IA como Gabbo revela que a menudo malinterpretan las señales emocionales de los niños e interrumpen el juego que fomenta el desarrollo, a pesar de los beneficios para las habilidades lingüísticas. Los investigadores, liderados por Jenny Gibson y Emily Goodacre, instan a la regulación, un etiquetado claro, la supervisión parental y la colaboración entre empresas tecnológicas y expertos en desarrollo infantil.

Reportado por IA

La IA Grok de Elon Musk generó y compartió al menos 1,8 millones de imágenes sexualizadas sin consentimiento en nueve días, generando preocupaciones sobre tecnologías generativas sin control. Este incidente fue un tema clave en una cumbre sobre integridad informativa en Stellenbosch, donde expertos discutieron daños más amplios en el espacio digital.

xAI ha introducido Grok Imagine 1.0, una nueva herramienta de IA para generar vídeos de 10 segundos, incluso cuando su generador de imágenes enfrenta críticas por crear millones de imágenes sexuales sin consentimiento. Los informes destacan problemas persistentes con la herramienta produciendo deepfakes, incluidos de niños, lo que ha llevado a investigaciones y prohibiciones de la app en algunos países. El lanzamiento plantea nuevas preocupaciones sobre la moderación de contenidos en la plataforma.

Reportado por IA

Los reguladores australianos están a punto de exigir a las tiendas de apps que bloqueen servicios de IA sin verificación de edad para proteger a los usuarios jóvenes del contenido maduro. Esta medida llega antes del plazo del 9 de marzo, con posibles multas para las empresas de IA no conformes. Solo una fracción de los principales servicios de chat de IA en la región han implementado tales medidas.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar