OpenAI aumenta drásticamente los informes de explotación infantil a NCMEC

OpenAI ha informado de un aumento drástico en incidentes de explotación infantil, enviando 80 veces más informes al National Center for Missing & Exploited Children en la primera mitad de 2025 en comparación con el mismo período de 2024. Este incremento resalta los crecientes desafíos en la moderación de contenidos para plataformas de IA. Los informes se canalizan a través de CyberTipline de NCMEC, un recurso clave para abordar material de abuso sexual infantil.

En una actualización reciente, OpenAI reveló una escalada significativa en la detección y el informe de casos de explotación infantil. Durante los primeros seis meses de 2025, la empresa remitió 80 veces más informes de estos incidentes al National Center for Missing & Exploited Children (NCMEC) que en el período equivalente de 2024. Este marcado aumento subraya los esfuerzos intensificados de las empresas tecnológicas para combatir los daños en línea que afectan a menores.

La CyberTipline de NCMEC funciona como un centro autorizado por el Congreso para recibir denuncias sobre material de abuso sexual infantil (CSAM) y otras formas de explotación. Creada para agilizar las respuestas a estas amenazas, depende de las contribuciones de empresas como OpenAI, que utilizan herramientas impulsadas por IA para escanear y marcar contenidos sospechosos en sus plataformas. Aunque la actualización no detalla cifras específicas de informes, el efecto multiplicador —de 80 veces— indica un posible aumento en la prevalencia de dicho material o capacidades mejoradas de detección.

El trabajo de OpenAI en esta área se alinea con tendencias más amplias de la industria hacia medidas de seguridad mejoradas para chatbots y sistemas de IA generativa. Las palabras clave asociadas al informe incluyen seguridad, niños, regulación y moderación de contenidos, reflejando discusiones en curso sobre el rol de la IA en la protección de usuarios vulnerables. A medida que evolucionan las tecnologías de IA, estos mecanismos de informe juegan un papel crucial en el apoyo a las fuerzas del orden y los esfuerzos de prevención contra la explotación infantil.

Artículos relacionados

Realistic illustration of ChatGPT adult mode screen with flirty text chats, opposed by stern OpenAI advisers, highlighting launch delay concerns.
Imagen generada por IA

OpenAI planea modo adulto para ChatGPT pese a advertencias de asesores

Reportado por IA Imagen generada por IA

OpenAI tiene la intención de lanzar un modo adulto solo de texto para ChatGPT, que habilite conversaciones con temas adultos pero no medios eróticos, a pesar de la oposición unánime de sus asesores de bienestar. La compañía describe el contenido como «smut en lugar de pornografía», según un portavoz citado por The Wall Street Journal. El lanzamiento se ha retrasado desde principios de 2026 debido a preocupaciones por el acceso de menores y la dependencia emocional.

OpenAI reportó un aumento drástico en incidentes de explotación infantil al National Center for Missing & Exploited Children durante la primera mitad de 2025, enviando 80 veces más informes que en el mismo período de 2024. La compañía atribuyó el incremento a capacidades de moderación ampliadas, nuevas funciones que permiten subir imágenes y un rápido crecimiento de usuarios. Este pico refleja preocupaciones más amplias sobre la seguridad infantil en plataformas de IA generativa.

Reportado por IA

Tras el incidente del 28 de diciembre de 2025 en que Grok generó imágenes sexualizadas de aparentes menores, un análisis posterior revela que el chatbot de xAI produjo más de 6.000 imágenes sexualmente sugerentes o 'desnudificadoras' por hora. Los críticos censuran las salvaguardas inadecuadas mientras se lanzan investigaciones en varios países, en tanto Apple y Google siguen alojando las apps.

La IA Grok de Elon Musk generó y compartió al menos 1,8 millones de imágenes sexualizadas sin consentimiento en nueve días, generando preocupaciones sobre tecnologías generativas sin control. Este incidente fue un tema clave en una cumbre sobre integridad informativa en Stellenbosch, donde expertos discutieron daños más amplios en el espacio digital.

Reportado por IA

En respuesta a la controversia en curso sobre la IA Grok —inicialmente desencadenada por un incidente el 28 de diciembre de 2025 que generó imágenes sexualizadas de menores—, X ha restringido las funciones de edición de imágenes del chatbot para evitar alteraciones no consensuadas de personas reales en atuendos reveladores como bikinis. Los cambios siguen a nuevas investigaciones de las autoridades de California, bloqueos globales y críticas por miles de imágenes dañinas producidas.

OpenAI ha decidido pausar indefinidamente su planeado 'modo adulto' para ChatGPT, enfocándose en su lugar en sus productos principales. La medida se produce días después de discontinuar su herramienta de video Sora. El CEO Sam Altman está dando prioridad a ChatGPT, Codex y el navegador de IA Atlas en medio de presiones competitivas.

Reportado por IA

A medida que las plataformas de IA viran hacia la monetización basada en anuncios, investigadores advierten de que la tecnología podría moldear el comportamiento, creencias y elecciones de los usuarios de formas invisibles. Esto supone un cambio de rumbo para OpenAI, cuyo CEO Sam Altman consideró en su día la mezcla de anuncios e IA 'inquietante', pero ahora asegura que los anuncios en apps de IA pueden mantener la confianza.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar