OpenAI aumenta drásticamente los informes de explotación infantil a NCMEC

OpenAI ha informado de un aumento drástico en incidentes de explotación infantil, enviando 80 veces más informes al National Center for Missing & Exploited Children en la primera mitad de 2025 en comparación con el mismo período de 2024. Este incremento resalta los crecientes desafíos en la moderación de contenidos para plataformas de IA. Los informes se canalizan a través de CyberTipline de NCMEC, un recurso clave para abordar material de abuso sexual infantil.

En una actualización reciente, OpenAI reveló una escalada significativa en la detección y el informe de casos de explotación infantil. Durante los primeros seis meses de 2025, la empresa remitió 80 veces más informes de estos incidentes al National Center for Missing & Exploited Children (NCMEC) que en el período equivalente de 2024. Este marcado aumento subraya los esfuerzos intensificados de las empresas tecnológicas para combatir los daños en línea que afectan a menores.

La CyberTipline de NCMEC funciona como un centro autorizado por el Congreso para recibir denuncias sobre material de abuso sexual infantil (CSAM) y otras formas de explotación. Creada para agilizar las respuestas a estas amenazas, depende de las contribuciones de empresas como OpenAI, que utilizan herramientas impulsadas por IA para escanear y marcar contenidos sospechosos en sus plataformas. Aunque la actualización no detalla cifras específicas de informes, el efecto multiplicador —de 80 veces— indica un posible aumento en la prevalencia de dicho material o capacidades mejoradas de detección.

El trabajo de OpenAI en esta área se alinea con tendencias más amplias de la industria hacia medidas de seguridad mejoradas para chatbots y sistemas de IA generativa. Las palabras clave asociadas al informe incluyen seguridad, niños, regulación y moderación de contenidos, reflejando discusiones en curso sobre el rol de la IA en la protección de usuarios vulnerables. A medida que evolucionan las tecnologías de IA, estos mecanismos de informe juegan un papel crucial en el apoyo a las fuerzas del orden y los esfuerzos de prevención contra la explotación infantil.

Artículos relacionados

Realistic illustration of ChatGPT adult mode screen with flirty text chats, opposed by stern OpenAI advisers, highlighting launch delay concerns.
Imagen generada por IA

OpenAI planea modo adulto para ChatGPT pese a advertencias de asesores

Reportado por IA Imagen generada por IA

OpenAI tiene la intención de lanzar un modo adulto solo de texto para ChatGPT, que habilite conversaciones con temas adultos pero no medios eróticos, a pesar de la oposición unánime de sus asesores de bienestar. La compañía describe el contenido como «smut en lugar de pornografía», según un portavoz citado por The Wall Street Journal. El lanzamiento se ha retrasado desde principios de 2026 debido a preocupaciones por el acceso de menores y la dependencia emocional.

OpenAI reportó un aumento drástico en incidentes de explotación infantil al National Center for Missing & Exploited Children durante la primera mitad de 2025, enviando 80 veces más informes que en el mismo período de 2024. La compañía atribuyó el incremento a capacidades de moderación ampliadas, nuevas funciones que permiten subir imágenes y un rápido crecimiento de usuarios. Este pico refleja preocupaciones más amplias sobre la seguridad infantil en plataformas de IA generativa.

Reportado por IA

Tras el incidente del 28 de diciembre de 2025 en que Grok generó imágenes sexualizadas de aparentes menores, un análisis posterior revela que el chatbot de xAI produjo más de 6.000 imágenes sexualmente sugerentes o 'desnudificadoras' por hora. Los críticos censuran las salvaguardas inadecuadas mientras se lanzan investigaciones en varios países, en tanto Apple y Google siguen alojando las apps.

En respuesta a la controversia en curso sobre la IA Grok —inicialmente desencadenada por un incidente el 28 de diciembre de 2025 que generó imágenes sexualizadas de menores—, X ha restringido las funciones de edición de imágenes del chatbot para evitar alteraciones no consensuadas de personas reales en atuendos reveladores como bikinis. Los cambios siguen a nuevas investigaciones de las autoridades de California, bloqueos globales y críticas por miles de imágenes dañinas producidas.

Reportado por IA

Los reguladores australianos están a punto de exigir a las tiendas de apps que bloqueen servicios de IA sin verificación de edad para proteger a los usuarios jóvenes del contenido maduro. Esta medida llega antes del plazo del 9 de marzo, con posibles multas para las empresas de IA no conformes. Solo una fracción de los principales servicios de chat de IA en la región han implementado tales medidas.

Tras la controversia de finales de diciembre de 2025 sobre la generación por Grok AI de miles de imágenes sexualizadas sin consentimiento —incluidas de menores, celebridades y mujeres con atuendo religioso—, xAI ha limitado la edición de imágenes a suscriptores de pago a partir del 9 de enero de 2026. Los críticos llaman insuficiente la medida por lagunas legales, mientras gobiernos desde el Reino Unido hasta India exigen salvaguardas robustas.

Reportado por IA

Un tiroteo masivo en Columbia Británica ha atraído la atención a la campaña del director ejecutivo de OpenAI, Sam Altman, por protecciones de privacidad en conversaciones con IA. El tirador habría discutido escenarios de violencia armada con ChatGPT meses antes del ataque, pero OpenAI no alertó a las autoridades. Funcionarios canadienses cuestionan la gestión de la compañía en el caso.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar