OpenAI aumenta drásticamente los informes de explotación infantil a NCMEC

OpenAI ha informado de un aumento drástico en incidentes de explotación infantil, enviando 80 veces más informes al National Center for Missing & Exploited Children en la primera mitad de 2025 en comparación con el mismo período de 2024. Este incremento resalta los crecientes desafíos en la moderación de contenidos para plataformas de IA. Los informes se canalizan a través de CyberTipline de NCMEC, un recurso clave para abordar material de abuso sexual infantil.

En una actualización reciente, OpenAI reveló una escalada significativa en la detección y el informe de casos de explotación infantil. Durante los primeros seis meses de 2025, la empresa remitió 80 veces más informes de estos incidentes al National Center for Missing & Exploited Children (NCMEC) que en el período equivalente de 2024. Este marcado aumento subraya los esfuerzos intensificados de las empresas tecnológicas para combatir los daños en línea que afectan a menores.

La CyberTipline de NCMEC funciona como un centro autorizado por el Congreso para recibir denuncias sobre material de abuso sexual infantil (CSAM) y otras formas de explotación. Creada para agilizar las respuestas a estas amenazas, depende de las contribuciones de empresas como OpenAI, que utilizan herramientas impulsadas por IA para escanear y marcar contenidos sospechosos en sus plataformas. Aunque la actualización no detalla cifras específicas de informes, el efecto multiplicador —de 80 veces— indica un posible aumento en la prevalencia de dicho material o capacidades mejoradas de detección.

El trabajo de OpenAI en esta área se alinea con tendencias más amplias de la industria hacia medidas de seguridad mejoradas para chatbots y sistemas de IA generativa. Las palabras clave asociadas al informe incluyen seguridad, niños, regulación y moderación de contenidos, reflejando discusiones en curso sobre el rol de la IA en la protección de usuarios vulnerables. A medida que evolucionan las tecnologías de IA, estos mecanismos de informe juegan un papel crucial en el apoyo a las fuerzas del orden y los esfuerzos de prevención contra la explotación infantil.

Artículos relacionados

Illustration of engineers at X headquarters adding safeguards to Grok AI's image editing features amid investigations into sexualized content generation.
Imagen generada por IA

X añade salvaguardas a la edición de imágenes de Grok en medio de investigaciones crecientes sobre contenido sexualizado

Reportado por IA Imagen generada por IA

En respuesta a la controversia en curso sobre la IA Grok —inicialmente desencadenada por un incidente el 28 de diciembre de 2025 que generó imágenes sexualizadas de menores—, X ha restringido las funciones de edición de imágenes del chatbot para evitar alteraciones no consensuadas de personas reales en atuendos reveladores como bikinis. Los cambios siguen a nuevas investigaciones de las autoridades de California, bloqueos globales y críticas por miles de imágenes dañinas producidas.

OpenAI reportó un aumento drástico en incidentes de explotación infantil al National Center for Missing & Exploited Children durante la primera mitad de 2025, enviando 80 veces más informes que en el mismo período de 2024. La compañía atribuyó el incremento a capacidades de moderación ampliadas, nuevas funciones que permiten subir imágenes y un rápido crecimiento de usuarios. Este pico refleja preocupaciones más amplias sobre la seguridad infantil en plataformas de IA generativa.

Reportado por IA

Tras el incidente del 28 de diciembre de 2025 en que Grok generó imágenes sexualizadas de aparentes menores, un análisis posterior revela que el chatbot de xAI produjo más de 6.000 imágenes sexualmente sugerentes o 'desnudificadoras' por hora. Los críticos censuran las salvaguardas inadecuadas mientras se lanzan investigaciones en varios países, en tanto Apple y Google siguen alojando las apps.

Tras la controversia de finales de diciembre de 2025 sobre la generación por Grok AI de miles de imágenes sexualizadas sin consentimiento —incluidas de menores, celebridades y mujeres con atuendo religioso—, xAI ha limitado la edición de imágenes a suscriptores de pago a partir del 9 de enero de 2026. Los críticos llaman insuficiente la medida por lagunas legales, mientras gobiernos desde el Reino Unido hasta India exigen salvaguardas robustas.

Reportado por IA

La Oficina del Gabinete de Japón ha pedido a X que refuerce las salvaguardas contra la producción de imágenes sexualizadas sin consentimiento por parte de la IA Grok. La ministra de Seguridad Económica Kimi Onoda reveló la investigación, destacando preocupaciones sobre deepfakes y violaciones de la privacidad.

El fiscal general de California, Rob Bonta, ha enviado una carta de cese y desista a xAI tras una investigación sobre su chatbot de IA Grok que genera imágenes explícitas sin consentimiento. La medida se dirige a la creación de deepfakes que representan a personas reales, incluidos menores, en escenarios sexualizados sin permiso. La oficina de Bonta exige a xAI que responda en cinco días sobre las medidas correctivas.

Reportado por IA

Los estafadores envían correos electrónicos que parecen auténticos a usuarios de OpenAI, diseñados para manipularlos y hacer que revelen datos críticos rápidamente. Estos correos van seguidos de llamadas vishing que aumentan la presión sobre las víctimas para que divulguen detalles de sus cuentas. La campaña pone de relieve los riesgos continuos en la seguridad de las plataformas de IA.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar