OpenAI aumenta acentuadamente relatórios de exploração infantil para NCMEC

A OpenAI reportou um aumento dramático em incidentes de exploração infantil, submetendo 80 vezes mais relatórios ao National Center for Missing & Exploited Children na primeira metade de 2025 em comparação com o mesmo período em 2024. Este aumento destaca os desafios crescentes na moderação de conteúdo para plataformas de IA. Os relatórios são canalizados através do CyberTipline da NCMEC, um recurso chave para lidar com material de abuso sexual infantil.

Numa atualização recente, a OpenAI revelou uma escalada significativa na deteção e relato de casos de exploração infantil. Durante os primeiros seis meses de 2025, a empresa encaminhou 80 vezes mais relatórios desses incidentes para o National Center for Missing & Exploited Children (NCMEC) do que no período equivalente de 2024. Este aumento acentuado sublinha os esforços intensificados das empresas tecnológicas para combater danos online envolvendo menores.

O CyberTipline da NCMEC serve como um centro autorizado pelo Congresso para receber denúncias sobre material de abuso sexual infantil (CSAM) e outras formas de exploração. Criado para agilizar respostas a estas ameaças, depende de contribuições de empresas como a OpenAI, que utilizam ferramentas baseadas em IA para escanear e sinalizar conteúdo suspeito nas suas plataformas. Embora números específicos de relatórios não tenham sido detalhados na atualização, o efeito multiplicador —80 vezes— indica um possível aumento na prevalência desse material ou capacidades de deteção melhoradas.

O trabalho da OpenAI nesta área alinha-se com tendências mais amplas da indústria para medidas de segurança reforçadas em chatbots e sistemas de IA generativa. Palavras-chave associadas ao relatório incluem segurança, crianças, regulação e moderação de conteúdo, refletindo discussões em curso sobre o papel da IA na proteção de utilizadores vulneráveis. À medida que as tecnologias de IA evoluem, estes mecanismos de relato desempenham um papel crucial no apoio às forças de segurança e esforços de prevenção contra a exploração infantil.

Artigos relacionados

Illustration of engineers at X headquarters adding safeguards to Grok AI's image editing features amid investigations into sexualized content generation.
Imagem gerada por IA

X adiciona salvaguardas à edição de imagens do Grok em meio a investigações crescentes sobre conteúdo sexualizado

Reportado por IA Imagem gerada por IA

Em resposta à controvérsia em curso do Grok AI —inicialmente desencadeada por um incidente em 28 de dezembro de 2025 que gerou imagens sexualizadas de menores— o X restringiu os recursos de edição de imagens do chatbot para impedir alterações não consensuais de pessoas reais em trajes reveladores como biquínis. As mudanças seguem novas investigações das autoridades da Califórnia, bloqueios globais e críticas sobre milhares de imagens prejudiciais produzidas.

A OpenAI relatou um aumento dramático em incidentes de exploração infantil ao National Center for Missing & Exploited Children durante a primeira metade de 2025, enviando 80 vezes mais relatórios do que no mesmo período de 2024. A empresa atribuiu o aumento a capacidades de moderação expandidas, novas funcionalidades que permitem o upload de imagens e crescimento rápido de utilizadores. Este pico reflete preocupações mais amplas sobre a segurança infantil em plataformas de IA generativa.

Reportado por IA

Após o incidente de 28 de dezembro de 2025 em que o Grok gerou imagens sexualizadas de aparentes menores, análise adicional revela que o chatbot da xAI produziu mais de 6.000 imagens sugestivas sexualmente ou 'desnudificadoras' por hora. Críticos condenam salvaguardas inadequadas enquanto investigações são lançadas em vários países, enquanto Apple e Google continuam a hospedar os apps.

Com base na controvérsia de finais de dezembro de 2025 sobre a geração pelo Grok AI de milhares de imagens sexualizadas sem consentimento —incluindo de menores, celebridades e mulheres com vestimenta religiosa—, a xAI limitou a edição de imagens a assinantes pagantes a partir de 9 de janeiro de 2026. Críticos chamam a medida de inadequada devido a brechas, enquanto governos do Reino Unido à Índia exigem salvaguardas robustas.

Reportado por IA

Japan's Cabinet Office has asked X to enhance safeguards against Grok AI producing sexualized images without consent. Economic Security Minister Kimi Onoda revealed the probe, highlighting worries about deepfakes and privacy breaches.

O procurador-geral da Califórnia, Rob Bonta, emitiu uma carta de cease-and-desist à xAI, após investigação sobre seu chatbot de IA Grok gerar imagens explícitas sem consentimento. A ação visa a criação de deepfakes retratando pessoas reais, incluindo menores, em cenários sexualizados sem permissão. O gabinete de Bonta exige que a xAI responda em cinco dias sobre medidas corretivas.

Reportado por IA

Golpistas estão enviando e-mails que parecem genuínos para usuários do OpenAI, projetados para manipulá-los a revelar dados críticos rapidamente. Esses e-mails são seguidos por chamadas vishing que intensificam a pressão sobre as vítimas para divulgar detalhes da conta. A campanha destaca riscos contínuos na segurança de plataformas de IA.

terça-feira, 03 de fevereiro de 2026, 09:31h

Quadros superiores da OpenAI saem em meio ao foco no ChatGPT

segunda-feira, 02 de fevereiro de 2026, 20:14h

xAI lança gerador de vídeo Grok apesar de escândalos contínuos de abuso de IA

segunda-feira, 26 de janeiro de 2026, 21:15h

UE investiga xAI por deepfakes sexualizados do Grok

sábado, 24 de janeiro de 2026, 06:44h

Especialistas destacam ameaças de IA como deepfakes e LLMs sombrios no cibercrime

domingo, 11 de janeiro de 2026, 08:48h

Grok AI fake images of minors proliferate online amid Musk mockery and EU scrutiny

sexta-feira, 02 de janeiro de 2026, 16:03h

xAI silenciosa enquanto Grok gera imagens sexualizadas de menores

sexta-feira, 02 de janeiro de 2026, 15:30h

Governments probe Grok AI over sexualized images of women and minors

sexta-feira, 02 de janeiro de 2026, 02:02h

xAI dismisses Grok minors images backlash as 'Legacy Media Lies'

quarta-feira, 24 de dezembro de 2025, 03:33h

Especialistas alertam pais contra brinquedos com IA para crianças

quinta-feira, 11 de dezembro de 2025, 16:50h

AI scales up cyber attacks in 2025

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar