A OpenAI reportou um aumento dramático em incidentes de exploração infantil, submetendo 80 vezes mais relatórios ao National Center for Missing & Exploited Children na primeira metade de 2025 em comparação com o mesmo período em 2024. Este aumento destaca os desafios crescentes na moderação de conteúdo para plataformas de IA. Os relatórios são canalizados através do CyberTipline da NCMEC, um recurso chave para lidar com material de abuso sexual infantil.
Numa atualização recente, a OpenAI revelou uma escalada significativa na deteção e relato de casos de exploração infantil. Durante os primeiros seis meses de 2025, a empresa encaminhou 80 vezes mais relatórios desses incidentes para o National Center for Missing & Exploited Children (NCMEC) do que no período equivalente de 2024. Este aumento acentuado sublinha os esforços intensificados das empresas tecnológicas para combater danos online envolvendo menores.
O CyberTipline da NCMEC serve como um centro autorizado pelo Congresso para receber denúncias sobre material de abuso sexual infantil (CSAM) e outras formas de exploração. Criado para agilizar respostas a estas ameaças, depende de contribuições de empresas como a OpenAI, que utilizam ferramentas baseadas em IA para escanear e sinalizar conteúdo suspeito nas suas plataformas. Embora números específicos de relatórios não tenham sido detalhados na atualização, o efeito multiplicador —80 vezes— indica um possível aumento na prevalência desse material ou capacidades de deteção melhoradas.
O trabalho da OpenAI nesta área alinha-se com tendências mais amplas da indústria para medidas de segurança reforçadas em chatbots e sistemas de IA generativa. Palavras-chave associadas ao relatório incluem segurança, crianças, regulação e moderação de conteúdo, refletindo discussões em curso sobre o papel da IA na proteção de utilizadores vulneráveis. À medida que as tecnologias de IA evoluem, estes mecanismos de relato desempenham um papel crucial no apoio às forças de segurança e esforços de prevenção contra a exploração infantil.