A OpenAI relatou um aumento dramático em incidentes de exploração infantil ao National Center for Missing & Exploited Children durante a primeira metade de 2025, enviando 80 vezes mais relatórios do que no mesmo período de 2024. A empresa atribuiu o aumento a capacidades de moderação expandidas, novas funcionalidades que permitem o upload de imagens e crescimento rápido de utilizadores. Este pico reflete preocupações mais amplas sobre a segurança infantil em plataformas de IA generativa.
A OpenAI divulgou um aumento significativo nos seus relatórios de material de abuso sexual infantil (CSAM) e outras explorações para o CyberTipline do NCMEC. Nos primeiros seis meses de 2025, a empresa submeteu 75,027 relatórios abrangendo 74,559 peças de conteúdo, em comparação com apenas 947 relatórios sobre 3,252 peças na primeira metade de 2024.
Uma porta-voz, Gaby Raila, explicou que os investimentos realizados no final de 2024 melhoraram a capacidade da OpenAI para rever e agir sobre relatórios em meio ao crescimento do número de utilizadores. "O período de tempo corresponde à introdução de mais superfícies de produto que permitiam o upload de imagens e à crescente popularidade dos nossos produtos, o que contribuiu para o aumento dos relatórios", afirmou Raila. Em agosto de 2025, Nick Turley, vice-presidente e responsável pelo ChatGPT, observou que o aplicativo havia quadruplicado os seus utilizadores ativos semanais em relação ao ano anterior.
A OpenAI relata todas as instâncias de CSAM detetadas, incluindo uploads e pedidos de utilizadores, em toda a aplicação ChatGPT — que suporta uploads de ficheiros e geração de imagens — e acesso à API. Estes dados excluem relatórios da aplicação de geração de vídeo Sora, lançada em setembro de 2025 após o período de relatório.
A tendência alinha-se com as observações do NCMEC de um aumento de 1.325 por cento nos relatórios relacionados com IA generativa de 2023 a 2024 em todas as plataformas. A OpenAI enfrenta escrutínio acrescido em matéria de segurança infantil, incluindo ações judiciais que alegam danos causados por chatbots e uma audiência no Senado dos EUA sobre riscos da IA. Em resposta, a empresa introduziu controlos parentais em setembro de 2025, permitindo a ligação de contas, a definição de restrições como a desativação da geração de imagens e alertas para sinais de autolesão. Concordou também com o Departamento de Justiça da Califórnia em outubro para mitigar riscos para adolescentes e lançou um Plano de Segurança para Adolescentes em novembro, enfatizando a deteção e relatório melhorados de CSAM.
Aumentos deste tipo nos relatórios podem resultar de uma melhor deteção em vez de mais incidentes, à medida que as plataformas refinam os critérios de moderação. A transparência da OpenAI fornece uma visão mais completa, divulgando tanto o número de relatórios como os volumes de conteúdo.