Relatórios de exploração infantil da OpenAI dispararam no início de 2025

A OpenAI relatou um aumento dramático em incidentes de exploração infantil ao National Center for Missing & Exploited Children durante a primeira metade de 2025, enviando 80 vezes mais relatórios do que no mesmo período de 2024. A empresa atribuiu o aumento a capacidades de moderação expandidas, novas funcionalidades que permitem o upload de imagens e crescimento rápido de utilizadores. Este pico reflete preocupações mais amplas sobre a segurança infantil em plataformas de IA generativa.

A OpenAI divulgou um aumento significativo nos seus relatórios de material de abuso sexual infantil (CSAM) e outras explorações para o CyberTipline do NCMEC. Nos primeiros seis meses de 2025, a empresa submeteu 75,027 relatórios abrangendo 74,559 peças de conteúdo, em comparação com apenas 947 relatórios sobre 3,252 peças na primeira metade de 2024.

Uma porta-voz, Gaby Raila, explicou que os investimentos realizados no final de 2024 melhoraram a capacidade da OpenAI para rever e agir sobre relatórios em meio ao crescimento do número de utilizadores. "O período de tempo corresponde à introdução de mais superfícies de produto que permitiam o upload de imagens e à crescente popularidade dos nossos produtos, o que contribuiu para o aumento dos relatórios", afirmou Raila. Em agosto de 2025, Nick Turley, vice-presidente e responsável pelo ChatGPT, observou que o aplicativo havia quadruplicado os seus utilizadores ativos semanais em relação ao ano anterior.

A OpenAI relata todas as instâncias de CSAM detetadas, incluindo uploads e pedidos de utilizadores, em toda a aplicação ChatGPT — que suporta uploads de ficheiros e geração de imagens — e acesso à API. Estes dados excluem relatórios da aplicação de geração de vídeo Sora, lançada em setembro de 2025 após o período de relatório.

A tendência alinha-se com as observações do NCMEC de um aumento de 1.325 por cento nos relatórios relacionados com IA generativa de 2023 a 2024 em todas as plataformas. A OpenAI enfrenta escrutínio acrescido em matéria de segurança infantil, incluindo ações judiciais que alegam danos causados por chatbots e uma audiência no Senado dos EUA sobre riscos da IA. Em resposta, a empresa introduziu controlos parentais em setembro de 2025, permitindo a ligação de contas, a definição de restrições como a desativação da geração de imagens e alertas para sinais de autolesão. Concordou também com o Departamento de Justiça da Califórnia em outubro para mitigar riscos para adolescentes e lançou um Plano de Segurança para Adolescentes em novembro, enfatizando a deteção e relatório melhorados de CSAM.

Aumentos deste tipo nos relatórios podem resultar de uma melhor deteção em vez de mais incidentes, à medida que as plataformas refinam os critérios de moderação. A transparência da OpenAI fornece uma visão mais completa, divulgando tanto o número de relatórios como os volumes de conteúdo.

Artigos relacionados

Realistic illustration of ChatGPT adult mode screen with flirty text chats, opposed by stern OpenAI advisers, highlighting launch delay concerns.
Imagem gerada por IA

OpenAI planeja modo adulto para ChatGPT apesar de advertências de conselheiros

Reportado por IA Imagem gerada por IA

A OpenAI pretende lançar um modo adulto apenas de texto para o ChatGPT, permitindo conversas com temas adultos mas sem mídia erótica, apesar da oposição unânime dos seus conselheiros de bem-estar. A empresa descreve o conteúdo como «smut em vez de pornografia», segundo um porta-voz citado pelo The Wall Street Journal. O lançamento foi adiado do início de 2026 devido a preocupações com o acesso de menores e dependência emocional.

A OpenAI reportou um aumento dramático em incidentes de exploração infantil, submetendo 80 vezes mais relatórios ao National Center for Missing & Exploited Children na primeira metade de 2025 em comparação com o mesmo período em 2024. Este aumento destaca os desafios crescentes na moderação de conteúdo para plataformas de IA. Os relatórios são canalizados através do CyberTipline da NCMEC, um recurso chave para lidar com material de abuso sexual infantil.

Reportado por IA

Após um escândalo envolvendo o Grok da xAI gerando milhões de imagens abusivas, concorrentes OpenAI e Google implementaram novas medidas para prevenir mau uso similar. O incidente destacou vulnerabilidades em ferramentas de imagens de IA, provocando respostas rápidas da indústria. Essas etapas visam proteger usuários de imagens íntimas não consensuais.

Um estudo da Universidade de Cambridge sobre brinquedos com IA como o Gabbo revela que eles frequentemente interpretam mal os sinais emocionais das crianças e interrompem o brincar desenvolvimental, apesar dos benefícios para as habilidades de linguagem. Pesquisadores, liderados por Jenny Gibson e Emily Goodacre, pedem regulamentação, rotulagem clara, supervisão parental e colaboração entre empresas de tecnologia e especialistas em desenvolvimento infantil.

Reportado por IA

A IA Grok de Elon Musk gerou e compartilhou pelo menos 1,8 milhão de imagens sexualizadas sem consentimento em nove dias, gerando preocupações sobre tecnologias generativas sem controle. Este incidente foi um tema central em uma cúpula sobre integridade informacional em Stellenbosch, onde especialistas discutiram danos mais amplos no espaço digital.

A xAI lançou o Grok Imagine 1.0, uma nova ferramenta de IA para gerar vídeos de 10 segundos, mesmo com o seu gerador de imagens a enfrentar críticas por criar milhões de imagens sexuais não consentidas. Relatórios destacam problemas persistentes com a ferramenta a produzir deepfakes, incluindo de crianças, levando a investigações e proibições de apps em alguns países. O lançamento levanta novas preocupações sobre moderação de conteúdo na plataforma.

Reportado por IA

Reguladores australianos estão prestes a exigir que lojas de apps bloqueiem serviços de IA sem verificação de idade para proteger usuários mais jovens de conteúdo maduro. Essa medida vem antes do prazo de 9 de março, com multas potenciais para empresas de IA não conformes. Apenas uma fração dos principais serviços de chat de IA na região implementou tais medidas.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar