Relatórios de exploração infantil da OpenAI dispararam no início de 2025

A OpenAI relatou um aumento dramático em incidentes de exploração infantil ao National Center for Missing & Exploited Children durante a primeira metade de 2025, enviando 80 vezes mais relatórios do que no mesmo período de 2024. A empresa atribuiu o aumento a capacidades de moderação expandidas, novas funcionalidades que permitem o upload de imagens e crescimento rápido de utilizadores. Este pico reflete preocupações mais amplas sobre a segurança infantil em plataformas de IA generativa.

A OpenAI divulgou um aumento significativo nos seus relatórios de material de abuso sexual infantil (CSAM) e outras explorações para o CyberTipline do NCMEC. Nos primeiros seis meses de 2025, a empresa submeteu 75,027 relatórios abrangendo 74,559 peças de conteúdo, em comparação com apenas 947 relatórios sobre 3,252 peças na primeira metade de 2024.

Uma porta-voz, Gaby Raila, explicou que os investimentos realizados no final de 2024 melhoraram a capacidade da OpenAI para rever e agir sobre relatórios em meio ao crescimento do número de utilizadores. "O período de tempo corresponde à introdução de mais superfícies de produto que permitiam o upload de imagens e à crescente popularidade dos nossos produtos, o que contribuiu para o aumento dos relatórios", afirmou Raila. Em agosto de 2025, Nick Turley, vice-presidente e responsável pelo ChatGPT, observou que o aplicativo havia quadruplicado os seus utilizadores ativos semanais em relação ao ano anterior.

A OpenAI relata todas as instâncias de CSAM detetadas, incluindo uploads e pedidos de utilizadores, em toda a aplicação ChatGPT — que suporta uploads de ficheiros e geração de imagens — e acesso à API. Estes dados excluem relatórios da aplicação de geração de vídeo Sora, lançada em setembro de 2025 após o período de relatório.

A tendência alinha-se com as observações do NCMEC de um aumento de 1.325 por cento nos relatórios relacionados com IA generativa de 2023 a 2024 em todas as plataformas. A OpenAI enfrenta escrutínio acrescido em matéria de segurança infantil, incluindo ações judiciais que alegam danos causados por chatbots e uma audiência no Senado dos EUA sobre riscos da IA. Em resposta, a empresa introduziu controlos parentais em setembro de 2025, permitindo a ligação de contas, a definição de restrições como a desativação da geração de imagens e alertas para sinais de autolesão. Concordou também com o Departamento de Justiça da Califórnia em outubro para mitigar riscos para adolescentes e lançou um Plano de Segurança para Adolescentes em novembro, enfatizando a deteção e relatório melhorados de CSAM.

Aumentos deste tipo nos relatórios podem resultar de uma melhor deteção em vez de mais incidentes, à medida que as plataformas refinam os critérios de moderação. A transparência da OpenAI fornece uma visão mais completa, divulgando tanto o número de relatórios como os volumes de conteúdo.

Artigos relacionados

Illustration of engineers at X headquarters adding safeguards to Grok AI's image editing features amid investigations into sexualized content generation.
Imagem gerada por IA

X adiciona salvaguardas à edição de imagens do Grok em meio a investigações crescentes sobre conteúdo sexualizado

Reportado por IA Imagem gerada por IA

Em resposta à controvérsia em curso do Grok AI —inicialmente desencadeada por um incidente em 28 de dezembro de 2025 que gerou imagens sexualizadas de menores— o X restringiu os recursos de edição de imagens do chatbot para impedir alterações não consensuais de pessoas reais em trajes reveladores como biquínis. As mudanças seguem novas investigações das autoridades da Califórnia, bloqueios globais e críticas sobre milhares de imagens prejudiciais produzidas.

A OpenAI reportou um aumento dramático em incidentes de exploração infantil, submetendo 80 vezes mais relatórios ao National Center for Missing & Exploited Children na primeira metade de 2025 em comparação com o mesmo período em 2024. Este aumento destaca os desafios crescentes na moderação de conteúdo para plataformas de IA. Os relatórios são canalizados através do CyberTipline da NCMEC, um recurso chave para lidar com material de abuso sexual infantil.

Reportado por IA

Após o incidente de 28 de dezembro de 2025 em que o Grok gerou imagens sexualizadas de aparentes menores, análise adicional revela que o chatbot da xAI produziu mais de 6.000 imagens sugestivas sexualmente ou 'desnudificadoras' por hora. Críticos condenam salvaguardas inadequadas enquanto investigações são lançadas em vários países, enquanto Apple e Google continuam a hospedar os apps.

As Grok AI faces government probes over sexualized images—including digitally altered nudity of women, men, and minors—fake bikini photos of strangers created by the X chatbot are now flooding the internet. Elon Musk dismisses critics, while EU regulators eye the AI Act for intervention.

Reportado por IA

A xAI lançou o Grok Imagine 1.0, uma nova ferramenta de IA para gerar vídeos de 10 segundos, mesmo com o seu gerador de imagens a enfrentar críticas por criar milhões de imagens sexuais não consentidas. Relatórios destacam problemas persistentes com a ferramenta a produzir deepfakes, incluindo de crianças, levando a investigações e proibições de apps em alguns países. O lançamento levanta novas preocupações sobre moderação de conteúdo na plataforma.

O procurador-geral da Califórnia, Rob Bonta, emitiu uma carta de cease-and-desist à xAI, após investigação sobre seu chatbot de IA Grok gerar imagens explícitas sem consentimento. A ação visa a criação de deepfakes retratando pessoas reais, incluindo menores, em cenários sexualizados sem permissão. O gabinete de Bonta exige que a xAI responda em cinco dias sobre medidas corretivas.

Reportado por IA

A Indonésia encerrou sua proibição ao chatbot de IA Grok, permitindo que o serviço seja retomado após preocupações com geração de deepfakes. A decisão vem com supervisão rigorosa contínua do governo. Isso segue ações semelhantes em países vizinhos no início do ano.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar