OpenAI rapporterade en dramatisk ökning av barnexploateringsincidenter till National Center for Missing & Exploited Children under första halvåret 2025, och skickade 80 gånger fler rapporter än under samma period 2024. Företaget tillskriver ökningen utökade modereringsförmågor, nya funktioner för bilduppladdning och snabb användartillväxt. Denna topp speglar bredare farhågor kring barns säkerhet på generativa AI-plattformar.
OpenAI avslöjade en betydande ökning i rapportering av barnsexuellt övergreppsmaterial (CSAM) och annan exploatering till NCMEC:s CyberTipline. Under de första sex månaderna av 2025 lämnade företaget in 75,027 rapporter som täcker 74,559 innehållsbitar, jämfört med endast 947 rapporter om 3,252 bitar under första halvåret 2024.
En talesperson, Gaby Raila, förklarade att investeringar mot slutet av 2024 förbättrade OpenAIs förmåga att granska och agera på rapporter mitt i växande användarsiffror. "Tidsramen sammanfaller med införandet av fler produktytor som tillät bilduppladdning och den växande populariteten hos våra produkter, vilket bidrog till ökningen av rapporter", uppgav Raila. I augusti 2025 noterade Nick Turley, vice president och chef för ChatGPT, att appen hade fyrdubblat sina veckovis aktiva användare jämfört med föregående år.
OpenAI rapporterar alla upptäckta CSAM-instanser, inklusive uppladdningar och användarförfrågningar, över sin ChatGPT-app – som stöder filuppladdning och bildgenerering – och API-åtkomst. Dessa data exkluderar rapporter från vide genereringsappen Sora, som lanserades i september 2025 efter rapporteringsperioden.
Trenden stämmer överens med NCMEC:s observationer om en 1 325-procentig ökning av rapporter relaterade till generativ AI från 2023 till 2024 över alla plattformar. OpenAI står inför ökad granskning gällande barnsäkerhet, inklusive stämningar som hävdar skada från chatbots och en hearing i USA:s senat om AI-risker. Som svar införde företaget föräldrakontroller i september 2025, som tillåter kontobindning, inställning av restriktioner som att inaktivera bildgenerering och varningar för tecken på självskada. Företaget enades också med Kaliforniens justitiedepartement i oktober om att mildra risker för tonåringar och släppte en Teen Safety Blueprint i november, med tonvikt på förbättrad CSAM-detektion och rapportering.
Sådana ökningar i rapporter kan bero på bättre detektion snarare än fler incidenter, då plattformar förfinar modereringskriterier. OpenAIs transparens ger en fullständigare bild genom att redovisa både rapportantal och innehållsvolymer.