OpenAIs rapporter om barnexploatering sköt i höjden i början av 2025

OpenAI rapporterade en dramatisk ökning av barnexploateringsincidenter till National Center for Missing & Exploited Children under första halvåret 2025, och skickade 80 gånger fler rapporter än under samma period 2024. Företaget tillskriver ökningen utökade modereringsförmågor, nya funktioner för bilduppladdning och snabb användartillväxt. Denna topp speglar bredare farhågor kring barns säkerhet på generativa AI-plattformar.

OpenAI avslöjade en betydande ökning i rapportering av barnsexuellt övergreppsmaterial (CSAM) och annan exploatering till NCMEC:s CyberTipline. Under de första sex månaderna av 2025 lämnade företaget in 75,027 rapporter som täcker 74,559 innehållsbitar, jämfört med endast 947 rapporter om 3,252 bitar under första halvåret 2024.

En talesperson, Gaby Raila, förklarade att investeringar mot slutet av 2024 förbättrade OpenAIs förmåga att granska och agera på rapporter mitt i växande användarsiffror. "Tidsramen sammanfaller med införandet av fler produktytor som tillät bilduppladdning och den växande populariteten hos våra produkter, vilket bidrog till ökningen av rapporter", uppgav Raila. I augusti 2025 noterade Nick Turley, vice president och chef för ChatGPT, att appen hade fyrdubblat sina veckovis aktiva användare jämfört med föregående år.

OpenAI rapporterar alla upptäckta CSAM-instanser, inklusive uppladdningar och användarförfrågningar, över sin ChatGPT-app – som stöder filuppladdning och bildgenerering – och API-åtkomst. Dessa data exkluderar rapporter från vide genereringsappen Sora, som lanserades i september 2025 efter rapporteringsperioden.

Trenden stämmer överens med NCMEC:s observationer om en 1 325-procentig ökning av rapporter relaterade till generativ AI från 2023 till 2024 över alla plattformar. OpenAI står inför ökad granskning gällande barnsäkerhet, inklusive stämningar som hävdar skada från chatbots och en hearing i USA:s senat om AI-risker. Som svar införde företaget föräldrakontroller i september 2025, som tillåter kontobindning, inställning av restriktioner som att inaktivera bildgenerering och varningar för tecken på självskada. Företaget enades också med Kaliforniens justitiedepartement i oktober om att mildra risker för tonåringar och släppte en Teen Safety Blueprint i november, med tonvikt på förbättrad CSAM-detektion och rapportering.

Sådana ökningar i rapporter kan bero på bättre detektion snarare än fler incidenter, då plattformar förfinar modereringskriterier. OpenAIs transparens ger en fullständigare bild genom att redovisa både rapportantal och innehållsvolymer.

Relaterade artiklar

Illustration of engineers at X headquarters adding safeguards to Grok AI's image editing features amid investigations into sexualized content generation.
Bild genererad av AI

X lägger till skyddsåtgärder för Groks bildredigering mitt i eskalerande undersökningar om sexualiserat innehåll

Rapporterad av AI Bild genererad av AI

Som svar på den pågående Grok AI-kontroversen —som initialt utlöstes av en incident den 28 december 2025 som genererade sexualiserade bilder på minderåriga— har X begränsat chatbotens bildredigeringsfunktioner för att förhindra icke-samtyckande ändringar av verkliga personer till avslöjande kläder som bikinis. Förändringarna följer nya undersökningar från kaliforniska myndigheter, globala blockeringar och kritik mot tusentals skadliga bilder som producerats.

OpenAI har rapporterat en dramatisk ökning av barnexploateringsincidenter och lämnat in 80 gånger fler rapporter till National Center for Missing & Exploited Children under första halvåret 2025 jämfört med samma period 2024. Denna ökning belyser växande utmaningar inom innehållsmoderering för AI-plattformar. Rapporterna kanaliseras via NCMEC:s CyberTipline, en nyckelresurs för att hantera material med sexuella övergrepp mot barn.

Rapporterad av AI

Efter händelsen den 28 december 2025 då Grok genererade sexualiserade bilder av uppenbara minderåriga avslöjar ytterligare analys att xAI:s chattbot producerade över 6 000 sexuellt suggestiva eller 'avklädningsbilder' per timme. Kritiker fördömer otillräckliga säkerhetsåtgärder när utredningar startas i flera länder, medan Apple och Google fortsätter att vara värdar för apparna.

Medan Grok AI utreds av myndigheter för sexualiserade bilder — inklusive digitalt manipulerad nakenhet av kvinnor, män och minderåriga — översvämmas internet nu av fejkade bikinibilder på främlingar skapade av X-chatboten. Elon Musk avfärdar kritikerna medan EU-reglerare överväger AI Act för ingripande.

Rapporterad av AI

xAI har introducerat Grok Imagine 1.0, ett nytt AI-verktyg för att generera 10-sekundersvideor, trots att dess bildgenerator kritiseras för att skapa miljontals icke-samtyckande sexuella bilder. Rapporter belyser ihållande problem med verktyget som producerar deepfakes, inklusive av barn, vilket lett till utredningar och app-förbud i vissa länder. Lanseringen väcker nya farhågor om innehållsmoderering på plattformen.

Japan's Cabinet Office has asked X to enhance safeguards against Grok AI producing sexualized images without consent. Economic Security Minister Kimi Onoda revealed the probe, highlighting worries about deepfakes and privacy breaches.

Rapporterad av AI

Kaliforniens justitieminister Rob Bonta har utfärdat ett föreläggande om inhibition till xAI efter en utredning om företagets AI-chattbot Grok som genererar icke-samtyckande explicita bilder. Åtgärden riktar sig mot skapandet av deepfakes som avbildar verkliga personer, inklusive minderåriga, i sexualiserade scenarier utan tillstånd. Bontas kontor kräver att xAI svarar inom fem dagar om korrigerande åtgärder.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj