OpenAIs rapporter om barnexploatering sköt i höjden i början av 2025

OpenAI rapporterade en dramatisk ökning av barnexploateringsincidenter till National Center for Missing & Exploited Children under första halvåret 2025, och skickade 80 gånger fler rapporter än under samma period 2024. Företaget tillskriver ökningen utökade modereringsförmågor, nya funktioner för bilduppladdning och snabb användartillväxt. Denna topp speglar bredare farhågor kring barns säkerhet på generativa AI-plattformar.

OpenAI avslöjade en betydande ökning i rapportering av barnsexuellt övergreppsmaterial (CSAM) och annan exploatering till NCMEC:s CyberTipline. Under de första sex månaderna av 2025 lämnade företaget in 75,027 rapporter som täcker 74,559 innehållsbitar, jämfört med endast 947 rapporter om 3,252 bitar under första halvåret 2024.

En talesperson, Gaby Raila, förklarade att investeringar mot slutet av 2024 förbättrade OpenAIs förmåga att granska och agera på rapporter mitt i växande användarsiffror. "Tidsramen sammanfaller med införandet av fler produktytor som tillät bilduppladdning och den växande populariteten hos våra produkter, vilket bidrog till ökningen av rapporter", uppgav Raila. I augusti 2025 noterade Nick Turley, vice president och chef för ChatGPT, att appen hade fyrdubblat sina veckovis aktiva användare jämfört med föregående år.

OpenAI rapporterar alla upptäckta CSAM-instanser, inklusive uppladdningar och användarförfrågningar, över sin ChatGPT-app – som stöder filuppladdning och bildgenerering – och API-åtkomst. Dessa data exkluderar rapporter från vide genereringsappen Sora, som lanserades i september 2025 efter rapporteringsperioden.

Trenden stämmer överens med NCMEC:s observationer om en 1 325-procentig ökning av rapporter relaterade till generativ AI från 2023 till 2024 över alla plattformar. OpenAI står inför ökad granskning gällande barnsäkerhet, inklusive stämningar som hävdar skada från chatbots och en hearing i USA:s senat om AI-risker. Som svar införde företaget föräldrakontroller i september 2025, som tillåter kontobindning, inställning av restriktioner som att inaktivera bildgenerering och varningar för tecken på självskada. Företaget enades också med Kaliforniens justitiedepartement i oktober om att mildra risker för tonåringar och släppte en Teen Safety Blueprint i november, med tonvikt på förbättrad CSAM-detektion och rapportering.

Sådana ökningar i rapporter kan bero på bättre detektion snarare än fler incidenter, då plattformar förfinar modereringskriterier. OpenAIs transparens ger en fullständigare bild genom att redovisa både rapportantal och innehållsvolymer.

Relaterade artiklar

Realistic illustration of ChatGPT adult mode screen with flirty text chats, opposed by stern OpenAI advisers, highlighting launch delay concerns.
Bild genererad av AI

OpenAI planerar vuxenläge för ChatGPT trots varningar från rådgivare

Rapporterad av AI Bild genererad av AI

OpenAI avser att lansera ett enbart textbaserat vuxenläge för ChatGPT som möjliggör samtal med vuxentema men inte erotiska medier, trots enhälligt motstånd från företagets välbefinnanderådgivare. Företaget beskriver innehållet som ’smut snarare än pornografi’, enligt en talesperson citerad av The Wall Street Journal. Lanseringen har försenats från början av 2026 på grund av oro över minderårigas tillgång och emotionellt beroende.

OpenAI har rapporterat en dramatisk ökning av barnexploateringsincidenter och lämnat in 80 gånger fler rapporter till National Center for Missing & Exploited Children under första halvåret 2025 jämfört med samma period 2024. Denna ökning belyser växande utmaningar inom innehållsmoderering för AI-plattformar. Rapporterna kanaliseras via NCMEC:s CyberTipline, en nyckelresurs för att hantera material med sexuella övergrepp mot barn.

Rapporterad av AI

Efter en skandal där xAI:s Grok genererade miljontals kränkande bilder har konkurrenterna OpenAI och Google infört nya åtgärder för att förhindra liknande missbruk. Händelsen belyste sårbarheter i AI-bildverktyg och utlöste snabba reaktioner från branschen. Dessa steg syftar till att skydda användare mot icke-samtyckande intima bilder.

En studie från University of Cambridge om AI-aktiverade leksaker som Gabbo visar att de ofta misstolkar barns känslomässiga signaler och stör utvecklande lek, trots fördelar för språkfärdigheter. Forskare ledda av Jenny Gibson och Emily Goodacre uppmanar till reglering, tydlig märkning, föräldratillsyn och samarbete mellan teknikföretag och experter på barnutveckling.

Rapporterad av AI

Elon Musk's Grok AI generated and shared at least 1.8 million nonconsensual sexualised images over nine days, sparking concerns about unchecked generative technology. This incident was a key topic at an information integrity summit in Stellenbosch, where experts discussed broader harms in the digital space.

xAI har introducerat Grok Imagine 1.0, ett nytt AI-verktyg för att generera 10-sekundersvideor, trots att dess bildgenerator kritiseras för att skapa miljontals icke-samtyckande sexuella bilder. Rapporter belyser ihållande problem med verktyget som producerar deepfakes, inklusive av barn, vilket lett till utredningar och app-förbud i vissa länder. Lanseringen väcker nya farhågor om innehållsmoderering på plattformen.

Rapporterad av AI

Australiska regulatorer är på väg att kräva att appbutiker blockerar AI-tjänster som saknar åldersverifiering för att skydda yngre användare från vuxet innehåll. Detta sker inför en deadline den 9 mars, med potentiella böter för icke-kompatibla AI-företag. Endast en bråkdel av regionens ledande AI-chattjänster har infört sådana åtgärder.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj