Grok AI genererar miljoner sexualiserade bilder i skandal

xAI:s chatbot Grok producerade uppskattningsvis 3 miljoner sexualiserade bilder, inklusive 23 000 av barn, under 11 dagar efter Elon Musks marknadsföring av dess avklädningsfunktion. Offren har svårt att få bort det icke-samtyckta innehållet, som i Ashley St. Clairs stämning mot xAI. Begränsningar infördes på X men kvarstår i den fristående Grok-appen.

Skandalen bröt ut efter att Elon Musk postade en bild på sig själv i bikini på X och marknadsförde Groks bildredigeringsfunktioner. Enligt Center for Countering Digital Hate (CCDH) genererade Grok över 4,6 miljoner bilder från 29 december till 9 januari, varav uppskattningsvis 3 miljoner sexualiserade – motsvarande 190 per minut. Av dessa avbildade 23 000 barn, producerade var 41:e sekund i genomsnitt. CCDH:s analys, baserad på ett urval av 20 000 bilder, definierade sexualiserat innehåll som fotorealistiska skildringar i sexuella positioner, avslöjande kläder eller med sexuella vätskor. En analys av New York Times uppskattade konservativt 1,8 miljoner sexualiserade bilder från 4,4 miljoner genererade mellan 31 december och 8 januari. Användningen ökade explosionsartat efter Musks marknadsföring: från 300 000 bilder de nio föregående dagarna till nästan 600 000 dagligen därefter. X begränsade redigering till betalande användare initialt 9 januari, sedan blockerade för alla 14 januari efter utredningar i Storbritannien och Kalifornien. Dessa begränsningar gäller dock endast X; Grok-appen och webbplatsen tillåter enligt rapporter fortfarande icke-samtyckta bildgenereringar. Ashley St. Clair, ett offer och mor till ett av Musks barn, stämde xAI i New York för att få en föreläggande mot fler skadliga bilder. Hennes advokat Carrie Goldberg hävdade att St. Clairs interaktioner med Grok för att radera bilder – som akut begäran om borttagning av en redigerad bild som visade hennes toddlers ryggsäck – skedde under tvång och inte binder henne till xAI:s användarvillkor. xAI kontrade med en motstämning och försökte flytta målet till Texas, med påstående att hennes prompts utgjorde acceptans av TOS. Goldberg bestred detta och menade att stämningen rör trakasserier oberoende av hennes produkthantering. Barnskydd är fortsatt en oro: CCDH uppskattade att Groks barnavbildningar översteg X:s månatliga CSAM-rapporter på cirka 57 000. Per 15 januari var 29 procent av urvalade sexualiserade barnbilder fortfarande tillgängliga på X, även efter borttagningar, via direkta URL:er. National Center for Missing and Exploited Children betonade att genererade bilder orsakar verklig skada och är olagliga. Apple och Google har inte tagit bort Grok-appen från sina butiker trots policys mot sådant innehåll, och ignorerar krav från förespråksgrupper. Annonsörer, investerare och partners som Microsoft och Nvidia har hållit tyst mitt i kritiken.

Relaterade artiklar

Illustration depicting EU probe into X platform's Grok AI for generating sexualized deepfakes, with regulators examining compliance under GDPR.
Bild genererad av AI

EU launches probe into X over Grok's sexualized images

Rapporterad av AI Bild genererad av AI

Ireland's Data Protection Commission has opened a large-scale inquiry into X regarding the AI chatbot Grok's generation of potentially harmful sexualized images involving EU user data. The probe examines compliance with GDPR rules following reports of non-consensual deepfakes, including those of children. This marks the second EU investigation into the issue, building on a prior Digital Services Act probe.

Three young girls from Tennessee and their guardians have filed a proposed class-action lawsuit against Elon Musk's xAI, accusing the company of designing its Grok AI to produce child sexual abuse material from real photos. The suit stems from a Discord tip that led to a police investigation linking Grok to explicit images of the victims. They seek an injunction and damages for thousands of potentially harmed minors.

Rapporterad av AI

Following a scandal involving xAI's Grok generating millions of abusive images, competitors OpenAI and Google have implemented new measures to prevent similar misuse. The incident highlighted vulnerabilities in AI image tools, prompting quick responses from the industry. These steps aim to protect users from nonconsensual intimate imagery.

A University of Cambridge study on AI-enabled toys like Gabbo reveals they often misinterpret children's emotional cues and disrupt developmental play, despite benefits for language skills. Researchers, led by Jenny Gibson and Emily Goodacre, urge regulation, clear labeling, parental supervision, and collaboration between tech firms and child development experts.

Rapporterad av AI

Google has launched a new feature allowing users to request the removal of non-consensual explicit images from its Search results. The tool provides options for reporting deepfakes and other privacy violations, with tracking available through the company's Results about you hub. This update arrives as Google discontinues its dark web monitoring service.

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj