Användare missbrukar Google och OpenAI-chatbots för bikini-deepfakes

Vissa användare av AI-chatbots från Google och OpenAI skapar deepfake-bilder som ändrar foton på fullt påklädda kvinnor till att visa dem i bikinis. Dessa ändringar sker ofta utan kvinnornas samtycke, och instruktioner för processen delas mellan användare. Aktiviteten belyser risker med generativa AI-verktyg.

Problemet rör populära chatbots utvecklade av Google och OpenAI, där användare matar in foton på kvinnor i vardagskläder och ber AI:n skapa ändrade versioner som visar dem i badkläder. Enligt rapporter skapas dessa bikini-deepfakes med generativa AI-funktioner, vilket resulterar i realistiska bilder som tar bort den ursprungliga klädseln.

De flesta av dessa fabricerade bilder saknar tillstånd från de avbildade, vilket väcker allvarliga etiska frågor om integritet och samtycke i AI-applikationer. Användare på plattformar som Reddit utbyter detaljerade råd om hur man formulerar sådana prompts för övertygande resultat med chatbots som OpenAI:s ChatGPT.

Detta missbruk visar hur tillgängliga AI-bildgeneratorer kan utnyttjas för icke-samtyckta ändringar, vilket potentiellt kan leda till trakasserier eller desinformation. Praxisen understryker behovet av skyddsåtgärder i AI-programvara för att förhindra skadlig deepfake-generering. Även om chatbots är utformade för hjälpsamma interaktioner har deras bildredigeringsfunktioner möjliggjort denna oavsiktliga användning.

Uppgifterna kommer mitt i en ökande granskning av deepfake-teknologier, som blandar artificiell intelligens med befintliga medier för att skapa vilseledande innehåll.

Relaterade artiklar

Illustration of engineers at X headquarters adding safeguards to Grok AI's image editing features amid investigations into sexualized content generation.
Bild genererad av AI

X lägger till skyddsåtgärder för Groks bildredigering mitt i eskalerande undersökningar om sexualiserat innehåll

Rapporterad av AI Bild genererad av AI

Som svar på den pågående Grok AI-kontroversen —som initialt utlöstes av en incident den 28 december 2025 som genererade sexualiserade bilder på minderåriga— har X begränsat chatbotens bildredigeringsfunktioner för att förhindra icke-samtyckande ändringar av verkliga personer till avslöjande kläder som bikinis. Förändringarna följer nya undersökningar från kaliforniska myndigheter, globala blockeringar och kritik mot tusentals skadliga bilder som producerats.

Medan Grok AI utreds av myndigheter för sexualiserade bilder — inklusive digitalt manipulerad nakenhet av kvinnor, män och minderåriga — översvämmas internet nu av fejkade bikinibilder på främlingar skapade av X-chatboten. Elon Musk avfärdar kritikerna medan EU-reglerare överväger AI Act för ingripande.

Rapporterad av AI

Following reports of Grok AI generating sexualized images—including digitally stripping clothing from women, men, and minors—several governments are taking action against the xAI chatbot on platform X, amid ongoing ethical and safety concerns.

Energi- och näringsminister Ebba Busch (KD) har kommenterat en AI-genererad bild av sig själv i bikini som spreds på plattformen X. Bilden skapades med Elon Musks AI-verktyg Grok och har väckt stark kritik. Busch betonar vikten av samtycke och varnar för missbruk av tekniken.

Rapporterad av AI

Cybersäkerhetsexperter blir alltmer oroade över hur artificiell intelligens omformar cyberbrottslighet, med verktyg som deepfakes, AI-phishing och mörka stora språkmodeller som gör det möjligt även för nybörjare att utföra avancerade bedrägerier. Dessa utvecklingar utgör betydande risker för företag kommande år. Publicerade insikter från TechRadar understryker omfattningen och sofistikeringen hos dessa nya hot.

Europeiska unionen har inlett en formell utredning mot Elon Musks xAI efter oro över att företagets chatbot Grok genererat icke-samtyckande sexualiserade bilder, inklusive potentiellt material med barnsexuella övergrepp. Regulatorer granskar om bolaget följt Digitala tjänstelagen för att mildra risker på plattformen X. Böter kan nå 6 procent av xAI:s globala årsomsättning vid brott.

Rapporterad av AI

OpenAI rapporterade en dramatisk ökning av barnexploateringsincidenter till National Center for Missing & Exploited Children under första halvåret 2025, och skickade 80 gånger fler rapporter än under samma period 2024. Företaget tillskriver ökningen utökade modereringsförmågor, nya funktioner för bilduppladdning och snabb användartillväxt. Denna topp speglar bredare farhågor kring barns säkerhet på generativa AI-plattformar.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj