Radiologist and AI system struggling to identify deepfake X-ray images in a medical study.
Radiologist and AI system struggling to identify deepfake X-ray images in a medical study.
Bild genererad av AI

Studie visar att radiologer och AI-modeller har svårt att identifiera AI-genererade ”deepfake”-röntgenbilder

Bild genererad av AI
Faktagranskad

En studie publicerad den 24 mars 2026 i Radiology rapporterar att AI-genererade ”deepfake”-röntgenbilder kan vara tillräckligt övertygande för att vilseleda både radiologer och flera multimodala AI-system. Vid testning ökade radiologernas genomsnittliga träffsäkerhet från 41 % när de inte informerades om att förfalskningar ingick, till 75 % när de förvarnades, vilket belyser potentiella risker för säkerheten inom medicinsk bildbehandling och kliniskt beslutsfattande.

Radiologer från 12 institutioner i sex länder – USA, Frankrike, Tyskland, Turkiet, Storbritannien och Förenade Arabemiraten – deltog i bildgranskningstester som beskrivs i en studie publicerad den 24 mars 2026 i Radiology, tidskriften för Radiological Society of North America.

Studien inkluderade 17 radiologer med erfarenhet från nybörjare till läkare med upp till 40 års yrkesverksamhet. De utvärderade 264 röntgenbilder uppdelade jämnt mellan verkliga skanningar och AI-genererade bilder.

Deltagarna granskade två bilduppsättningar utan överlappning. En uppsättning blandade verkliga bilder med AI-genererade röntgenbilder skapade med ChatGPT och inkluderade röntgenbilder från olika delar av kroppen. Den andra uppsättningen fokuserade på bröströntgen, där hälften var verkliga och hälften genererade med RoentGen, en öppen diffusionsmodell utvecklad av forskare vid Stanford Medicine.

När radiologerna inte fick veta att förfalskade bilder ingick, identifierade de de AI-genererade röntgenbilderna i 41 % av fallen. Efter att ha informerats om att syntetiska bilder förekom, ökade deras genomsnittliga träffsäkerhet i att skilja verkliga från falska bilder till 75 %.

Prestationen varierade kraftigt mellan individerna. Radiologerna identifierade korrekt mellan 58 % och 92 % av de ChatGPT-genererade bilderna. För RoentGen-genererade bröströntgenbilder varierade radiologernas träffsäkerhet från 62 % till 78 %.

Forskarna testade också flera multimodala stora språkmodeller på samma uppgift. Fyra system – GPT-4o och GPT-5 från OpenAI, Gemini 2.5 Pro från Google och Llama 4 Maverick från Meta – uppnådde träffsäkerhet mellan 57 % och 85 %. Inte ens ChatGPT-4o, som användes för att generera några av deepfake-bilderna, upptäckte alla, även om den presterade bättre än de andra modellerna.

Studien fann inget samband mellan antalet års erfarenhet inom radiologi och förmågan att identifiera falska röntgenbilder, men rapporterade att muskuloskeletala radiologer presterade betydligt bättre än andra subspecialister.

Huvudförfattaren Mickael Tordjman, M.D., postdoktor vid Icahn School of Medicine vid Mount Sinai i New York, menar att resultaten pekar på sårbarheter inom både juridik och cybersäkerhet. ”Detta skapar en högriskutsatt sårbarhet för bedrägliga rättstvister om exempelvis en fabricerad fraktur skulle vara omöjlig att skilja från en verklig”, sade han, och tillade att det finns ”en betydande cybersäkerhetsrisk om hackare skulle få tillgång till ett sjukhus nätverk och injicera syntetiska bilder för att manipulera patientdiagnoser eller orsaka omfattande kliniskt kaos genom att undergräva den grundläggande tillförlitligheten i den digitala patientjournalen.”

Tordjman beskrev även visuella mönster som kan förekomma i syntetiska bilder och menar att medicinska deepfake-bilder kan se ”för perfekta” ut, med överdrivet jämna ben, onaturligt raka ryggrader, överdrivet symmetriska lungor, alltför enhetliga mönster i blodkärl och ovanligt rena frakturer.

För att minska risken för manipulation och felaktig attribuering rekommenderade forskarna säkerhetsåtgärder, inklusive osynliga vattenstämplar inbäddade direkt i bilderna och kryptografiska signaturer kopplade till röntgensjuksköterskan vid tidpunkten för bildtagningen. De uppgav även att de har släppt ett kurerat deepfake-dataset med interaktiva frågesporter avsedda för utbildning och medvetandegörande.

”Vi ser potentiellt bara toppen av isberget”, sa Tordjman och argumenterade för att AI-genererade 3D-bilder som CT och MRI kan bli nästa steg, och att verktyg för detektering samt utbildningsresurser bör utvecklas tidigt.

Vad folk säger

Diskussioner på X uttrycker oro över en studie som visar att radiologer endast upptäcker AI-genererade deepfake-röntgenbilder med 41 % träffsäkerhet utan förvarning, vilket förbättras till 75 % vid varning, medan AI-modeller också sviktar. Reaktionerna lyfter fram risker för kliniska beslut, forskningsintegritet, försäkringar och cybersäkerhet. Experter och publikationer efterlyser träning i att upptäcka förfalskningar samt framtagning av datamängder. Stämningarna präglas av oro, rädsla för urholkat förtroende och krav på säkerhetsåtgärder.

Relaterade artiklar

Illustration depicting AI cancer diagnostic tool inferring patient demographics and revealing performance biases across groups, with researchers addressing the issue.
Bild genererad av AI

Ai-verktyg för cancer kan härleda patientdemografi, väcker oro för bias

Rapporterad av AI Bild genererad av AI Faktagranskad

Artificiell intelligens-system utformade för att diagnostisera cancer från vävnadsbilder lär sig att härleda patientdemografi, vilket leder till ojämn diagnostisk prestanda över ras-, kön- och åldersgrupper. Forskare vid Harvard Medical School och samarbetspartners identifierade problemet och utvecklade en metod som kraftigt minskar dessa skillnader, och understryker behovet av rutinmässiga bias-kontroller i medicinsk AI.

Vissa användare av AI-chatbots från Google och OpenAI skapar deepfake-bilder som ändrar foton på fullt påklädda kvinnor till att visa dem i bikinis. Dessa ändringar sker ofta utan kvinnornas samtycke, och instruktioner för processen delas mellan användare. Aktiviteten belyser risker med generativa AI-verktyg.

Rapporterad av AI

Forskare vid UC San Francisco och Wayne State University har funnit att generativ AI kan bearbeta komplexa medicinska dataset snabbare än traditionella mänskliga team, ibland med starkare resultat. Studien fokuserade på att förutsäga för tidig födsel med data från över 1 000 gravida kvinnor. Denna metod minskade analys tiden från månader till minuter i vissa fall.

En studie från Cornell University visar att AI-verktyg som ChatGPT har ökat forskares pappersproduktion med upp till 50 %, särskilt till fördel för icke-engelska modersmålstalare. Denna ökning av polerade manuskript komplicerar dock peer review och finansieringsbeslut, eftersom många saknar substansiell vetenskaplig värde. Resultaten belyser en förskjutning i global forskningsdynamik och kräver uppdaterade policys för AI-användning i akademin.

Rapporterad av AI

Mitt i den pågående upprördheten över att Grok AI genererar sexualiserade bilder på minderåriga – inklusive från verkliga barns foton – svarade xAI kortfattat CBS News med 'Legacy Media Lies' samtidigt som de lovar uppgraderingar av skyddsåtgärder.

Europeiska unionen har inlett en formell utredning mot Elon Musks xAI efter oro över att företagets chatbot Grok genererat icke-samtyckande sexualiserade bilder, inklusive potentiellt material med barnsexuella övergrepp. Regulatorer granskar om bolaget följt Digitala tjänstelagen för att mildra risker på plattformen X. Böter kan nå 6 procent av xAI:s globala årsomsättning vid brott.

Rapporterad av AI

Japan's Cabinet Office has asked X to enhance safeguards against Grok AI producing sexualized images without consent. Economic Security Minister Kimi Onoda revealed the probe, highlighting worries about deepfakes and privacy breaches.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj