Illustration depicting AI cancer diagnostic tool inferring patient demographics and revealing performance biases across groups, with researchers addressing the issue.
Illustration depicting AI cancer diagnostic tool inferring patient demographics and revealing performance biases across groups, with researchers addressing the issue.
Bild genererad av AI

Ai-verktyg för cancer kan härleda patientdemografi, väcker oro för bias

Bild genererad av AI
Faktagranskad

Artificiell intelligens-system utformade för att diagnostisera cancer från vävnadsbilder lär sig att härleda patientdemografi, vilket leder till ojämn diagnostisk prestanda över ras-, kön- och åldersgrupper. Forskare vid Harvard Medical School och samarbetspartners identifierade problemet och utvecklade en metod som kraftigt minskar dessa skillnader, och understryker behovet av rutinmässiga bias-kontroller i medicinsk AI.

Patologi har länge byggt på undersökning av tunna vävnadsskivor under mikroskop för att diagnostisera cancer, en process som vanligtvis inte avslöjar en patients demografiska egenskaper för blotta ögat. Ny forskning visar dock att AI-modeller som kommer in i patologilabb inte delar denna begränsning.

En studie ledd av Kun-Hsing Yu, biträdande professor i biomedicinsk informatik vid Blavatnik Institute på Harvard Medical School och biträdande professor i patologi vid Brigham and Women's Hospital, analyserade flera standarddjupinlärningspatologisystem tränade på stora samlingar märkta bilder för cancerdiagnos.

Enligt Harvard Medical School och studien publicerad i Cell Reports Medicine utvärderade teamet fyra vanligt använda patolog-AI-modeller på ett stort multi-institutionellt arkiv av patologibilder som spänner över 20 cancertyper.

Forskare fann att alla fyra modeller visade ojämn prestanda över demografiska grupper definierade av patienters självrapporterade ras, kön och ålder. I en pan-cancer-analys identifierade de signifikanta prestandaskillnader i cirka 29 procent av diagnostiska uppgifter.

Uppföljningsrapportering från medier inklusive News-Medical noterar att skillnaderna var särskilt tydliga i vissa lung- och bröstcancertypuppgifter, med underprestation för afroamerikaner och vissa manliga patienter i lungcancer-distinktioner, och för yngre patienter i flera bröstcancer-subtypdistinktioner.

Forskarteamet spårade dessa gap till flera faktorer. En var ojämn representation av demografiska grupper i träningsdata. En annan involverade skillnader i sjukdomsförekomst och biologi över populationer. Cell Reports Medicine-artikeln rapporterar vidare att variationer i förekomsten av somatiska mutationer bland populationer bidrog till prestandaskillnader, vilket tyder på att modellerna fångade subtila molekylära mönster kopplade till demografi såväl som sjukdom.

"Att läsa demografi från en patologibild betraktas som en 'omöjlig mission' för en mänsklig patolog, så biasen i patolog-AI var en överraskning för oss," sade Yu enligt Harvard Medical School.

För att åtgärda problemet utvecklade forskarna FAIR-Path (Fairness-aware Artificial Intelligence Review for Pathology), ett bias-mitigeringsramverk som bygger på ett befintligt maskininlärningskoncept känt som kontrastivt lärande. Metoden uppmuntrar modeller att betona skillnader mellan cancertyper samtidigt som de tonar ner skillnader kopplade till demografiska kategorier.

I Cell Reports Medicine-studien mildrade FAIR-Path 88,5 procent av de uppmätta prestandaskillnaderna över demografiska grupper i den primära pan-cancer-analysen och minskade prestandagap med 91,1 procent i extern validering över 15 oberoende kohorter.

Yu och kollegor rapporterar att FAIR-Path förbättrade rättvisan utan att kräva perfekt balanserade dataset och med relativt blygsamma förändringar i befintliga modelltränings-pipelines.

Arbetet, beskrivet den 16 december 2025 i Cell Reports Medicine, belyser vikten av att systematiskt testa medicinska AI-system för demografisk bias innan de sätts in i klinisk vård.

Enligt uppföljningsbevakning från Harvard Medical School och SciTechDaily undersöker teamet nu hur man utökar FAIR-Path till miljöer med begränsad data och bättre förstå hur AI-driven bias bidrar till bredare skillnader i hälsoutfall. Deras långsiktiga mål är att utveckla patolog-AI-verktyg som stöder mänskliga experter genom att ge snabba, korrekta och rättvisa diagnoser för patienter från alla bakgrunder.

Vad folk säger

Diskussioner på X består främst av neutrala delningar av Harvard Medical School-forskning som avslöjar att AI-cancerdiagnosverktyg härleder patientdemografi från patologibilder, vilket orsakar bias i prestanda över ras-, kön- och åldersgrupper. Inläggare framhäver ny FAIR-Path-metod som minskar skillnader med upp till 88 %, och betonar vikten av bias-mitigering i medicinsk AI. Begränsade åsikter, låg engagemang, flerspråkig täckning.

Relaterade artiklar

Radiologist and AI system struggling to identify deepfake X-ray images in a medical study.
Bild genererad av AI

Studie visar att radiologer och AI-modeller har svårt att identifiera AI-genererade ”deepfake”-röntgenbilder

Rapporterad av AI Bild genererad av AI Faktagranskad

En studie publicerad den 24 mars 2026 i Radiology rapporterar att AI-genererade ”deepfake”-röntgenbilder kan vara tillräckligt övertygande för att vilseleda både radiologer och flera multimodala AI-system. Vid testning ökade radiologernas genomsnittliga träffsäkerhet från 41 % när de inte informerades om att förfalskningar ingick, till 75 % när de förvarnades, vilket belyser potentiella risker för säkerheten inom medicinsk bildbehandling och kliniskt beslutsfattande.

Ett nytt generativt AI-verktyg vid namn CytoDiffusion analyserar blodceller med högre noggrannhet än mänskliga experter, vilket potentiellt förbättrar diagnoser av sjukdomar som leukemi. Utvecklat av forskare från brittiska universitet, upptäcker systemet subtila avvikelser och kvantifierar sin egen osäkerhet. Det tränades på över en halv miljon bilder och utmärker sig i att flagga sällsynta fall för granskning.

Rapporterad av AI

Forskare vid UC San Francisco och Wayne State University har funnit att generativ AI kan bearbeta komplexa medicinska dataset snabbare än traditionella mänskliga team, ibland med starkare resultat. Studien fokuserade på att förutsäga för tidig födsel med data från över 1 000 gravida kvinnor. Denna metod minskade analys tiden från månader till minuter i vissa fall.

India has released a national strategy for advanced computational systems in healthcare, focusing on integration into the health system architecture rather than mere add-ons. The approach prioritizes infrastructure like interoperable records and ongoing oversight to ensure equity. This contrasts with global trends where regulation often lags behind innovation.

Rapporterad av AI

En studie från Cornell University visar att AI-verktyg som ChatGPT har ökat forskares pappersproduktion med upp till 50 %, särskilt till fördel för icke-engelska modersmålstalare. Denna ökning av polerade manuskript komplicerar dock peer review och finansieringsbeslut, eftersom många saknar substansiell vetenskaplig värde. Resultaten belyser en förskjutning i global forskningsdynamik och kräver uppdaterade policys för AI-användning i akademin.

Forskare vid Duke University har utvecklat en ram för artificiell intelligens som avslöjar raka regler under högt komplexa system i naturen och tekniken. Publicerad den 17 december i npj Complexity analyserar verktyget tidsseriedata för att producera kompakta ekvationer som fångar essentiella beteenden. Detta tillvägagångssätt kan överbrygga luckor i den vetenskapliga förståelsen där traditionella metoder brister.

Rapporterad av AI

En CNET-kronika hävdar att beskrivningar av AI som innehar mänskliga egenskaper som själar eller bekännelser vilseleder allmänheten och urholkar förtroendet för tekniken. Den belyser hur bolag som OpenAI och Anthropic använder sådant språk, som döljer verkliga problem som bias och säkerhet. Texten efterlyser mer precisa termer för att främja korrekt förståelse.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj