Illustration depicting AI cancer diagnostic tool inferring patient demographics and revealing performance biases across groups, with researchers addressing the issue.
Bild genererad av AI

Ai-verktyg för cancer kan härleda patientdemografi, väcker oro för bias

Bild genererad av AI
Faktagranskad

Artificiell intelligens-system utformade för att diagnostisera cancer från vävnadsbilder lär sig att härleda patientdemografi, vilket leder till ojämn diagnostisk prestanda över ras-, kön- och åldersgrupper. Forskare vid Harvard Medical School och samarbetspartners identifierade problemet och utvecklade en metod som kraftigt minskar dessa skillnader, och understryker behovet av rutinmässiga bias-kontroller i medicinsk AI.

Patologi har länge byggt på undersökning av tunna vävnadsskivor under mikroskop för att diagnostisera cancer, en process som vanligtvis inte avslöjar en patients demografiska egenskaper för blotta ögat. Ny forskning visar dock att AI-modeller som kommer in i patologilabb inte delar denna begränsning.

En studie ledd av Kun-Hsing Yu, biträdande professor i biomedicinsk informatik vid Blavatnik Institute på Harvard Medical School och biträdande professor i patologi vid Brigham and Women's Hospital, analyserade flera standarddjupinlärningspatologisystem tränade på stora samlingar märkta bilder för cancerdiagnos.

Enligt Harvard Medical School och studien publicerad i Cell Reports Medicine utvärderade teamet fyra vanligt använda patolog-AI-modeller på ett stort multi-institutionellt arkiv av patologibilder som spänner över 20 cancertyper.

Forskare fann att alla fyra modeller visade ojämn prestanda över demografiska grupper definierade av patienters självrapporterade ras, kön och ålder. I en pan-cancer-analys identifierade de signifikanta prestandaskillnader i cirka 29 procent av diagnostiska uppgifter.

Uppföljningsrapportering från medier inklusive News-Medical noterar att skillnaderna var särskilt tydliga i vissa lung- och bröstcancertypuppgifter, med underprestation för afroamerikaner och vissa manliga patienter i lungcancer-distinktioner, och för yngre patienter i flera bröstcancer-subtypdistinktioner.

Forskarteamet spårade dessa gap till flera faktorer. En var ojämn representation av demografiska grupper i träningsdata. En annan involverade skillnader i sjukdomsförekomst och biologi över populationer. Cell Reports Medicine-artikeln rapporterar vidare att variationer i förekomsten av somatiska mutationer bland populationer bidrog till prestandaskillnader, vilket tyder på att modellerna fångade subtila molekylära mönster kopplade till demografi såväl som sjukdom.

"Att läsa demografi från en patologibild betraktas som en 'omöjlig mission' för en mänsklig patolog, så biasen i patolog-AI var en överraskning för oss," sade Yu enligt Harvard Medical School.

För att åtgärda problemet utvecklade forskarna FAIR-Path (Fairness-aware Artificial Intelligence Review for Pathology), ett bias-mitigeringsramverk som bygger på ett befintligt maskininlärningskoncept känt som kontrastivt lärande. Metoden uppmuntrar modeller att betona skillnader mellan cancertyper samtidigt som de tonar ner skillnader kopplade till demografiska kategorier.

I Cell Reports Medicine-studien mildrade FAIR-Path 88,5 procent av de uppmätta prestandaskillnaderna över demografiska grupper i den primära pan-cancer-analysen och minskade prestandagap med 91,1 procent i extern validering över 15 oberoende kohorter.

Yu och kollegor rapporterar att FAIR-Path förbättrade rättvisan utan att kräva perfekt balanserade dataset och med relativt blygsamma förändringar i befintliga modelltränings-pipelines.

Arbetet, beskrivet den 16 december 2025 i Cell Reports Medicine, belyser vikten av att systematiskt testa medicinska AI-system för demografisk bias innan de sätts in i klinisk vård.

Enligt uppföljningsbevakning från Harvard Medical School och SciTechDaily undersöker teamet nu hur man utökar FAIR-Path till miljöer med begränsad data och bättre förstå hur AI-driven bias bidrar till bredare skillnader i hälsoutfall. Deras långsiktiga mål är att utveckla patolog-AI-verktyg som stöder mänskliga experter genom att ge snabba, korrekta och rättvisa diagnoser för patienter från alla bakgrunder.

Vad folk säger

Diskussioner på X består främst av neutrala delningar av Harvard Medical School-forskning som avslöjar att AI-cancerdiagnosverktyg härleder patientdemografi från patologibilder, vilket orsakar bias i prestanda över ras-, kön- och åldersgrupper. Inläggare framhäver ny FAIR-Path-metod som minskar skillnader med upp till 88 %, och betonar vikten av bias-mitigering i medicinsk AI. Begränsade åsikter, låg engagemang, flerspråkig täckning.

Relaterade artiklar

Researchers in a lab using the V2P AI tool to analyze genetic mutations and predict disease categories on a high-tech screen.
Bild genererad av AI

AI-verktyg kopplar genetiska mutationer till sannolika sjukdomskategorier

Rapporterad av AI Bild genererad av AI Faktagranskad

Forskare vid Icahn School of Medicine at Mount Sinai har utvecklat ett artificiellt intelligenssystem kallat V2P som inte bara bedömer om genetiska mutationer troligen är skadliga utan också förutsäger de breda sjukdomskategorier de kan orsaka. Metoden, som beskrivs i en artikel i Nature Communications, syftar till att påskynda genetisk diagnostik och stödja mer personanpassad behandling, särskilt för sällsynta och komplexa tillstånd.

Ett nytt generativt AI-verktyg vid namn CytoDiffusion analyserar blodceller med högre noggrannhet än mänskliga experter, vilket potentiellt förbättrar diagnoser av sjukdomar som leukemi. Utvecklat av forskare från brittiska universitet, upptäcker systemet subtila avvikelser och kvantifierar sin egen osäkerhet. Det tränades på över en halv miljon bilder och utmärker sig i att flagga sällsynta fall för granskning.

Rapporterad av AI

Katie Wells, grundare av Wellness Mama, delar med sig av insikter från sin personliga hälsoriskbedömning med AI-drivna verktyg, och belyser hur livsstilsfaktorer kan påverka kroniska sjukdomsrisker avsevärt. Bedömningen, som drivs av data från över 10 000 studier, visade att hennes cancerrisk ligger under befolkningsgenomsnittet trots familjehistoria. Den understryker en övergång till proaktiv prevention istället för reaktiv medicin.

En CNET-kronika hävdar att beskrivningar av AI som innehar mänskliga egenskaper som själar eller bekännelser vilseleder allmänheten och urholkar förtroendet för tekniken. Den belyser hur bolag som OpenAI och Anthropic använder sådant språk, som döljer verkliga problem som bias och säkerhet. Texten efterlyser mer precisa termer för att främja korrekt förståelse.

Rapporterad av AI

Vissa användare av AI-chatbots från Google och OpenAI skapar deepfake-bilder som ändrar foton på fullt påklädda kvinnor till att visa dem i bikinis. Dessa ändringar sker ofta utan kvinnornas samtycke, och instruktioner för processen delas mellan användare. Aktiviteten belyser risker med generativa AI-verktyg.

A recent Ascun study shows artificial intelligence is now a reality in Colombian higher education, but most institutions lack policies and structures for its regulation. While 88.5% of students use it for assignments, only 55.2% of higher education institutions have AI guidelines. Public policy lags behind, creating gaps in equity and educational quality.

Rapporterad av AI

Experter förutspår 2026 som det avgörande året för världmodeller, AI-system utformade för att förstå den fysiska världen djupare än stora språkmodeller. Dessa modeller syftar till att förankra AI i verkligheten och möjliggöra framsteg inom robotik och autonoma fordon. Branschledare som Yann LeCun och Fei-Fei Li framhåller deras potential att revolutionera rumslig intelligens.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj