Les systèmes d’intelligence artificielle conçus pour diagnostiquer le cancer à partir de lames de tissu apprennent à déduire la démographie des patients, entraînant des performances diagnostiques inégales entre groupes raciaux, de genre et d’âge. Des chercheurs de la Harvard Medical School et leurs collaborateurs ont identifié le problème et développé une méthode qui réduit fortement ces disparités, soulignant la nécessité de contrôles systématiques des biais dans l’IA médicale.
La pathologie repose depuis longtemps sur l’examen de coupes minces de tissu au microscope pour diagnostiquer le cancer, un processus qui ne révèle généralement pas les caractéristiques démographiques d’un patient à l’œil humain. Pourtant, une nouvelle recherche montre que les modèles d’IA entrant dans les laboratoires de pathologie ne partagent pas cette limitation.
Une étude menée par Kun-Hsing Yu, professeur associé d’informatique biomédicale à l’Institut Blavatnik de la Harvard Medical School et professeur assistant de pathologie à l’hôpital Brigham and Women’s, a analysé plusieurs systèmes standards de pathologie par apprentissage profond entraînés sur de grandes collections de lames annotées pour le diagnostic du cancer.
Selon la Harvard Medical School et l’étude publiée dans Cell Reports Medicine, l’équipe a évalué quatre modèles d’IA pathologique couramment utilisés sur un vaste dépôt multi-institutionnel de lames de pathologie couvrant 20 types de cancer.
Les chercheurs ont constaté que les quatre modèles présentaient des performances inégales entre groupes démographiques définis par la race, le genre et l’âge auto-déclarés des patients. Dans une analyse pan-cancer, ils ont identifié des disparités significatives de performance dans environ 29 % des tâches diagnostiques.
Des reportages de suivi par des médias comme News-Medical notent que les disparités étaient particulièrement évidentes dans certaines tâches de sous-types de cancer du poumon et du sein, avec un sous-rendement pour les patients afro-américains et certains patients masculins sur les distinctions de cancer du poumon, et pour les patients plus jeunes sur plusieurs distinctions de sous-types de cancer du sein.
L’équipe de recherche a attribué ces écarts à plusieurs facteurs. L’un était la représentation inégale des groupes démographiques dans les données d’entraînement. Un autre concernait les différences d’incidence et de biologie de la maladie entre populations. L’article de Cell Reports Medicine rapporte en outre que les variations dans la prévalence des mutations somatiques entre populations ont contribué aux disparités de performance, suggérant que les modèles captaient des motifs moléculaires subtils liés à la démographie ainsi qu’à la maladie.
« Lire la démographie sur une lame de pathologie est considéré comme une ‘mission impossible’ pour un pathologiste humain, donc le biais dans l’IA pathologique nous a surpris », a déclaré Yu, selon la Harvard Medical School.
Pour résoudre le problème, les chercheurs ont développé FAIR-Path (Fairness-aware Artificial Intelligence Review for Pathology), un cadre de mitigation des biais basé sur un concept d’apprentissage automatique existant connu sous le nom d’apprentissage contrastif. Cette approche incite les modèles à mettre l’accent sur les différences entre types de cancer tout en atténuant les différences liées aux catégories démographiques.
Dans l’étude Cell Reports Medicine, FAIR-Path a atténué 88,5 % des disparités de performance mesurées entre groupes démographiques dans l’analyse pan-cancer principale et a réduit les écarts de performance de 91,1 % dans la validation externe sur 15 cohortes indépendantes.
Yu et ses collègues rapportent que FAIR-Path a amélioré l’équité sans nécessiter de jeux de données parfaitement équilibrés et avec des modifications relativement modestes aux pipelines d’entraînement de modèles existants.
Ce travail, décrit le 16 décembre 2025 dans Cell Reports Medicine, met en lumière l’importance de tester systématiquement les systèmes d’IA médicale pour les biais démographiques avant leur déploiement en soins cliniques.
Selon des couvertures de suivi de la Harvard Medical School et SciTechDaily, l’équipe explore désormais comment étendre FAIR-Path à des contextes avec des données limitées et mieux comprendre comment les biais induits par l’IA contribuent à des disparités plus larges dans les résultats de santé. Leur objectif à long terme est de développer des outils d’IA pathologique qui assistent les experts humains en fournissant des diagnostics rapides, précis et équitables pour les patients de tous horizons.