Illustration depicting AI cancer diagnostic tool inferring patient demographics and revealing performance biases across groups, with researchers addressing the issue.
Image générée par IA

Les outils d’IA contre le cancer peuvent déduire la démographie des patients, soulevant des inquiétudes sur les biais

Image générée par IA
Vérifié par des faits

Les systèmes d’intelligence artificielle conçus pour diagnostiquer le cancer à partir de lames de tissu apprennent à déduire la démographie des patients, entraînant des performances diagnostiques inégales entre groupes raciaux, de genre et d’âge. Des chercheurs de la Harvard Medical School et leurs collaborateurs ont identifié le problème et développé une méthode qui réduit fortement ces disparités, soulignant la nécessité de contrôles systématiques des biais dans l’IA médicale.

La pathologie repose depuis longtemps sur l’examen de coupes minces de tissu au microscope pour diagnostiquer le cancer, un processus qui ne révèle généralement pas les caractéristiques démographiques d’un patient à l’œil humain. Pourtant, une nouvelle recherche montre que les modèles d’IA entrant dans les laboratoires de pathologie ne partagent pas cette limitation.

Une étude menée par Kun-Hsing Yu, professeur associé d’informatique biomédicale à l’Institut Blavatnik de la Harvard Medical School et professeur assistant de pathologie à l’hôpital Brigham and Women’s, a analysé plusieurs systèmes standards de pathologie par apprentissage profond entraînés sur de grandes collections de lames annotées pour le diagnostic du cancer.

Selon la Harvard Medical School et l’étude publiée dans Cell Reports Medicine, l’équipe a évalué quatre modèles d’IA pathologique couramment utilisés sur un vaste dépôt multi-institutionnel de lames de pathologie couvrant 20 types de cancer.

Les chercheurs ont constaté que les quatre modèles présentaient des performances inégales entre groupes démographiques définis par la race, le genre et l’âge auto-déclarés des patients. Dans une analyse pan-cancer, ils ont identifié des disparités significatives de performance dans environ 29 % des tâches diagnostiques.

Des reportages de suivi par des médias comme News-Medical notent que les disparités étaient particulièrement évidentes dans certaines tâches de sous-types de cancer du poumon et du sein, avec un sous-rendement pour les patients afro-américains et certains patients masculins sur les distinctions de cancer du poumon, et pour les patients plus jeunes sur plusieurs distinctions de sous-types de cancer du sein.

L’équipe de recherche a attribué ces écarts à plusieurs facteurs. L’un était la représentation inégale des groupes démographiques dans les données d’entraînement. Un autre concernait les différences d’incidence et de biologie de la maladie entre populations. L’article de Cell Reports Medicine rapporte en outre que les variations dans la prévalence des mutations somatiques entre populations ont contribué aux disparités de performance, suggérant que les modèles captaient des motifs moléculaires subtils liés à la démographie ainsi qu’à la maladie.

« Lire la démographie sur une lame de pathologie est considéré comme une ‘mission impossible’ pour un pathologiste humain, donc le biais dans l’IA pathologique nous a surpris », a déclaré Yu, selon la Harvard Medical School.

Pour résoudre le problème, les chercheurs ont développé FAIR-Path (Fairness-aware Artificial Intelligence Review for Pathology), un cadre de mitigation des biais basé sur un concept d’apprentissage automatique existant connu sous le nom d’apprentissage contrastif. Cette approche incite les modèles à mettre l’accent sur les différences entre types de cancer tout en atténuant les différences liées aux catégories démographiques.

Dans l’étude Cell Reports Medicine, FAIR-Path a atténué 88,5 % des disparités de performance mesurées entre groupes démographiques dans l’analyse pan-cancer principale et a réduit les écarts de performance de 91,1 % dans la validation externe sur 15 cohortes indépendantes.

Yu et ses collègues rapportent que FAIR-Path a amélioré l’équité sans nécessiter de jeux de données parfaitement équilibrés et avec des modifications relativement modestes aux pipelines d’entraînement de modèles existants.

Ce travail, décrit le 16 décembre 2025 dans Cell Reports Medicine, met en lumière l’importance de tester systématiquement les systèmes d’IA médicale pour les biais démographiques avant leur déploiement en soins cliniques.

Selon des couvertures de suivi de la Harvard Medical School et SciTechDaily, l’équipe explore désormais comment étendre FAIR-Path à des contextes avec des données limitées et mieux comprendre comment les biais induits par l’IA contribuent à des disparités plus larges dans les résultats de santé. Leur objectif à long terme est de développer des outils d’IA pathologique qui assistent les experts humains en fournissant des diagnostics rapides, précis et équitables pour les patients de tous horizons.

Ce que les gens disent

Les discussions sur X se composent principalement de partages neutres de la recherche de la Harvard Medical School révélant que les outils de diagnostic du cancer par IA déduisent la démographie des patients à partir de lames de pathologie, causant des biais de performance entre groupes raciaux, de genre et d’âge. Les posters mettent en avant la nouvelle méthode FAIR-Path réduisant les disparités jusqu’à 88 %, insistant sur l’importance de la mitigation des biais en IA médicale. Opinions limitées, faible engagement, couverture multilingue.

Articles connexes

Researchers in a lab using the V2P AI tool to analyze genetic mutations and predict disease categories on a high-tech screen.
Image générée par IA

Outil d’IA relie les mutations génétiques aux catégories probables de maladies

Rapporté par l'IA Image générée par IA Vérifié par des faits

Des chercheurs de l’Icahn School of Medicine at Mount Sinai ont développé un système d’intelligence artificielle appelé V2P qui évalue non seulement si les mutations génétiques sont probablement nocives, mais prédit aussi les grandes catégories de maladies qu’elles peuvent causer. Cette approche, décrite dans un article de Nature Communications, vise à accélérer le diagnostic génétique et à soutenir des traitements plus personnalisés, en particulier pour les affections rares et complexes.

Un nouvel outil d'IA générative appelé CytoDiffusion analyse les cellules sanguines avec une plus grande précision que les experts humains, améliorant potentiellement les diagnostics de maladies comme la leucémie. Développé par des chercheurs d'universités britanniques, le système détecte des anomalies subtiles et quantifie son propre degré d'incertitude. Il a été entraîné sur plus de 500 000 images et excelle à signaler les cas rares pour examen.

Rapporté par l'IA

Katie Wells, fondatrice de Wellness Mama, partage des insights tirés de son évaluation personnalisée des risques pour la santé à l'aide d'outils propulsés par l'IA, soulignant comment les facteurs de mode de vie peuvent influencer de manière significative les risques de maladies chroniques. L'évaluation, alimentée par des données de plus de 10 000 études, a montré que son risque de cancer était inférieur à la moyenne de la population malgré ses antécédents familiaux. Elle met en évidence un virage vers une prévention proactive plutôt que vers une médecine réactive.

Un commentaire de CNET soutient que décrire l’IA comme dotée de qualités humaines telles que des âmes ou des confessions égare le public et érode la confiance dans la technologie. Il met en lumière comment des entreprises comme OpenAI et Anthropic utilisent un tel langage, qui occulte les vrais problèmes comme les biais et la sécurité. L’article plaide pour une terminologie plus précise afin de favoriser une compréhension exacte.

Rapporté par l'IA

Certains utilisateurs de chatbots d'IA de Google et OpenAI génèrent des images deepfake qui modifient des photos de femmes entièrement vêtues pour les montrer en bikini. Ces modifications se font souvent sans le consentement des femmes, et les instructions pour le processus sont partagées entre utilisateurs. Cette activité met en lumière les risques des outils d'IA générative.

A recent Ascun study shows artificial intelligence is now a reality in Colombian higher education, but most institutions lack policies and structures for its regulation. While 88.5% of students use it for assignments, only 55.2% of higher education institutions have AI guidelines. Public policy lags behind, creating gaps in equity and educational quality.

Rapporté par l'IA

Les experts prévoient 2026 comme l’année charnière pour les modèles du monde, systèmes d’IA conçus pour appréhender le monde physique plus profondément que les grands modèles de langage. Ces modèles visent à ancrer l’IA dans la réalité, favorisant des avancées en robotique et véhicules autonomes. Des leaders de l’industrie comme Yann LeCun et Fei-Fei Li soulignent leur potentiel à révolutionner l’intelligence spatiale.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser