Imagerie Médicale

Suivre
Radiologist and AI system struggling to identify deepfake X-ray images in a medical study.
Image générée par IA

Une étude révèle que les radiologues et les modèles d'IA peinent à détecter les radiographies « deepfake » générées par l'IA

Rapporté par l'IA Image générée par IA Vérifié par des faits

Une étude publiée le 24 mars 2026 dans la revue Radiology rapporte que des radiographies « deepfake » créées par intelligence artificielle peuvent être suffisamment convaincantes pour tromper les radiologues ainsi que plusieurs systèmes d'IA multimodaux. Lors des tests, le taux de précision moyen des radiologues est passé de 41 %, lorsqu'ils n'étaient pas avertis de la présence de fausses images, à 75 % après avoir été prévenus, ce qui souligne les risques potentiels pour la sécurité de l'imagerie médicale et la prise de décision clinique.

Des chercheurs de l’Université du Missouri rapportent qu’un petit fragment d’anticorps ciblant la protéine EphA2 peut être marqué avec un traceur radioactif pour faire ressortir les tumeurs positives à EphA2 sur des TEP lors d’expériences sur des souris, une étape qu’ils estiment pouvoir aider à associer les patients aux thérapies ciblant EphA2.

Rapporté par l'IA

Des chercheurs de l’Université du Michigan ont développé un système d’IA appelé Prima qui interprète les scanners IRM cérébraux en quelques secondes, identifiant des affections neurologiques avec une précision allant jusqu’à 97,5 %. L’outil signale également les cas urgents comme les AVC et les hémorragies cérébrales, accélérant potentiellement les réponses médicales. Les résultats de l’étude paraissent dans Nature Biomedical Engineering.

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser