L’IA générative surpasse les équipes humaines dans l’analyse de données médicales

Des chercheurs de l’UC San Francisco et de la Wayne State University ont découvert que l’IA générative peut traiter des ensembles de données médicales complexes plus rapidement que les équipes humaines traditionnelles, parfois avec des résultats plus solides. L’étude s’est concentrée sur la prédiction de l’accouchement prématuré à l’aide de données provenant de plus de 1 000 femmes enceintes. Cette approche a réduit le temps d’analyse de mois à minutes dans certains cas.

Des scientifiques de l’UC San Francisco et de la Wayne State University ont mené un test en conditions réelles de l’IA générative dans la recherche en santé, en comparant ses performances à celles d’experts humains. La tâche consistait à prédire l’accouchement prématuré, principale cause de mortalité néonatale aux États-Unis, où environ 1 000 bébés naissent prématurés chaque jour. Les chercheurs ont utilisé des données de microbiote compilées à partir d’environ 1 200 femmes enceintes dans neuf études, provenant du March of Dimes Preterm Birth Data Repository. Pour évaluer les capacités de l’IA, l’équipe s’est appuyée sur des ensembles de données de la compétition de crowdsourcing DREAM, qui avait impliqué plus de 100 équipes mondiales développant des modèles d’apprentissage automatique pour les risques d’accouchement prématuré et l’estimation de l’âge gestationnel. Les participants humains de cette compétition ont mis environ trois mois à construire des modèles, suivis de près de deux ans pour consolider et publier les résultats. Dans la nouvelle étude, huit chatbots IA ont reçu des invites en langage naturel pour générer du code analytique sans programmation humaine directe. Seuls quatre systèmes ont produit du code utilisable, mais ceux qui ont réussi ont égalé ou surpassé les performances des équipes humaines. Par exemple, une paire junior —Reuben Sarwal, étudiant en master à l’UCSF, et Victor Tarca, lycéen— a développé des modèles de prédiction avec l’aide de l’IA, générant du code fonctionnel en minutes plutôt qu’en heures ou jours requis par des programmeurs expérimentés. L’ensemble du processus, de la conception à la soumission à la revue, n’a pris que six mois. «Ces outils d’IA pourraient soulager l’un des plus grands goulots d’étranglement en science des données : la construction de nos pipelines d’analyse», a déclaré Marina Sirota, PhD, professeure de pédiatrie à l’UCSF et investigatrice principale du March of Dimes Prematurity Research Center. L’auteur co-senior Adi L. Tarca, PhD, de la Wayne State University, a ajouté : «Grâce à l’IA générative, les chercheurs ayant un bagage limité en science des données n’auront pas toujours besoin de former de vastes collaborations ou de passer des heures à déboguer du code. Ils pourront se concentrer sur la réponse aux bonnes questions biomédicales.» L’étude, co-écrite par Sirota et Tarca, souligne que l’IA nécessite une supervision humaine pour éviter des résultats trompeurs. Elle a été publiée dans Cell Reports Medicine le 17 février, mettant en lumière le potentiel pour un progrès plus rapide dans la compréhension des facteurs de risque d’accouchement prématuré.

Articles connexes

Illustration depicting AI cancer diagnostic tool inferring patient demographics and revealing performance biases across groups, with researchers addressing the issue.
Image générée par IA

Les outils d’IA contre le cancer peuvent déduire la démographie des patients, soulevant des inquiétudes sur les biais

Rapporté par l'IA Image générée par IA Vérifié par des faits

Les systèmes d’intelligence artificielle conçus pour diagnostiquer le cancer à partir de lames de tissu apprennent à déduire la démographie des patients, entraînant des performances diagnostiques inégales entre groupes raciaux, de genre et d’âge. Des chercheurs de la Harvard Medical School et leurs collaborateurs ont identifié le problème et développé une méthode qui réduit fortement ces disparités, soulignant la nécessité de contrôles systématiques des biais dans l’IA médicale.

Les modèles d'IA couramment utilisés, dont ChatGPT et Gemini, ne fournissent souvent pas de conseils adéquats pour les problèmes urgents de santé des femmes, selon un nouveau test de référence. Les chercheurs ont constaté que 60 % des réponses aux requêtes spécialisées étaient insuffisantes, soulignant les biais dans les données d'entraînement de l'IA. L'étude appelle à un meilleur contenu médical pour combler ces lacunes.

Rapporté par l'IA

Des chercheurs de l’Université du Michigan ont développé un système d’IA appelé Prima qui interprète les scanners IRM cérébraux en quelques secondes, identifiant des affections neurologiques avec une précision allant jusqu’à 97,5 %. L’outil signale également les cas urgents comme les AVC et les hémorragies cérébrales, accélérant potentiellement les réponses médicales. Les résultats de l’étude paraissent dans Nature Biomedical Engineering.

Des chercheurs de l’université Duke ont développé un cadre d’intelligence artificielle qui révèle des règles simples sous-jacentes à des systèmes hautement complexes dans la nature et la technologie. Publié le 17 décembre dans npj Complexity, l’outil analyse des données de séries temporelles pour produire des équations compactes capturant les comportements essentiels. Cette approche pourrait combler les lacunes dans la compréhension scientifique là où les méthodes traditionnelles échouent.

Rapporté par l'IA

Les agents de codage IA de sociétés comme OpenAI, Anthropic et Google permettent un travail prolongé sur des projets logiciels, y compris l'écriture d'applications et la correction de bugs sous surveillance humaine. Ces outils reposent sur de grands modèles de langage mais font face à des défis comme un traitement de contexte limité et des coûts computationnels élevés. Comprendre leur fonctionnement aide les développeurs à décider quand les déployer efficacement.

A poll by the Korea Chamber of Commerce and Industry (KCCI) shows South Korean workers have cut their hours by an average of 8.4 per week, or 17.8 percent overall, thanks to generative AI platforms. More than half of respondents use such tools daily, with the highest adoption in the information and telecommunications sector.

Rapporté par l'IA

Une nouvelle étude de l’université Brown identifie des préoccupations éthiques majeures concernant l’utilisation de chatbots IA comme ChatGPT pour des conseils en santé mentale. Les chercheurs ont constaté que ces systèmes violent souvent les normes professionnelles même lorsqu’on leur demande d’agir comme thérapeutes. L’étude appelle à de meilleures protections avant de déployer de tels outils dans des domaines sensibles.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser