L’IA booste la productivité scientifique mais érode la qualité des articles

Une étude de l’université Cornell révèle que des outils d’IA comme ChatGPT ont augmenté la production d’articles des chercheurs jusqu’à 50 %, bénéficiant particulièrement aux non-anglophones. Cependant, cette vague de manuscrits polis complique les évaluations par les pairs et les décisions de financement, car beaucoup manquent de valeur scientifique substantielle. Les résultats soulignent un changement dans les dynamiques de la recherche mondiale et appellent à des politiques actualisées sur l’utilisation de l’IA en académie.

Depuis l’adoption massive de ChatGPT fin 2022, les scientifiques ont signalé une productivité accrue, les éditeurs de revues notant un afflux de soumissions bien rédigées mais de faible valeur. Une étude de Cornell, publiée le 18 décembre 2025 dans Science, a analysé plus de 2 millions de prépublications d’arXiv, bioRxiv et SSRN, de janvier 2018 à juin 2024. Les chercheurs ont développé un détecteur pour identifier les articles assistés par LLM en les comparant à ceux écrits par des humains avant 2023.

Les résultats montrent un net gain de productivité : les auteurs utilisant probablement des LLM ont publié environ un tiers de papiers en plus sur arXiv et plus de 50 % sur bioRxiv et SSRN. Les gains ont été les plus marqués pour les non-anglophones, les chercheurs d’institutions asiatiques augmentant leur production de 43 % à 89,3 %, selon la plateforme. « C’est un schéma très répandu, dans différents domaines scientifiques », a déclaré Yian Yin, professeur assistant en science de l’information au Ann S. Bowers College of Computing and Information Science de Cornell.

Au-delà de l’écriture, des outils de recherche IA comme Bing Chat ont amélioré les revues de littérature en mettant en avant des sources plus récentes et diversifiées. Le premier auteur, Keigo Kusumegi, a noté : « Les personnes utilisant des LLM se connectent à des savoirs plus diversifiés, ce qui pourrait favoriser des idées plus créatives. »

Pourtant, des défis émergent dans l’évaluation. Les articles humains avec un langage complexe signalent souvent qualité et taux d’acceptation plus élevés. À l’inverse, les articles assistés par LLM, malgré une prose sophistiquée, sont moins acceptés, suggérant que le poli ne reflète plus fiablement la valeur. Ce décalage pourrait gêner éditeurs, relecteurs et financeurs, les comptes bruts de publications devenant trompeurs.

L’étude observationnelle appelle à des suivis expérimentaux et mises à jour des politiques. Yin organise un symposium du 3 au 5 mars 2026 à Ithaca pour discuter du rôle de l’IA dans la recherche. Co-auteurs : Xinyu Yang, Paul Ginsparg, Mathijs de Vaan et Toby Stuart ; financement de la National Science Foundation.

Tandis que l’IA évolue vers un « co-scientifique », Yin insiste sur la transparence : « La question est : comment exactement avez-vous utilisé l’IA et est-ce utile ou non. »

Articles connexes

Lors du sommet mondial de physique de l'American Physical Society à Denver, dans le Colorado, des milliers de chercheurs utilisent des agents conversationnels basés sur l'IA pour simplifier des présentations complexes. L'événement a suscité des discussions intenses sur la question de savoir si l'intelligence artificielle transformera la recherche en physique. Les intervenants ont présenté des points de vue contrastés sur le potentiel et les limites de l'IA.

Rapporté par l'IA

Une nouvelle étude de l’université Brown identifie des préoccupations éthiques majeures concernant l’utilisation de chatbots IA comme ChatGPT pour des conseils en santé mentale. Les chercheurs ont constaté que ces systèmes violent souvent les normes professionnelles même lorsqu’on leur demande d’agir comme thérapeutes. L’étude appelle à de meilleures protections avant de déployer de tels outils dans des domaines sensibles.

Une étude appliquant l’examen d’entrée à l’université chilien, PAES 2026, aux modèles d’IA montre que plusieurs systèmes obtiennent des scores suffisamment élevés pour des programmes sélectifs comme la médecine et l’ingénierie civile. Gemini de Google a mené avec des moyennes proches de 950 points, surpassant des rivaux comme ChatGPT. L’expérience souligne les progrès de l’IA et soulève des questions sur l’efficacité des tests standardisés.

Rapporté par l'IA

Wikipédia a interdit l'utilisation de modèles de langage étendus pour créer ou réécrire le contenu des articles, invoquant des violations des politiques fondamentales en matière de contenu. Les modifications de base, telles que la correction de fautes de frappe et certaines traductions d'articles, sont autorisées sous des conditions strictes. Les détails de l'application de cette politique restent flous.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser