Une étude de l’université Cornell révèle que des outils d’IA comme ChatGPT ont augmenté la production d’articles des chercheurs jusqu’à 50 %, bénéficiant particulièrement aux non-anglophones. Cependant, cette vague de manuscrits polis complique les évaluations par les pairs et les décisions de financement, car beaucoup manquent de valeur scientifique substantielle. Les résultats soulignent un changement dans les dynamiques de la recherche mondiale et appellent à des politiques actualisées sur l’utilisation de l’IA en académie.
Depuis l’adoption massive de ChatGPT fin 2022, les scientifiques ont signalé une productivité accrue, les éditeurs de revues notant un afflux de soumissions bien rédigées mais de faible valeur. Une étude de Cornell, publiée le 18 décembre 2025 dans Science, a analysé plus de 2 millions de prépublications d’arXiv, bioRxiv et SSRN, de janvier 2018 à juin 2024. Les chercheurs ont développé un détecteur pour identifier les articles assistés par LLM en les comparant à ceux écrits par des humains avant 2023.
Les résultats montrent un net gain de productivité : les auteurs utilisant probablement des LLM ont publié environ un tiers de papiers en plus sur arXiv et plus de 50 % sur bioRxiv et SSRN. Les gains ont été les plus marqués pour les non-anglophones, les chercheurs d’institutions asiatiques augmentant leur production de 43 % à 89,3 %, selon la plateforme. « C’est un schéma très répandu, dans différents domaines scientifiques », a déclaré Yian Yin, professeur assistant en science de l’information au Ann S. Bowers College of Computing and Information Science de Cornell.
Au-delà de l’écriture, des outils de recherche IA comme Bing Chat ont amélioré les revues de littérature en mettant en avant des sources plus récentes et diversifiées. Le premier auteur, Keigo Kusumegi, a noté : « Les personnes utilisant des LLM se connectent à des savoirs plus diversifiés, ce qui pourrait favoriser des idées plus créatives. »
Pourtant, des défis émergent dans l’évaluation. Les articles humains avec un langage complexe signalent souvent qualité et taux d’acceptation plus élevés. À l’inverse, les articles assistés par LLM, malgré une prose sophistiquée, sont moins acceptés, suggérant que le poli ne reflète plus fiablement la valeur. Ce décalage pourrait gêner éditeurs, relecteurs et financeurs, les comptes bruts de publications devenant trompeurs.
L’étude observationnelle appelle à des suivis expérimentaux et mises à jour des politiques. Yin organise un symposium du 3 au 5 mars 2026 à Ithaca pour discuter du rôle de l’IA dans la recherche. Co-auteurs : Xinyu Yang, Paul Ginsparg, Mathijs de Vaan et Toby Stuart ; financement de la National Science Foundation.
Tandis que l’IA évolue vers un « co-scientifique », Yin insiste sur la transparence : « La question est : comment exactement avez-vous utilisé l’IA et est-ce utile ou non. »