Um estudo da Universidade de Cornell revela que ferramentas de IA como ChatGPT aumentaram a produção de artigos dos pesquisadores em até 50%, beneficiando especialmente falantes não nativos de inglês. No entanto, esse aumento em manuscritos polidos está complicando revisões por pares e decisões de financiamento, pois muitos carecem de valor científico substancial. As descobertas destacam uma mudança na dinâmica da pesquisa global e pedem políticas atualizadas sobre o uso de IA na academia.
Desde a adoção generalizada do ChatGPT no final de 2022, cientistas relataram maior produtividade, com editores de revistas notando um influxo de submissões bem escritas, mas de baixo valor. Um estudo de Cornell, publicado em 18 de dezembro de 2025 na Science, analisou mais de 2 milhões de preprints do arXiv, bioRxiv e SSRN, abrangendo janeiro de 2018 a junho de 2024. Pesquisadores desenvolveram um detector para identificar artigos assistidos por LLM comparando-os com os escritos por humanos pré-2023.
Os resultados mostram um aumento claro de produtividade: autores que provavelmente usaram LLMs publicaram cerca de um terço mais artigos no arXiv e mais de 50% no bioRxiv e SSRN. Os ganhos foram mais pronunciados para falantes não nativos de inglês, com pesquisadores de instituições asiáticas aumentando a produção em 43% a 89,3%, dependendo da plataforma. "É um padrão muito disseminado, em diferentes campos da ciência", disse Yian Yin, professor assistente de ciência da informação no Ann S. Bowers College of Computing and Information Science da Cornell.
Além da escrita, ferramentas de busca de IA como Bing Chat melhoraram revisões de literatura ao trazer fontes mais novas e diversas. O primeiro autor, Keigo Kusumegi, observou: "Pessoas usando LLMs estão se conectando a conhecimentos mais diversos, o que pode estar impulsionando ideias mais criativas."
No entanto, surgem desafios na avaliação. Artigos escritos por humanos com linguagem complexa frequentemente sinalizam qualidade e taxas de aceitação mais altas em revistas. Em contraste, artigos assistidos por LLM, apesar da prosa sofisticada, são menos propensos a serem aceitos, sugerindo que o polimento não indica mais valor de forma confiável. Essa desconexão pode dificultar editores, revisores e financiadores, pois contagens brutas de publicações se tornam enganosas.
O estudo observacional pede follow-ups experimentais e atualizações de políticas. Yin está sediando um simpósio de 3 a 5 de março de 2026 em Ithaca para discutir o papel da IA na pesquisa. Coautores incluem Xinyu Yang, Paul Ginsparg, Mathijs de Vaan e Toby Stuart; financiamento veio da National Science Foundation.
À medida que a IA evolui para um "co-cientista", Yin enfatiza a transparência: "A questão é, como exatamente você usou a IA e se foi útil ou não."