Un estudio de la Universidad de Cornell revela que herramientas de IA como ChatGPT han aumentado la producción de artículos de los investigadores hasta en un 50%, beneficiando especialmente a los hablantes no nativos de inglés. Sin embargo, este aumento en manuscritos pulidos está complicando las revisiones por pares y las decisiones de financiación, ya que muchos carecen de valor científico sustancial. Los hallazgos destacan un cambio en la dinámica de la investigación global y llaman a políticas actualizadas sobre el uso de IA en la academia.
Desde la adopción generalizada de ChatGPT a finales de 2022, los científicos han reportado una mayor productividad, con editores de revistas notando un flujo de envíos bien escritos pero de bajo valor. Un estudio de Cornell, publicado el 18 de diciembre de 2025 en Science, analizó más de 2 millones de preprints de arXiv, bioRxiv y SSRN, abarcando de enero de 2018 a junio de 2024. Los investigadores desarrollaron un detector para identificar artículos asistidos por LLM comparándolos con los escritos por humanos anteriores a 2023.
Los resultados muestran un claro aumento de productividad: autores que probablemente usaron LLM publicaron alrededor de un tercio más de artículos en arXiv y más del 50% más en bioRxiv y SSRN. Las ganancias fueron más pronunciadas para hablantes no nativos de inglés, con investigadores de instituciones asiáticas aumentando su producción entre un 43% y un 89,3%, dependiendo de la plataforma. «Es un patrón muy extendido, en diferentes campos de la ciencia», dijo Yian Yin, profesor asistente de ciencia de la información en el Ann S. Bowers College of Computing and Information Science de Cornell.
Más allá de la escritura, herramientas de búsqueda de IA como Bing Chat mejoraron las revisiones de literatura al mostrar fuentes más nuevas y diversas. El primer autor, Keigo Kusumegi, señaló: «Las personas que usan LLM se conectan con un conocimiento más diverso, lo que podría estar impulsando ideas más creativas».
Sin embargo, surgen desafíos en la evaluación. Los artículos escritos por humanos con lenguaje complejo a menudo señalan calidad y tasas de aceptación más altas en revistas. En contraste, los artículos asistidos por LLM, a pesar de su prosa sofisticada, son menos propensos a ser aceptados, lo que sugiere que el pulido ya no indica de manera fiable el valor. Esta desconexión podría dificultar el trabajo de editores, revisores y financiadores, ya que los conteos brutos de publicaciones se vuelven engañosos.
El estudio observacional llama a seguimientos experimentales y actualizaciones de políticas. Yin acoge un simposio del 3 al 5 de marzo de 2026 en Ithaca para discutir el rol de la IA en la investigación. Los coautores incluyen a Xinyu Yang, Paul Ginsparg, Mathijs de Vaan y Toby Stuart; la financiación provino de la National Science Foundation.
Mientras la IA evoluciona hacia un «co-científico», Yin enfatiza la transparencia: «La pregunta es, cómo exactamente has usado la IA y si es útil o no».