La IA impulsa la productividad científica pero erosiona la calidad de los artículos

Un estudio de la Universidad de Cornell revela que herramientas de IA como ChatGPT han aumentado la producción de artículos de los investigadores hasta en un 50%, beneficiando especialmente a los hablantes no nativos de inglés. Sin embargo, este aumento en manuscritos pulidos está complicando las revisiones por pares y las decisiones de financiación, ya que muchos carecen de valor científico sustancial. Los hallazgos destacan un cambio en la dinámica de la investigación global y llaman a políticas actualizadas sobre el uso de IA en la academia.

Desde la adopción generalizada de ChatGPT a finales de 2022, los científicos han reportado una mayor productividad, con editores de revistas notando un flujo de envíos bien escritos pero de bajo valor. Un estudio de Cornell, publicado el 18 de diciembre de 2025 en Science, analizó más de 2 millones de preprints de arXiv, bioRxiv y SSRN, abarcando de enero de 2018 a junio de 2024. Los investigadores desarrollaron un detector para identificar artículos asistidos por LLM comparándolos con los escritos por humanos anteriores a 2023.

Los resultados muestran un claro aumento de productividad: autores que probablemente usaron LLM publicaron alrededor de un tercio más de artículos en arXiv y más del 50% más en bioRxiv y SSRN. Las ganancias fueron más pronunciadas para hablantes no nativos de inglés, con investigadores de instituciones asiáticas aumentando su producción entre un 43% y un 89,3%, dependiendo de la plataforma. «Es un patrón muy extendido, en diferentes campos de la ciencia», dijo Yian Yin, profesor asistente de ciencia de la información en el Ann S. Bowers College of Computing and Information Science de Cornell.

Más allá de la escritura, herramientas de búsqueda de IA como Bing Chat mejoraron las revisiones de literatura al mostrar fuentes más nuevas y diversas. El primer autor, Keigo Kusumegi, señaló: «Las personas que usan LLM se conectan con un conocimiento más diverso, lo que podría estar impulsando ideas más creativas».

Sin embargo, surgen desafíos en la evaluación. Los artículos escritos por humanos con lenguaje complejo a menudo señalan calidad y tasas de aceptación más altas en revistas. En contraste, los artículos asistidos por LLM, a pesar de su prosa sofisticada, son menos propensos a ser aceptados, lo que sugiere que el pulido ya no indica de manera fiable el valor. Esta desconexión podría dificultar el trabajo de editores, revisores y financiadores, ya que los conteos brutos de publicaciones se vuelven engañosos.

El estudio observacional llama a seguimientos experimentales y actualizaciones de políticas. Yin acoge un simposio del 3 al 5 de marzo de 2026 en Ithaca para discutir el rol de la IA en la investigación. Los coautores incluyen a Xinyu Yang, Paul Ginsparg, Mathijs de Vaan y Toby Stuart; la financiación provino de la National Science Foundation.

Mientras la IA evoluciona hacia un «co-científico», Yin enfatiza la transparencia: «La pregunta es, cómo exactamente has usado la IA y si es útil o no».

Artículos relacionados

En la Cumbre Mundial de Física de la Sociedad Estadounidense de Física en Denver, Colorado, miles de investigadores están utilizando chatbots de IA para simplificar ponencias complejas. El evento ha provocado intensos debates sobre si la inteligencia artificial transformará la investigación en física. Los ponentes presentaron puntos de vista contrastados sobre el potencial y las limitaciones de la IA.

Reportado por IA

Un nuevo estudio de la Universidad Brown identifica preocupaciones éticas significativas con el uso de chatbots de IA como ChatGPT para consejos de salud mental. Los investigadores hallaron que estos sistemas violan a menudo los estándares profesionales incluso cuando se les indica actuar como terapeutas. El trabajo reclama mejores salvaguardas antes de implementar tales herramientas en áreas sensibles.

Un estudio aplicado a modelos de IA en la Prueba de Acceso a la Educación Superior (PAES) 2026 revela que varios sistemas alcanzaron puntajes suficientes para ingresar a carreras selectivas como Medicina e Ingeniería Civil. Google Gemini lideró con promedios cercanos a 950 puntos, superando a competidores como ChatGPT. El experimento destaca avances en IA y cuestiona la efectividad de pruebas estandarizadas.

Reportado por IA

Wikipedia ha prohibido el uso de modelos de lenguaje extenso para crear o reescribir contenido de artículos, citando violaciones a sus políticas fundamentales. Las ediciones básicas, como corregir errores tipográficos y ciertas traducciones de artículos, están permitidas bajo condiciones estrictas. Los detalles sobre la implementación de la política siguen sin estar claros.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar