La IA impulsa la productividad científica pero erosiona la calidad de los artículos

Un estudio de la Universidad de Cornell revela que herramientas de IA como ChatGPT han aumentado la producción de artículos de los investigadores hasta en un 50%, beneficiando especialmente a los hablantes no nativos de inglés. Sin embargo, este aumento en manuscritos pulidos está complicando las revisiones por pares y las decisiones de financiación, ya que muchos carecen de valor científico sustancial. Los hallazgos destacan un cambio en la dinámica de la investigación global y llaman a políticas actualizadas sobre el uso de IA en la academia.

Desde la adopción generalizada de ChatGPT a finales de 2022, los científicos han reportado una mayor productividad, con editores de revistas notando un flujo de envíos bien escritos pero de bajo valor. Un estudio de Cornell, publicado el 18 de diciembre de 2025 en Science, analizó más de 2 millones de preprints de arXiv, bioRxiv y SSRN, abarcando de enero de 2018 a junio de 2024. Los investigadores desarrollaron un detector para identificar artículos asistidos por LLM comparándolos con los escritos por humanos anteriores a 2023.

Los resultados muestran un claro aumento de productividad: autores que probablemente usaron LLM publicaron alrededor de un tercio más de artículos en arXiv y más del 50% más en bioRxiv y SSRN. Las ganancias fueron más pronunciadas para hablantes no nativos de inglés, con investigadores de instituciones asiáticas aumentando su producción entre un 43% y un 89,3%, dependiendo de la plataforma. «Es un patrón muy extendido, en diferentes campos de la ciencia», dijo Yian Yin, profesor asistente de ciencia de la información en el Ann S. Bowers College of Computing and Information Science de Cornell.

Más allá de la escritura, herramientas de búsqueda de IA como Bing Chat mejoraron las revisiones de literatura al mostrar fuentes más nuevas y diversas. El primer autor, Keigo Kusumegi, señaló: «Las personas que usan LLM se conectan con un conocimiento más diverso, lo que podría estar impulsando ideas más creativas».

Sin embargo, surgen desafíos en la evaluación. Los artículos escritos por humanos con lenguaje complejo a menudo señalan calidad y tasas de aceptación más altas en revistas. En contraste, los artículos asistidos por LLM, a pesar de su prosa sofisticada, son menos propensos a ser aceptados, lo que sugiere que el pulido ya no indica de manera fiable el valor. Esta desconexión podría dificultar el trabajo de editores, revisores y financiadores, ya que los conteos brutos de publicaciones se vuelven engañosos.

El estudio observacional llama a seguimientos experimentales y actualizaciones de políticas. Yin acoge un simposio del 3 al 5 de marzo de 2026 en Ithaca para discutir el rol de la IA en la investigación. Los coautores incluyen a Xinyu Yang, Paul Ginsparg, Mathijs de Vaan y Toby Stuart; la financiación provino de la National Science Foundation.

Mientras la IA evoluciona hacia un «co-científico», Yin enfatiza la transparencia: «La pregunta es, cómo exactamente has usado la IA y si es útil o no».

Artículos relacionados

Illustration depicting OpenAI's ChatGPT-5.2 launch, showing professionals using the AI to enhance workplace productivity amid rivalry with Google's Gemini.
Imagen generada por IA

OpenAI lanza ChatGPT-5.2 para impulsar la productividad laboral

Reportado por IA Imagen generada por IA

OpenAI ha lanzado ChatGPT-5.2, una nueva familia de modelos de IA diseñados para mejorar el razonamiento y la productividad, especialmente para tareas profesionales. El lanzamiento sigue a una alerta interna del CEO Sam Altman sobre la competencia de Gemini 3 de Google. La actualización incluye tres variantes dirigidas a diferentes necesidades de usuarios, empezando con los suscriptores de pago.

Los agentes de codificación con IA de empresas como OpenAI, Anthropic y Google permiten trabajos prolongados en proyectos de software, incluyendo la escritura de aplicaciones y la corrección de errores bajo supervisión humana. Estas herramientas se basan en modelos de lenguaje grandes pero enfrentan desafíos como el procesamiento limitado de contexto y altos costos computacionales. Comprender su mecánica ayuda a los desarrolladores a decidir cuándo desplegarlos de manera efectiva.

Reportado por IA

A medida que las plataformas de IA viran hacia la monetización basada en anuncios, investigadores advierten de que la tecnología podría moldear el comportamiento, creencias y elecciones de los usuarios de formas invisibles. Esto supone un cambio de rumbo para OpenAI, cuyo CEO Sam Altman consideró en su día la mezcla de anuncios e IA 'inquietante', pero ahora asegura que los anuncios en apps de IA pueden mantener la confianza.

El proyecto de código abierto LLVM ha introducido una nueva política que permite código generado por IA en las contribuciones, siempre que humanos revisen y comprendan las presentaciones. Este enfoque de «humano en el bucle» asegura la responsabilidad al abordar las preocupaciones de la comunidad sobre la transparencia. La política, desarrollada con aportes de los contribuyentes, equilibra la innovación con la fiabilidad en el desarrollo de software.

Reportado por IA

La Comisión de Comercio Justo de Japón planea iniciar una investigación de constatación de hechos sobre motores de búsqueda que usan IA generativa por posible uso no autorizado de artículos de noticias de organizaciones mediáticas. Podría violar la Ley Antimonopolio por abuso de posición dominante. Objetivos incluyen grandes firmas tecnológicas de EE.UU. como Google y Microsoft.

Los expertos en ciberseguridad están cada vez más alarmados por cómo la inteligencia artificial está transformando la ciberdelincuencia, con herramientas como deepfakes, phishing con IA y modelos de lenguaje grandes oscuros que permiten incluso a novatos ejecutar estafas avanzadas. Estos desarrollos representan riesgos significativos para las empresas en el próximo año. Las perspectivas publicadas por TechRadar subrayan la escala y sofisticación de estas amenazas emergentes.

Reportado por IA

Las discográficas y empresas tecnológicas están abordando el uso no autorizado de obras de artistas para entrenar generadores de música con IA como Udio y Suno. Acuerdos recientes con grandes sellos buscan crear nuevas fuentes de ingresos, mientras herramientas innovadoras prometen eliminar contenido sin licencia de los modelos de IA. Los artistas permanecen cautelosos ante el impacto de la tecnología en sus medios de vida.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar