IA impulsiona produtividade científica mas erode qualidade dos artigos

Um estudo da Universidade de Cornell revela que ferramentas de IA como ChatGPT aumentaram a produção de artigos dos pesquisadores em até 50%, beneficiando especialmente falantes não nativos de inglês. No entanto, esse aumento em manuscritos polidos está complicando revisões por pares e decisões de financiamento, pois muitos carecem de valor científico substancial. As descobertas destacam uma mudança na dinâmica da pesquisa global e pedem políticas atualizadas sobre o uso de IA na academia.

Desde a adoção generalizada do ChatGPT no final de 2022, cientistas relataram maior produtividade, com editores de revistas notando um influxo de submissões bem escritas, mas de baixo valor. Um estudo de Cornell, publicado em 18 de dezembro de 2025 na Science, analisou mais de 2 milhões de preprints do arXiv, bioRxiv e SSRN, abrangendo janeiro de 2018 a junho de 2024. Pesquisadores desenvolveram um detector para identificar artigos assistidos por LLM comparando-os com os escritos por humanos pré-2023.

Os resultados mostram um aumento claro de produtividade: autores que provavelmente usaram LLMs publicaram cerca de um terço mais artigos no arXiv e mais de 50% no bioRxiv e SSRN. Os ganhos foram mais pronunciados para falantes não nativos de inglês, com pesquisadores de instituições asiáticas aumentando a produção em 43% a 89,3%, dependendo da plataforma. "É um padrão muito disseminado, em diferentes campos da ciência", disse Yian Yin, professor assistente de ciência da informação no Ann S. Bowers College of Computing and Information Science da Cornell.

Além da escrita, ferramentas de busca de IA como Bing Chat melhoraram revisões de literatura ao trazer fontes mais novas e diversas. O primeiro autor, Keigo Kusumegi, observou: "Pessoas usando LLMs estão se conectando a conhecimentos mais diversos, o que pode estar impulsionando ideias mais criativas."

No entanto, surgem desafios na avaliação. Artigos escritos por humanos com linguagem complexa frequentemente sinalizam qualidade e taxas de aceitação mais altas em revistas. Em contraste, artigos assistidos por LLM, apesar da prosa sofisticada, são menos propensos a serem aceitos, sugerindo que o polimento não indica mais valor de forma confiável. Essa desconexão pode dificultar editores, revisores e financiadores, pois contagens brutas de publicações se tornam enganosas.

O estudo observacional pede follow-ups experimentais e atualizações de políticas. Yin está sediando um simpósio de 3 a 5 de março de 2026 em Ithaca para discutir o papel da IA na pesquisa. Coautores incluem Xinyu Yang, Paul Ginsparg, Mathijs de Vaan e Toby Stuart; financiamento veio da National Science Foundation.

À medida que a IA evolui para um "co-cientista", Yin enfatiza a transparência: "A questão é, como exatamente você usou a IA e se foi útil ou não."

Artigos relacionados

Na cúpula global de física da American Physical Society em Denver, Colorado, milhares de pesquisadores estão utilizando chatbots de IA para simplificar palestras complexas. O evento gerou discussões intensas sobre se a inteligência artificial transformará a pesquisa em física. Os palestrantes apresentaram pontos de vista contrastantes sobre o potencial e as limitações da IA.

Reportado por IA

Um novo estudo da Universidade Brown identifica preocupações éticas significativas com o uso de chatbots de IA como ChatGPT para aconselhamento de saúde mental. Pesquisadores descobriram que esses sistemas frequentemente violam padrões profissionais mesmo quando orientados a atuar como terapeutas. O trabalho pede melhores salvaguardas antes de implementar tais ferramentas em áreas sensíveis.

Um estudo que aplica o exame de ingresso à universidade do Chile, PAES 2026, a modelos de IA mostra que vários sistemas pontuam alto o suficiente para programas seletivos como Medicina e Engenharia Civil. O Gemini do Google liderou com médias próximas a 950 pontos, superando rivais como ChatGPT. O experimento destaca o progresso da IA e levanta questões sobre a eficácia dos testes padronizados.

Reportado por IA

A Wikipedia proibiu o uso de grandes modelos de linguagem para criar ou reescrever o conteúdo de artigos, citando violações de políticas fundamentais de conteúdo. Edições básicas, como a correção de erros de digitação e algumas traduções de artigos, são permitidas sob condições estritas. Os detalhes sobre a aplicação da política permanecem incertos.

terça-feira, 31 de março de 2026, 02:54h

Estudo britânico revela que agentes de IA estão contornando salvaguardas em interações com usuários

domingo, 22 de março de 2026, 03:30h

Deputados do Congresso espanhol usam IA para preparar discursos

segunda-feira, 02 de março de 2026, 04:22h

Japan shows high AI trust despite low workplace use

quinta-feira, 26 de fevereiro de 2026, 23:44h

Estudo mostra que IA pode desanonimizar usuários online a partir de posts

sábado, 21 de fevereiro de 2026, 01:40h

IA generativa supera equipas humanas na análise de dados médicos

segunda-feira, 16 de fevereiro de 2026, 03:16h

Colunistas da Folha debatem uso de IA na escrita

terça-feira, 03 de fevereiro de 2026, 09:31h

Quadros superiores da OpenAI saem em meio ao foco no ChatGPT

sexta-feira, 23 de janeiro de 2026, 10:41h

Artigo de pesquisa questiona viabilidade de agentes de IA

domingo, 18 de janeiro de 2026, 01:24h

AI companies gear up for ads as manipulation threats emerge

quarta-feira, 24 de dezembro de 2025, 04:08h

Como funcionam os agentes de codificação com IA e suas limitações

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar