LLVM implementa política de IA que exige supervisão humana

O projeto de código aberto LLVM introduziu uma nova política que permite código gerado por IA em contribuições, desde que revisado e compreendido por humanos. Essa abordagem de 'humano no loop' garante accountability enquanto aborda preocupações da comunidade sobre transparência. A política, desenvolvida com input de contribuintes, equilibra inovação com confiabilidade no desenvolvimento de software.

LLVM, uma coleção fundamental de componentes de compiladores e ferramentas de cadeia, usada em projetos como Clang, Rust, Swift e o kernel Linux, adotou uma política sobre o uso de ferramentas de IA em contribuições. Publicada em 22 de janeiro de 2026, as diretrizes permitem que desenvolvedores usem qualquer ferramenta de IA, mas enfatizam a responsabilidade total pelo trabalho submetido. Sob a política, os contribuintes devem divulgar a ferramenta de IA usada, seja na descrição do pull request, mensagem de commit ou detalhes de autoria. Eles são obrigados a revisar e compreender suas submissões, justificando-as com confiança durante as revisões e garantindo que mereçam a atenção de um mantenedor. As regras esclarecem que violações serão tratadas de acordo com os processos comunitários existentes. O processo de desenvolvimento envolveu ampla participação da comunidade. Um membro do LLVM destacou discrepâncias entre o tratamento de IA do projeto, o código de conduta e as práticas reais, referenciando um pull request notável discutido no Hacker News onde o uso de IA foi admitido após a submissão, mas não divulgado inicialmente. O mantenedor do LLVM Reid Kleckner liderou o esforço. Seu rascunho inicial, inspirado na política de IA do Fedora, propôs restrições como limitar novatos a 150 linhas de código não de teste. Após feedback de reuniões e fóruns da comunidade, a versão final mudou para requisitos mais explícitos, focando em prontidão para revisão e capacidade de responder perguntas em vez de cláusulas vagas de propriedade. A Política de Uso de Ferramentas de IA atualizada está agora disponível no site de documentação do LLVM, incluindo exemplos de trabalhos assistidos por IA aceitáveis e diretrizes de violação. Essa medida alinha o LLVM com outras iniciativas de código aberto que se adaptam ao papel crescente da IA no desenvolvimento.

Artigos relacionados

Linus Torvalds, criador do kernel Linux, criticou esforços para criar regras para submissões de código gerado por IA, chamando-as de inúteis. Em um e-mail recente, argumentou que tais políticas não deteriam contribuidores maliciosos e instou o foco na qualidade do código. Essa posição destaca tensões contínuas no desenvolvimento open-source sobre ferramentas de inteligência artificial.

Reportado por IA

A comunidade de desenvolvedores Linux passou de debater o papel da IA para integrá-la nos processos de engenharia do kernel. Desenvolvedores agora usam IA para manutenção de projetos, embora persistan perguntas sobre escrever código com ela. Preocupações com direitos autorais e licenças open-source permanecem.

O projeto do kernel Linux começou a usar o Sashiko, um sistema baseado em IA, para revisar patches automaticamente. Essa ferramenta autônoma, impulsionada por LLMs, está identificando erros que passaram despercebidos pelos revisores humanos. A iniciativa visa aprimorar a qualidade e a manutenibilidade do código.

Reportado por IA

Linus Torvalds, criador do kernel Linux, criticou duramente as discussões sobre conteúdo gerado por IA na documentação do kernel. Ele chamou conversas sobre 'slop de IA' de inúteis e estúpidas. Os comentários destacam tensões contínuas em torno da IA no desenvolvimento de código aberto.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar