O projeto de código aberto LLVM introduziu uma nova política que permite código gerado por IA em contribuições, desde que revisado e compreendido por humanos. Essa abordagem de 'humano no loop' garante accountability enquanto aborda preocupações da comunidade sobre transparência. A política, desenvolvida com input de contribuintes, equilibra inovação com confiabilidade no desenvolvimento de software.
LLVM, uma coleção fundamental de componentes de compiladores e ferramentas de cadeia, usada em projetos como Clang, Rust, Swift e o kernel Linux, adotou uma política sobre o uso de ferramentas de IA em contribuições. Publicada em 22 de janeiro de 2026, as diretrizes permitem que desenvolvedores usem qualquer ferramenta de IA, mas enfatizam a responsabilidade total pelo trabalho submetido. Sob a política, os contribuintes devem divulgar a ferramenta de IA usada, seja na descrição do pull request, mensagem de commit ou detalhes de autoria. Eles são obrigados a revisar e compreender suas submissões, justificando-as com confiança durante as revisões e garantindo que mereçam a atenção de um mantenedor. As regras esclarecem que violações serão tratadas de acordo com os processos comunitários existentes. O processo de desenvolvimento envolveu ampla participação da comunidade. Um membro do LLVM destacou discrepâncias entre o tratamento de IA do projeto, o código de conduta e as práticas reais, referenciando um pull request notável discutido no Hacker News onde o uso de IA foi admitido após a submissão, mas não divulgado inicialmente. O mantenedor do LLVM Reid Kleckner liderou o esforço. Seu rascunho inicial, inspirado na política de IA do Fedora, propôs restrições como limitar novatos a 150 linhas de código não de teste. Após feedback de reuniões e fóruns da comunidade, a versão final mudou para requisitos mais explícitos, focando em prontidão para revisão e capacidade de responder perguntas em vez de cláusulas vagas de propriedade. A Política de Uso de Ferramentas de IA atualizada está agora disponível no site de documentação do LLVM, incluindo exemplos de trabalhos assistidos por IA aceitáveis e diretrizes de violação. Essa medida alinha o LLVM com outras iniciativas de código aberto que se adaptam ao papel crescente da IA no desenvolvimento.