Le projet open source LLVM a introduit une nouvelle politique autorisant le code généré par IA dans les contributions, à condition que des humains examinent et comprennent les soumissions. Cette approche « humain dans la boucle » assure la responsabilité tout en répondant aux préoccupations de la communauté sur la transparence. Élaborée avec l'apport des contributeurs, la politique équilibre innovation et fiabilité dans le développement logiciel.
LLVM, une collection fondamentale de composants de compilateurs et d'outils de chaîne d'outils utilisée dans des projets comme Clang, Rust, Swift et le noyau Linux, a adopté une politique sur l'utilisation d'outils IA dans les contributions. Publiée le 22 janvier 2026, les directives permettent aux développeurs d'utiliser n'importe quel outil IA mais insistent sur la responsabilité totale du travail soumis. Selon la politique, les contributeurs doivent divulguer l'outil IA utilisé, soit dans la description de la pull request, le message de commit ou les détails d'auteur. Ils doivent examiner et comprendre leurs soumissions, les justifier avec confiance lors des revues et s'assurer qu'elles méritent l'attention d'un mainteneur. Les règles précisent que les violations seront gérées selon les processus communautaires existants. Le processus de développement a impliqué une large participation de la communauté. Un membre de LLVM a mis en lumière des incohérences entre la gestion de l'IA du projet, le code de conduite et les pratiques réelles, en référence à une pull request notable discutée sur Hacker News où l'utilisation de l'IA a été admise après soumission mais pas divulguée initialement. Le mainteneur LLVM Reid Kleckner a dirigé l'effort. Son brouillon initial, inspiré de la politique IA de Fedora, proposait des restrictions comme limiter les nouveaux venus à 150 lignes de code non test. Après retours des réunions et forums communautaires, la version finale s'est orientée vers des exigences plus explicites, axées sur la préparation à la revue et la capacité à répondre aux questions plutôt que des clauses de propriété vagues. La Politique d'utilisation des outils IA mise à jour est désormais disponible sur le site de documentation LLVM, avec des exemples de travaux assistés par IA acceptables et des directives sur les violations. Cette mesure aligne LLVM avec d'autres initiatives open source s'adaptant au rôle croissant de l'IA dans le développement.