LLVM met en œuvre une politique IA exigeant une supervision humaine

Le projet open source LLVM a introduit une nouvelle politique autorisant le code généré par IA dans les contributions, à condition que des humains examinent et comprennent les soumissions. Cette approche « humain dans la boucle » assure la responsabilité tout en répondant aux préoccupations de la communauté sur la transparence. Élaborée avec l'apport des contributeurs, la politique équilibre innovation et fiabilité dans le développement logiciel.

LLVM, une collection fondamentale de composants de compilateurs et d'outils de chaîne d'outils utilisée dans des projets comme Clang, Rust, Swift et le noyau Linux, a adopté une politique sur l'utilisation d'outils IA dans les contributions. Publiée le 22 janvier 2026, les directives permettent aux développeurs d'utiliser n'importe quel outil IA mais insistent sur la responsabilité totale du travail soumis. Selon la politique, les contributeurs doivent divulguer l'outil IA utilisé, soit dans la description de la pull request, le message de commit ou les détails d'auteur. Ils doivent examiner et comprendre leurs soumissions, les justifier avec confiance lors des revues et s'assurer qu'elles méritent l'attention d'un mainteneur. Les règles précisent que les violations seront gérées selon les processus communautaires existants. Le processus de développement a impliqué une large participation de la communauté. Un membre de LLVM a mis en lumière des incohérences entre la gestion de l'IA du projet, le code de conduite et les pratiques réelles, en référence à une pull request notable discutée sur Hacker News où l'utilisation de l'IA a été admise après soumission mais pas divulguée initialement. Le mainteneur LLVM Reid Kleckner a dirigé l'effort. Son brouillon initial, inspiré de la politique IA de Fedora, proposait des restrictions comme limiter les nouveaux venus à 150 lignes de code non test. Après retours des réunions et forums communautaires, la version finale s'est orientée vers des exigences plus explicites, axées sur la préparation à la revue et la capacité à répondre aux questions plutôt que des clauses de propriété vagues. La Politique d'utilisation des outils IA mise à jour est désormais disponible sur le site de documentation LLVM, avec des exemples de travaux assistés par IA acceptables et des directives sur les violations. Cette mesure aligne LLVM avec d'autres initiatives open source s'adaptant au rôle croissant de l'IA dans le développement.

Articles connexes

Linus Torvalds, créateur du noyau Linux, a critiqué les efforts pour établir des règles concernant les soumissions de code généré par IA, les qualifiant d'inutiles. Dans un courriel récent, il a argué que de telles politiques ne dissuaderaient pas les contributeurs malveillants et a exhorté à se concentrer sur la qualité du code. Cette position met en lumière les tensions persistantes dans le développement open source autour des outils d'intelligence artificielle.

Rapporté par l'IA

La communauté des développeurs Linux est passée du débat sur le rôle de l'IA à son intégration dans les processus d'ingénierie du noyau. Les développeurs utilisent désormais l'IA pour la maintenance de projets, bien que des questions persistent sur l'écriture de code avec elle. Les préoccupations relatives aux droits d'auteur et aux licences open source demeurent.

Le projet du noyau Linux a commencé à utiliser Sashiko, un système basé sur l'IA, pour examiner automatiquement les correctifs. Cet outil agentique piloté par des LLM identifie des bugs qui avaient échappé aux relecteurs humains. L'initiative vise à améliorer la qualité et la maintenabilité du code.

Rapporté par l'IA

Linus Torvalds, créateur du noyau Linux, a vivement critiqué les discussions sur le contenu généré par IA dans la documentation du noyau. Il a qualifié les propos sur le « slop d'IA » d'inutiles et stupides. Ces remarques soulignent les tensions persistantes autour de l'IA dans le développement open source.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser