LLVM met en œuvre une politique IA exigeant une supervision humaine

Le projet open source LLVM a introduit une nouvelle politique autorisant le code généré par IA dans les contributions, à condition que des humains examinent et comprennent les soumissions. Cette approche « humain dans la boucle » assure la responsabilité tout en répondant aux préoccupations de la communauté sur la transparence. Élaborée avec l'apport des contributeurs, la politique équilibre innovation et fiabilité dans le développement logiciel.

LLVM, une collection fondamentale de composants de compilateurs et d'outils de chaîne d'outils utilisée dans des projets comme Clang, Rust, Swift et le noyau Linux, a adopté une politique sur l'utilisation d'outils IA dans les contributions. Publiée le 22 janvier 2026, les directives permettent aux développeurs d'utiliser n'importe quel outil IA mais insistent sur la responsabilité totale du travail soumis. Selon la politique, les contributeurs doivent divulguer l'outil IA utilisé, soit dans la description de la pull request, le message de commit ou les détails d'auteur. Ils doivent examiner et comprendre leurs soumissions, les justifier avec confiance lors des revues et s'assurer qu'elles méritent l'attention d'un mainteneur. Les règles précisent que les violations seront gérées selon les processus communautaires existants. Le processus de développement a impliqué une large participation de la communauté. Un membre de LLVM a mis en lumière des incohérences entre la gestion de l'IA du projet, le code de conduite et les pratiques réelles, en référence à une pull request notable discutée sur Hacker News où l'utilisation de l'IA a été admise après soumission mais pas divulguée initialement. Le mainteneur LLVM Reid Kleckner a dirigé l'effort. Son brouillon initial, inspiré de la politique IA de Fedora, proposait des restrictions comme limiter les nouveaux venus à 150 lignes de code non test. Après retours des réunions et forums communautaires, la version finale s'est orientée vers des exigences plus explicites, axées sur la préparation à la revue et la capacité à répondre aux questions plutôt que des clauses de propriété vagues. La Politique d'utilisation des outils IA mise à jour est désormais disponible sur le site de documentation LLVM, avec des exemples de travaux assistés par IA acceptables et des directives sur les violations. Cette mesure aligne LLVM avec d'autres initiatives open source s'adaptant au rôle croissant de l'IA dans le développement.

Articles connexes

Realistic illustration of Linux Foundation executives and AI partners launching Agentic AI Foundation, featuring collaborative autonomous AI agents on a conference screen.
Image générée par IA

Linux Foundation lance Agentic AI Foundation

Rapporté par l'IA Image générée par IA

La Linux Foundation a lancé l'Agentic AI Foundation pour favoriser la collaboration ouverte sur les systèmes d'IA autonomes. De grandes entreprises technologiques, dont Anthropic, OpenAI et Block, ont contribué des projets open source clés pour promouvoir l'interopérabilité et éviter le verrouillage fournisseur. L'initiative vise à créer des normes neutres pour les agents IA capables de prendre des décisions et d'exécuter des tâches de manière indépendante.

Linus Torvalds, créateur du noyau Linux, a critiqué les efforts pour établir des règles concernant les soumissions de code généré par IA, les qualifiant d'inutiles. Dans un courriel récent, il a argué que de telles politiques ne dissuaderaient pas les contributeurs malveillants et a exhorté à se concentrer sur la qualité du code. Cette position met en lumière les tensions persistantes dans le développement open source autour des outils d'intelligence artificielle.

Rapporté par l'IA

La communauté des développeurs Linux est passée du débat sur le rôle de l'IA à son intégration dans les processus d'ingénierie du noyau. Les développeurs utilisent désormais l'IA pour la maintenance de projets, bien que des questions persistent sur l'écriture de code avec elle. Les préoccupations relatives aux droits d'auteur et aux licences open source demeurent.

L'outil b4 de développement du noyau Linux teste désormais en interne son agent IA conçu pour assister aux revues de code. Cette étape, connue sous le nom de dog-feeding, marque une application pratique de la fonctionnalité IA dans le processus de développement de l'outil. Cette mise à jour provient de Phoronix, une source clé d'informations sur Linux.

Rapporté par l'IA

OpenClaw, un projet d'IA open source anciennement connu sous les noms de Moltbot et Clawdbot, a grimpé à plus de 100 000 étoiles GitHub en moins d'une semaine. Ce moteur d'exécution permet aux agents IA d'effectuer des actions comme l'envoi d'e-mails et la gestion d'agendas au nom des utilisateurs au sein d'interfaces de chat. Son essor met en lumière le potentiel de simplification de l'utilisabilité de la crypto tout en soulevant des préoccupations de sécurité.

Games Workshop, la société mère derrière Warhammer, a mis en place une politique prudente interdisant l'utilisation de l'IA dans la production de contenus et le design. Le PDG Kevin Rountree a déclaré que, bien que certains cadres supérieurs expérimentent la technologie, aucun n'est encore enthousiaste. L'entreprise prévoit d'embaucher davantage de professionnels créatifs à la place.

Rapporté par l'IA

Bandcamp a interdit la musique générée entièrement ou substantiellement par IA sur sa plateforme, dans le but de protéger l'élément humain dans la création musicale. La politique, annoncée le 14 janvier 2026, permet aux utilisateurs de signaler les contenus suspects d'IA pour examen et suppression. Cette mesure contraste avec d'autres services de streaming aux prises avec un afflux de pistes produites par IA.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser