Le projet du noyau Linux a officiellement documenté sa politique sur les contributions de code assistées par l'IA avec la sortie de Linux 7.0. Les directives exigent une responsabilité humaine, la divulgation de l'utilisation d'outils d'IA et une nouvelle balise 'Assisted-by' pour les correctifs impliquant l'IA. Sasha Levin a formalisé le consensus atteint lors du sommet des mainteneurs de 2025.
Lors du sommet des mainteneurs de 2025, Sasha Levin a préconisé des règles claires sur les outils d'IA dans le développement du noyau. La politique qui en résulte souligne que les réviseurs humains doivent assumer l'entière responsabilité de tout code généré par l'IA, garantissant la conformité avec la licence GPL-2.0-only. Les soumissions purement générées par des machines ne sont pas acceptées et les agents d'IA ne peuvent pas approuver les correctifs en utilisant des balises 'Signed-off-by', car le certificat d'origine du développeur (Developer Certificate of Origin) exige une responsabilité humaine pour chaque contribution. Levin s'est engagé à documenter ces principes sans mise en application stricte, et les nouvelles directives sur les 'Assistants de codage IA' figurent désormais dans la documentation du processus du noyau aux côtés des autres règles de contribution. Cette politique s'appuie sur des discussions antérieures, au cours desquelles Linus Torvalds avait remis en question la nécessité d'une balise dédiée, suggérant que les journaux de modifications suffisaient. Cependant, la communauté a opté pour la balise 'Assisted-by', formatée comme suit : 'Assisted-by: NOM_AGENT:VERSION_MODÈLE [OUTIL1] [OUTIL2]'. Un exemple donné est 'Assisted-by: Claude:claude-3-opus coccinelle sparse' pour les correctifs utilisant plusieurs outils. Greg Kroah-Hartman, le mainteneur du noyau stable, a déjà appliqué cette approche dans sa branche 'clanker'. Il a utilisé le fuzzing assisté par l'IA sur le code ksmbd et SMB, identifié des problèmes et soumis des correctifs avec des instructions permettant aux réviseurs de vérifier indépendamment. En comparaison, Gentoo a interdit les contributions générées par l'IA en 2024 en raison de problèmes de droit d'auteur, de qualité et d'éthique, tandis que NetBSD qualifie le code généré par LLM de 'corrompu', nécessitant l'approbation d'un développeur principal. Linux conserve une position plus permissive, s'appuyant sur les humains pour valider la sortie de l'IA.