Linus Torvalds rejette les règles sur le code IA dans le débat sur le noyau Linux

Linus Torvalds, créateur du noyau Linux, a critiqué les efforts pour établir des règles concernant les soumissions de code généré par IA, les qualifiant d'inutiles. Dans un courriel récent, il a argué que de telles politiques ne dissuaderaient pas les contributeurs malveillants et a exhorté à se concentrer sur la qualité du code. Cette position met en lumière les tensions persistantes dans le développement open source autour des outils d'intelligence artificielle.

Linus Torvalds, l'ingénieur finlando-américain qui a fondé Linux il y a plus de trois décennies, est récemment intervenu dans un débat entre les développeurs du noyau sur la gestion du code généré par IA. La discussion est née de propositions de mainteneurs, y compris ceux affiliés à Oracle et Google, pour mettre à jour la documentation du noyau. Ces modifications visaient à décourager ou étiqueter les contributions provenant d'outils d'IA comme les grands modèles de langage, face aux craintes d'un afflux de code de mauvaise qualité ou nuisible dans le projet. Torvalds a rejeté l'idée de manière tranchante dans un fil de courriels. «Il n'y a aucun intérêt à parler de la bouillie d'IA. C'est juste stupide », a-t-il écrit, selon PC Gamer. Il a raisonné que les acteurs malveillants déterminés à soumettre des correctifs problématiques ignoreraient toute règle, tandis que les contributeurs légitimes fournissent déjà des explications. «Le problème de la bouillie d'IA NE sera PAS résolu par la documentation », a-t-il ajouté, insistant sur la dépendance aux processus de revue existants du noyau, incluant les tests automatisés et la surveillance communautaire. Ce n'est pas le premier commentaire de Torvalds sur l'IA dans le logiciel. Fin 2025, il a exprimé un scepticisme quant au battage médiatique autour de l'IA générative dans un article de ZDNET, la considérant comme mature mais non révolutionnaire. Lors d'une interview en novembre 2025, il s'est qualifié de « fervent croyant » en l'IA pour la maintenance de code et la correction de bugs, mais seulement comme un outil réfléchi aux côtés des efforts humains. Le débat a suscité des discussions plus larges. Un fil Reddit sur r/linux a reçu plus de 1 900 upvotes, faisant écho aux préoccupations sur la dilution de la qualité du code par l'IA. Sur X, anciennement Twitter, des utilisateurs comme Emmanuel Tavershima ont partagé l'avis de Torvalds du 7 janvier 2026 selon lequel utiliser l'IA pour du code de production est une « idée horrible » en raison de problèmes de maintenance. Des voix du secteur, comme le PDG de Hooded Horse, Tim Bender, dans une interview à PC Gamer, ont pareillement interdit l'IA générative des assets de jeux, la qualifiant de « cancéreuse ». L'approche pragmatique de Torvalds s'aligne sur l'histoire du Linux axée sur le développement basé sur le mérite, comme vu dans les débats passés sur l'intégration de Rust et les changements de code de conduite en 2018. Le noyau, qui alimente des appareils des smartphones aux superordinateurs, continue de privilégier la responsabilité aux mesures bureaucratiques. À mesure que les outils d'IA évoluent, cet épisode souligne le focus de la communauté sur un examen rigoureux pour préserver l'intégrité.

Articles connexes

Tech leaders announcing Linux Foundation's AI-powered cybersecurity initiative for open source software with major partners.
Image générée par IA

Linux Foundation announces AI security initiative with tech partners

Rapporté par l'IA Image générée par IA

The Linux Foundation has launched a new initiative using Anthropic's Claude Mythos preview for defensive cybersecurity in open source software. Partners include AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan, Microsoft, NVIDIA, and Palo Alto Networks. The effort aims to secure critical software amid the rise of AI for open source maintainers.

The Linux kernel project has officially documented its policy on AI-assisted code contributions with the release of Linux 7.0. The guidelines require human accountability, disclosure of AI tool use, and a new 'Assisted-by' tag for patches involving AI. Sasha Levin formalized the consensus reached at the 2025 Maintainers Summit.

Rapporté par l'IA

Greg Kroah-Hartman, maintainer of the Linux kernel, stated that AI-driven code review tools have become genuinely useful. He told The Register that the technology reached an inflection point about a month ago, leading to actionable bug reports.

The Fedora Council has approved a new plan to create specialized AI-focused desktop images for developers. The effort comes shortly after similar moves by Ubuntu and targets support for major hardware platforms including Intel, AMD, NVIDIA, and ARM.

Rapporté par l'IA

The Linux Foundation, partnering with Meta, released a report at the India AI Impact Summit in New Delhi on February 17, 2026, highlighting how open source AI drives India's economic growth. The study reveals that 76% of Indian startups use open source AI, with the market projected to expand from $6 billion in 2024 to nearly $32 billion by 2031. It also addresses workforce challenges and social applications of the technology.

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser