Linux-kärnprojektet har officiellt dokumenterat sin policy för bidrag med AI-assisterad kod i och med lanseringen av Linux 7.0. Riktlinjerna kräver mänskligt ansvar, att användning av AI-verktyg deklareras samt en ny "Assisted-by"-tagg för korrigeringar som involverar AI. Sasha Levin formaliserade det samförstånd som nåddes vid 2025 års Maintainers Summit.
Vid 2025 års Maintainers Summit förespråkade Sasha Levin tydliga regler för användning av AI-verktyg i kärnutveckling. Den resulterande policyn betonar att mänskliga granskare måste ta fullt ansvar för all AI-genererad kod, vilket säkerställer efterlevnad av licensen GPL-2.0-only. Bidrag som är rent maskingenererade accepteras inte, och AI-agenter kan inte signera korrigeringar med "Signed-off-by"-taggar, eftersom Developer Certificate of Origin kräver mänsklig ansvarsskyldighet för varje bidrag. Levin åtog sig att dokumentera dessa principer utan tvingande åtgärder, och de nya riktlinjerna för "AI Coding Assistants" finns nu i kärnans processdokumentation vid sidan av andra bidragsregler. Denna policy bygger på tidigare diskussioner, där Linus Torvalds ifrågasatte behovet av en dedikerad tagg och antydde att ändringsloggar var tillräckliga. Gemenskapen valde dock "Assisted-by"-taggen, formaterad som "Assisted-by: AGENT_NAME:MODEL_VERSION [TOOL1] [TOOL2]". Ett exempel som ges är "Assisted-by: Claude:claude-3-opus coccinelle sparse" för korrigeringar som använder flera verktyg. Greg Kroah-Hartman, ansvarig för den stabila kärnan, har redan tillämpat detta tillvägagångssätt i sin "clanker"-gren. Han använde AI-assisterad fuzzing på ksmbd- och SMB-kod, identifierade problem och skickade in rättningar med instruktioner till granskare om att verifiera dem oberoende. Som jämförelse förbjöd Gentoo AI-genererade bidrag 2024 på grund av upphovsrätt, kvalitet och etiska problem, medan NetBSD klassar LLM-kod som "smittad", vilket kräver godkännande från kärnutvecklare. Linux behåller en mer tillåtande hållning och förlitar sig på att människor validerar AI-resultat.