LLVM inför AI-policy som kräver mänsklig översyn

Det öppna källkodsprojektet LLVM har infört en ny policy som tillåter AI-genererad kod i bidrag, förutsatt att människor granskar och förstår inlämningarna. Denna 'human in the loop'-metod säkerställer ansvarstagande samtidigt som den hanterar communityns oro kring transparens. Policyn, utvecklad med input från bidragsgivare, balanserar innovation med tillförlitlighet i mjukvaruutveckling.

LLVM, en grundläggande samling kompilator- och verktygskedjekomponenter som används i projekt som Clang, Rust, Swift och Linuxkärnan, har antagit en policy för användning av AI-verktyg i bidrag. Publicerad den 22 januari 2026 tillåter riktlinjerna utvecklare att använda valfria AI-verktyg men betonar fullständigt ansvar för det inlämnade arbetet. Enligt policyn måste bidragsgivare ange det använda AI-verktyget i pull request-beskrivningen, commit-meddelandet eller författaruppgifterna. De är skyldiga att granska och förstå sina inlämningar, motivera dem med tillförsikt under granskningar och säkerställa att de förtjänar en underhållares uppmärksamhet. Reglerna klargör att överträdelser hanteras enligt befintliga communityprocesser. Utvecklingen involverade omfattande communityengagemang. En LLVM-medlem belyste skillnader mellan projektets AI-hantering, beteendekod och faktiska praxis, med hänvisning till en uppmärksammad pull request diskuterad på Hacker News där AI-användning erkändes efter inlämning men inte initialt avslöjades. LLVM-underhållaren Reid Kleckner ledde arbetet. Hans initiala utkast, inspirerat av Fedoras AI-policy, föreslog begränsningar som att begränsa nykomlingar till 150 rader icke-testkod. Efter feedback från communitymöten och forum skiftade den slutliga versionen till mer explicita krav, fokuserade på granskningberedskap och frågesvarförmåga snarare än vaga ägandeklausuler. Den uppdaterade AI-verktygsanvändningspolicyn finns nu på LLVM:s dokumentationssajt, inklusive exempel på accepterat AI-assisterat arbete och riktlinjer för överträdelser. Detta steg alignar LLVM med andra open source-initiativ som anpassar sig till AI:s växande roll i utvecklingen.

Relaterade artiklar

Linus Torvalds, skaparen av Linuxkärnan, har kritiserat försök att skapa regler för AI-genererad kodinskick och kallat dem poänglösa. I ett nyligt mejl hävdade han att sådana policys inte skulle avskräcka skadliga bidragsgivare och uppmanade till fokus på kodkvalitet istället. Denna ståndpunkt belyser pågående spänningar i open source-utveckling kring artificiell intelligensverktyg.

Rapporterad av AI

Linuxutvecklingsgemenskapen har gått från att debattera AI:s roll till att integrera den i kärnans ingenjörsprocesser. Utvecklare använder nu AI för projektunderhåll, även om frågor kvarstår kring att skriva kod med den. Oro för upphovsrätt och öppen källkodslicensiering kvarstår.

Linux-kärnprojektet har börjat använda Sashiko, ett AI-drivet system, för att automatiskt granska patchar. Detta agentbaserade verktyg, som drivs av stora språkmodeller (LLM), identifierar buggar som mänskliga granskare har missat. Initiativet syftar till att förbättra kodkvalitet och underhållsmöjligheter.

Rapporterad av AI

Linus Torvalds, skaparen av Linuxkärnan, har hårt kritiserat diskussioner om AI-genererat innehåll i kärnans dokumentation. Han kallade snack om 'AI slop' poänglöst och dumt. Kommentarerna belyser pågående spänningar kring AI i open source-utveckling.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj