LLVM inför AI-policy som kräver mänsklig översyn

Det öppna källkodsprojektet LLVM har infört en ny policy som tillåter AI-genererad kod i bidrag, förutsatt att människor granskar och förstår inlämningarna. Denna 'human in the loop'-metod säkerställer ansvarstagande samtidigt som den hanterar communityns oro kring transparens. Policyn, utvecklad med input från bidragsgivare, balanserar innovation med tillförlitlighet i mjukvaruutveckling.

LLVM, en grundläggande samling kompilator- och verktygskedjekomponenter som används i projekt som Clang, Rust, Swift och Linuxkärnan, har antagit en policy för användning av AI-verktyg i bidrag. Publicerad den 22 januari 2026 tillåter riktlinjerna utvecklare att använda valfria AI-verktyg men betonar fullständigt ansvar för det inlämnade arbetet. Enligt policyn måste bidragsgivare ange det använda AI-verktyget i pull request-beskrivningen, commit-meddelandet eller författaruppgifterna. De är skyldiga att granska och förstå sina inlämningar, motivera dem med tillförsikt under granskningar och säkerställa att de förtjänar en underhållares uppmärksamhet. Reglerna klargör att överträdelser hanteras enligt befintliga communityprocesser. Utvecklingen involverade omfattande communityengagemang. En LLVM-medlem belyste skillnader mellan projektets AI-hantering, beteendekod och faktiska praxis, med hänvisning till en uppmärksammad pull request diskuterad på Hacker News där AI-användning erkändes efter inlämning men inte initialt avslöjades. LLVM-underhållaren Reid Kleckner ledde arbetet. Hans initiala utkast, inspirerat av Fedoras AI-policy, föreslog begränsningar som att begränsa nykomlingar till 150 rader icke-testkod. Efter feedback från communitymöten och forum skiftade den slutliga versionen till mer explicita krav, fokuserade på granskningberedskap och frågesvarförmåga snarare än vaga ägandeklausuler. Den uppdaterade AI-verktygsanvändningspolicyn finns nu på LLVM:s dokumentationssajt, inklusive exempel på accepterat AI-assisterat arbete och riktlinjer för överträdelser. Detta steg alignar LLVM med andra open source-initiativ som anpassar sig till AI:s växande roll i utvecklingen.

Relaterade artiklar

Realistic illustration of Linux Foundation executives and AI partners launching Agentic AI Foundation, featuring collaborative autonomous AI agents on a conference screen.
Bild genererad av AI

Linux Foundation lanserar Agentic AI Foundation

Rapporterad av AI Bild genererad av AI

Linux Foundation har lanserat Agentic AI Foundation för att främja öppen samverkan kring autonoma AI-system. Stora teknikföretag, inklusive Anthropic, OpenAI och Block, har bidragit med nyckelöppen källkod för att främja interoperabilitet och förhindra leverantörslåsning. Initiativet syftar till att skapa neutrala standarder för AI-agenter som kan fatta beslut och utföra uppgifter oberoende.

Linus Torvalds, skaparen av Linuxkärnan, har kritiserat försök att skapa regler för AI-genererad kodinskick och kallat dem poänglösa. I ett nyligt mejl hävdade han att sådana policys inte skulle avskräcka skadliga bidragsgivare och uppmanade till fokus på kodkvalitet istället. Denna ståndpunkt belyser pågående spänningar i open source-utveckling kring artificiell intelligensverktyg.

Rapporterad av AI

Linuxutvecklingsgemenskapen har gått från att debattera AI:s roll till att integrera den i kärnans ingenjörsprocesser. Utvecklare använder nu AI för projektunderhåll, även om frågor kvarstår kring att skriva kod med den. Oro för upphovsrätt och öppen källkodslicensiering kvarstår.

B4-verktyget för Linuxkärnans utveckling testar nu internt sin AI-agent som är utformad för att assistera vid kodgranskningar. Detta steg, känt som dog-feeding, markerar en praktisk tillämpning av AI-funktionen inom verktygets utvecklingsprocess. Uppdateringen kommer från Phoronix, en viktig källa för Linux-nyheter.

Rapporterad av AI

OpenClaw, an open-source AI project formerly known as Moltbot and Clawdbot, has surged to over 100,000 GitHub stars in less than a week. This execution engine enables AI agents to perform actions like sending emails and managing calendars on users' behalf within chat interfaces. Its rise highlights potential to simplify crypto usability while raising security concerns.

Bandcamp har förbjudit musik som genererats helt eller i väsentlig mån av AI på sin plattform, med syfte att skydda det mänskliga elementet i musikskapande. Policyn, som tillkännagavs den 14 januari 2026, låter användare flagga misstänkt AI-innehåll för granskning och borttagning. Detta skiljer sig från andra streamingtjänster som brottas med ett inflöde av AI-producerade spår.

Rapporterad av AI

Musikbolag och techföretag hanterar obehörigt bruk av artisters verk vid träning av AI-musikgeneratorer som Udio och Suno. Nyliga uppgörelser med stora bolag syftar till att skapa nya intäktsströmmar, medan innovativa verktyg lovar att ta bort olicensierat innehåll från AI-modeller. Artister är försiktiga med teknikens inverkan på deras försörjning.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj