AerynOS avvisar LLM-användning i bidrag på grund av etiska bekymmer

AerynOS, en Linux-distribution i alfa-stadiet, har infört en policy som förbjuder stora språkmodeller i sin utveckling och community-aktiviteter. Åtgärden hanterar etiska problem med träningsdata, miljöpåverkan och kvalitetsrisker. Undantag är begränsade till översättnings- och tillgänglighetsbehov.

AerynOS, en Linux-distribution fokuserad på atomiska uppdateringar och fortfarande i alfa-fasen, har uppdaterat sina bidragsriktlinjer för att förbjuda användning av stora språkmodeller (LLM) i hela projektet. Detta beslut, annonserat på Reddit, gäller alla aspekter av utveckling och community-engagemang, inklusive källkod, dokumentation, ärenderapporter och konstverk. Policyn härrör från flera nyckelbekymmer. Utvecklare framhåller etiska problem med hur LLM tränas, inklusive datainsamling. De pekar också på de höga miljö kostnaderna, såsom överdriven el- och vattenförbrukning som är inblandad i att bygga och driva dessa modeller. Dessutom finns oro för hur LLM-genererat innehåll kan försämra den övergripande kvaliteten på bidrag och väcka potentiella upphovsrättsfrågor. Även om förbudet är omfattande tillåter AerynOS smala undantag. Bidragsgivare får använda LLM endast för att översätta text till engelska för ärenden eller kommentarer. Projektet kan överväga ytterligare tillstånd för tillgänglighetsändamål. När det gäller användarstöd avråder teamet från att förlita sig på AI-chattbotar istället för officiell dokumentation. Förfrågningar baserade på felaktiga LLM-utdata riskerar att förbises, eftersom underhållare strävar efter att undvika felsökning av tredjepartsfel. Denna framåtblickande policy syftar till att säkerställa att alla bidrag genomgår mänsklig granskning, och därmed upprätthålla projektets tekniska standarder och tillförlitlighet. Den återspeglar en växande trend bland open source-initiativ att granska AI-integration mitt i bredare debatter om dess implikationer.

Relaterade artiklar

Realistic illustration of Linux Foundation executives and AI partners launching Agentic AI Foundation, featuring collaborative autonomous AI agents on a conference screen.
Bild genererad av AI

Linux Foundation lanserar Agentic AI Foundation

Rapporterad av AI Bild genererad av AI

Linux Foundation har lanserat Agentic AI Foundation för att främja öppen samverkan kring autonoma AI-system. Stora teknikföretag, inklusive Anthropic, OpenAI och Block, har bidragit med nyckelöppen källkod för att främja interoperabilitet och förhindra leverantörslåsning. Initiativet syftar till att skapa neutrala standarder för AI-agenter som kan fatta beslut och utföra uppgifter oberoende.

Det öppna källkodsprojektet LLVM har infört en ny policy som tillåter AI-genererad kod i bidrag, förutsatt att människor granskar och förstår inlämningarna. Denna 'human in the loop'-metod säkerställer ansvarstagande samtidigt som den hanterar communityns oro kring transparens. Policyn, utvecklad med input från bidragsgivare, balanserar innovation med tillförlitlighet i mjukvaruutveckling.

Rapporterad av AI

Linus Torvalds, skaparen av Linuxkärnan, har kritiserat försök att skapa regler för AI-genererad kodinskick och kallat dem poänglösa. I ett nyligt mejl hävdade han att sådana policys inte skulle avskräcka skadliga bidragsgivare och uppmanade till fokus på kodkvalitet istället. Denna ståndpunkt belyser pågående spänningar i open source-utveckling kring artificiell intelligensverktyg.

Linus Torvalds, skaparen av Linuxkärnan, har hårt kritiserat diskussioner om AI-genererat innehåll i kärnans dokumentation. Han kallade snack om 'AI slop' poänglöst och dumt. Kommentarerna belyser pågående spänningar kring AI i open source-utveckling.

Rapporterad av AI

En CNET-kronika hävdar att beskrivningar av AI som innehar mänskliga egenskaper som själar eller bekännelser vilseleder allmänheten och urholkar förtroendet för tekniken. Den belyser hur bolag som OpenAI och Anthropic använder sådant språk, som döljer verkliga problem som bias och säkerhet. Texten efterlyser mer precisa termer för att främja korrekt förståelse.

B4-verktyget för Linuxkärnans utveckling testar nu internt sin AI-agent som är utformad för att assistera vid kodgranskningar. Detta steg, känt som dog-feeding, markerar en praktisk tillämpning av AI-funktionen inom verktygets utvecklingsprocess. Uppdateringen kommer från Phoronix, en viktig källa för Linux-nyheter.

Rapporterad av AI

En Guardian-rapport har avslöjat att OpenAIs senaste AI-modell, GPT-5.2, hämtar från Grokipedia, en xAI-driven onlineencyklopedi, när den hanterar känsliga ämnen som Förintelsen och iransk politik. Även om modellen hyllas för professionella uppgifter ifrågasätter tester källornas tillförlitlighet. OpenAI försvarar sin metod genom att betona breda websökningar med säkerhetsåtgärder.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj