AI-omskrivning av chardet-biblioteket väcker debatt om open source-licensiering

Utgivningen av version 7.0 av det öppna källkods-Python-biblioteket chardet har väckt kontrovers kring om en AI-assisterad omskrivning kan ändra dess ursprungliga restriktiva licens. Underhållaren Dan Blanchard använde Anthropics Claude-verktyg för att skapa en snabbare, MIT-licensierad version, men originalförfattaren Mark Pilgrim hävdar att det bryter mot LGPL-villkoren. Fallet belyser framväxande juridiska och etiska frågor kring AI-genererad kod.

Chardet-biblioteket, först utvecklat av Mark Pilgrim 2006 och släppt under GNU Lesser General Public License (LGPL), upptäcker teckenkodningar i text. Dan Blanchard tog över underhållet 2012 och avslöjade förra veckan version 7.0, som han beskriver som en komplett omskrivning under den mer tillåtande MIT-licensen. Byggd med hjälp av Anthropics Claude-kodningsverktyg lovar uppdateringen en 48-faldig prestandaförbättring och högre noggrannhet, uppnådd på cirka fem dagar. Blanchard syftade till att göra chardet lämpligt för inkludering i Python standardbiblioteket genom att åtgärda problem med licens, hastighet och noggrannhet. Han började med ett tomt repository, utarbetade ett designdokument som beskrev arkitekturen, och instruerade Claude att undvika att basera koden på LGPL- eller GPL-licensierat material. Efter genereringen granskade, testade och itererade Blanchard på varje del utan att skriva koden för hand. Däremot ifrågasatte en GitHub-kommentator under namnet Mark Pilgrim omlicensieringen och hävdade att den nya versionen härstammar från den ursprungliga LGPL-koden trots omskrivningen. „Deras påstående att det är en ’komplett omskrivning’ är irrelevant, eftersom de haft riklig exponering för den ursprungligen licensierade koden (d.v.s. detta är inte en ’clean room’-implementering)“, skrev Pilgrim. „Att lägga till en fancy kodgenerator i mixen ger dem inte några ytterligare rättigheter på något sätt. Jag insisterar respektfullt på att de återställer projektet till dess ursprungliga licens.“ Blanchard erkände sin bekantskap med den tidigare kodbasen men hävdade att AI-utdata är strukturellt oberoende. Likhetsanalys via JPlag visade högst 1,29 procents överlappning mellan version 7.0-filer och deras föregångare, jämfört med upp till 80 procent i tidigare uppdateringar. Han noterade beroende av metadatafiler från gamla versioner och Claudes träning på offentlig data, inklusive möjligen chardets kod, som potentiella komplikationer. Tvisten har eldat på bredare diskussioner i open source-communityn. Free Software Foundation exekutiva direktör Zoë Kooyman sade till The Register: „Det finns inget ’rent’ med en stor språkmodell som har intagit koden den uppmanas att återimplementera.“ Öppen källkodsutvecklare Armin Ronacher argumenterade i ett blogginlägg att att kasta bort all originalkod skapar ett nytt verk, liknande Skeppet Theseus. Italienska kodaren Salvatore „antirez“ Sanfilippo föreslog att anpassa sig till AI:s transformerande inverkan på mjukvara, medan evangelisten Bruce Perens varnade för djupgående ekonomiska skiften och jämförde det med tryckpressens effekter.

Relaterade artiklar

Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
Bild genererad av AI

Pentagon bestrider Anthropics begränsningar av Claudes militära användning när avtalsförhandlingarna går trögt

Rapporterad av AI Bild genererad av AI Faktagranskad

Efter att Anthropics VD Dario Amodei i slutet av februari sagt att företaget inte skulle tillåta att dess Claude-modell användes för massövervakning i hemmet eller för helt autonoma vapen, sa ledande Pentagon-tjänstemän att de inte har för avsikt att använda AI för övervakning i hemmet och insisterar på att privata företag inte kan sätta bindande gränser för hur den amerikanska militären använder AI-verktyg.

AI-kodningsagenter från företag som OpenAI, Anthropic och Google möjliggör utökat arbete på mjukvaruprojekt, inklusive att skriva appar och fixa buggar under mänsklig översyn. Dessa verktyg bygger på stora språkmodeller men står inför utmaningar som begränsad kontextbehandling och höga beräkningskostnader. Att förstå deras mekanik hjälper utvecklare att besluta när de ska användas effektivt.

Rapporterad av AI

Anthropic har meddelat att dess AI-chattbot Claude förblir fri från annonser, i skarp kontrast till rivalen OpenAIs senaste beslut att testa annonser i ChatGPT. Företaget lanserade en Super Bowl-kampanj som hånar AI-assistenter som avbryter samtal med produktförsäljning. Detta drag belyser de växande spänningarna i den konkurrensutsatta AI-landskapet.

Den 5 februari 2026 lanserade Anthropic och OpenAI samtidigt produkter som skiftar användare från att chatta med AI till att hantera team av AI-agenter. Anthropic introducerade Claude Opus 4.6 med agentteam för utvecklare, medan OpenAI avslöjade Frontier och GPT-5.3-Codex för företagsarbetsflöden. Dessa lanseringar sammanfaller med ett fall på 285 miljarder dollar i mjukvaruaktier mitt i rädslor för att AI stör traditionella SaaS-leverantörer.

Rapporterad av AI

En öppen källkods-AI-assistent som ursprungligen hette Clawdbot har snabbt blivit populär innan den genomgick två snabba ombrandingar till OpenClaw på grund av varumärkesproblem och störningar online. Skapad av utvecklaren Peter Steinberger integreras verktyget i meddelandeappar för att automatisera uppgifter och komma ihåg konversationer. Trots säkerhetsproblem och bedrägerier fortsätter det att locka entusiaster.

Wikipedia har förbjudit användningen av stora språkmodeller för att skapa eller skriva om artikelinnehåll, med hänvisning till brott mot grundläggande innehållspolicyer. Grundläggande redigeringar som att korrigera stavfel samt vissa översättningar av artiklar tillåts under strikta villkor. Detaljerna kring efterlevnaden av policyn förblir oklara.

Rapporterad av AI

Encyclopedia Britannica och dess dotterbolag Merriam-Webster har stämt OpenAI och hävdar upphovsrättsintrång för att ha använt deras innehåll för att träna AI-modeller som ChatGPT utan tillstånd, samt varumärkesintrång från AI som falskt tillskriver hallucinationer till Britannica. Stämningen hävdar att ChatGPT återger ordagranna eller nästan ordagranna delar, sammanfattningar eller förkortningar av deras verk och kannibaliserar trafik till deras webbplatser.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj