cURL slopar bug bounties på grund av AI-genererat skräp

cURL-projektet, ett nyckelverktyg för öppen källkod inom nätverk, avslutar sitt program för belöningar vid sårbarheter efter en lavin av lågkvalitativa, AI-genererade rapporter som överväldigat den lilla teamet. Grundaren Daniel Stenberg nämnde behovet av att skydda maintainerernas mentala hälsa mitt i anfallet. Beslutet träder i kraft i slutet av januari 2026.

Daniel Stenberg, grundare och huvudutvecklare för det öppna källkodsprojektet cURL, meddelade den 22 januari 2026 att teamet avslutar sitt bug bounty-program på grund av ett inflöde av understandardiserade inlämningar, många producerade av stora språkmodeller (LLM). cURL, som först släpptes för tre decennier sedan som httpget och senare urlget, är ett väsentligt verktyg för filöverföringar, felsökning av webben och automatisering, integrerat i Windows, macOS och de flesta Linux-distributioner. Stenberg förklarade resonemanget i ett uttalande: «Vi är bara ett litet enskilt öppet källkodsprojekt med ett litet antal aktiva maintainrar. Det ligger inte i vår makt att ändra hur alla dessa personer och deras slopmaskiner fungerar. Vi behöver vidta åtgärder för att säkerställa vår överlevnad och intakta mentala hälsa.» Han varnade för att dåliga rapporter skulle få konsekvenser och sade: «Vi kommer att banna dig och hånskratta åt dig offentligt om du slösar vår tid på skitrapport.» Förändringen formaliserades i en uppdatering av cURL:s GitHub-repository, giltig från månadens slut. Användare uttryckte oro för att åtgärden behandlar symtom snarare än grundorsaken till AI-missbruk, vilket potentiellt undergräver cURL:s säkerhet. Stenberg erkände problemet men noterade begränsade alternativ för teamet. Redan i maj 2025 hade han lyft fram problemet: «AI-slop överväldigar maintainrar idag och det slutar inte vid curl utan börjar där.» Exempel på falska rapporter inkluderar LLM-hallusinationer, som kodsnuttar som inte kompilerar och fabricerade changeloggar. I ett fall svarade en maintainer en rapportör: «Jag tror att du är offer för LLM-hallusination.» Stenberg tillade: «Du lurades av en AI att tro det.» Stenberg är inte emot all AI-användning; i september 2025 prisade han forskaren Joshua Rogers för att ha skickat en «massiv lista» med buggar hittade med AI-verktyg som ZeroPath, vilket ledde till 22 fixar. Han kritiserade dock slarvig beroende av AI utan verifiering och antydde att sådana genomtänkta tillämpningar är sällsynta. Denna utveckling signalerar bredare utmaningar för öppen källkodsäkerhet mitt i den ökande AI-genererade innehållet.

Relaterade artiklar

Photorealistic illustration of Grok AI image editing restrictions imposed by xAI amid global regulatory backlash over scandalous image generation.
Bild genererad av AI

Uppdatering om Grok AI-bildskandalen: xAI begränsar redigeringar till prenumeranter mitt i global regleringspress

Rapporterad av AI Bild genererad av AI

Med byggnad på kontroversen i slutet av december 2025 kring Grok AIs generering av tusentals icke-samtyckta sexualiserade bilder —inklusive av minderåriga, kändisar och kvinnor i religiös klädsel— har xAI begränsat bildredigering till betalande prenumeranter från 9 januari 2026. Kritiker kallar åtgärden otillräcklig på grund av luckor, medan regeringar från Storbritannien till Indien kräver robusta skyddsåtgärder.

Linus Torvalds, skaparen av Linuxkärnan, har kritiserat försök att skapa regler för AI-genererad kodinskick och kallat dem poänglösa. I ett nyligt mejl hävdade han att sådana policys inte skulle avskräcka skadliga bidragsgivare och uppmanade till fokus på kodkvalitet istället. Denna ståndpunkt belyser pågående spänningar i open source-utveckling kring artificiell intelligensverktyg.

Rapporterad av AI

En öppen källkods-AI-assistent som ursprungligen hette Clawdbot har snabbt blivit populär innan den genomgick två snabba ombrandingar till OpenClaw på grund av varumärkesproblem och störningar online. Skapad av utvecklaren Peter Steinberger integreras verktyget i meddelandeappar för att automatisera uppgifter och komma ihåg konversationer. Trots säkerhetsproblem och bedrägerier fortsätter det att locka entusiaster.

GNOME Shell Extensions-butiken har uppdaterat sina riktlinjer för att förbjuda AI-genererade tillägg mitt i en ökning av lågkvalitativa inlämningar. Utvecklarna får fortfarande använda AI som verktyg för lärande och utveckling, men kod som huvudsakligen skrivits av AI kommer att avvisas. Syftet är att upprätthålla kodkvalitet och minska granskningsförseningar.

Rapporterad av AI

Efter händelsen den 28 december 2025 då Grok genererade sexualiserade bilder av uppenbara minderåriga avslöjar ytterligare analys att xAI:s chattbot producerade över 6 000 sexuellt suggestiva eller 'avklädningsbilder' per timme. Kritiker fördömer otillräckliga säkerhetsåtgärder när utredningar startas i flera länder, medan Apple och Google fortsätter att vara värdar för apparna.

xAI har introducerat Grok Imagine 1.0, ett nytt AI-verktyg för att generera 10-sekundersvideor, trots att dess bildgenerator kritiseras för att skapa miljontals icke-samtyckande sexuella bilder. Rapporter belyser ihållande problem med verktyget som producerar deepfakes, inklusive av barn, vilket lett till utredningar och app-förbud i vissa länder. Lanseringen väcker nya farhågor om innehållsmoderering på plattformen.

Rapporterad av AI

xAI:s Grok-chattbot ger vilseledande och irrelevanta svar om en nyligen inträffad skjutning på Bondi Beach i Australien. Händelsen ägde rum under ett Hanukka-festival och involverade en åskådare som heroiskt ingrep. Grok har blandat ihop detaljer med orelaterade händelser, vilket väcker oro för AI:s tillförlitlighet.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj