cURL slopar bug bounties på grund av AI-genererat skräp

cURL-projektet, ett nyckelverktyg för öppen källkod inom nätverk, avslutar sitt program för belöningar vid sårbarheter efter en lavin av lågkvalitativa, AI-genererade rapporter som överväldigat den lilla teamet. Grundaren Daniel Stenberg nämnde behovet av att skydda maintainerernas mentala hälsa mitt i anfallet. Beslutet träder i kraft i slutet av januari 2026.

Daniel Stenberg, grundare och huvudutvecklare för det öppna källkodsprojektet cURL, meddelade den 22 januari 2026 att teamet avslutar sitt bug bounty-program på grund av ett inflöde av understandardiserade inlämningar, många producerade av stora språkmodeller (LLM). cURL, som först släpptes för tre decennier sedan som httpget och senare urlget, är ett väsentligt verktyg för filöverföringar, felsökning av webben och automatisering, integrerat i Windows, macOS och de flesta Linux-distributioner. Stenberg förklarade resonemanget i ett uttalande: «Vi är bara ett litet enskilt öppet källkodsprojekt med ett litet antal aktiva maintainrar. Det ligger inte i vår makt att ändra hur alla dessa personer och deras slopmaskiner fungerar. Vi behöver vidta åtgärder för att säkerställa vår överlevnad och intakta mentala hälsa.» Han varnade för att dåliga rapporter skulle få konsekvenser och sade: «Vi kommer att banna dig och hånskratta åt dig offentligt om du slösar vår tid på skitrapport.» Förändringen formaliserades i en uppdatering av cURL:s GitHub-repository, giltig från månadens slut. Användare uttryckte oro för att åtgärden behandlar symtom snarare än grundorsaken till AI-missbruk, vilket potentiellt undergräver cURL:s säkerhet. Stenberg erkände problemet men noterade begränsade alternativ för teamet. Redan i maj 2025 hade han lyft fram problemet: «AI-slop överväldigar maintainrar idag och det slutar inte vid curl utan börjar där.» Exempel på falska rapporter inkluderar LLM-hallusinationer, som kodsnuttar som inte kompilerar och fabricerade changeloggar. I ett fall svarade en maintainer en rapportör: «Jag tror att du är offer för LLM-hallusination.» Stenberg tillade: «Du lurades av en AI att tro det.» Stenberg är inte emot all AI-användning; i september 2025 prisade han forskaren Joshua Rogers för att ha skickat en «massiv lista» med buggar hittade med AI-verktyg som ZeroPath, vilket ledde till 22 fixar. Han kritiserade dock slarvig beroende av AI utan verifiering och antydde att sådana genomtänkta tillämpningar är sällsynta. Denna utveckling signalerar bredare utmaningar för öppen källkodsäkerhet mitt i den ökande AI-genererade innehållet.

Relaterade artiklar

Dramatic illustration of a computer screen showing OpenClaw AI security warning from Chinese cybersecurity agency, with hacker threats and vulnerability symbols.
Bild genererad av AI

Chinese cybersecurity agency warns of OpenClaw AI risks

Rapporterad av AI Bild genererad av AI

China's national cybersecurity authority has warned of security risks in the OpenClaw AI agent software, which could allow attackers to gain full control of users' computer systems. The software has seen rapid growth in downloads and usage, with major domestic cloud platforms offering one-click deployment services, but its default security configuration is weak.

Linux Foundation har säkrat 12,5 miljoner dollar i bidrag från AI-företag för att stärka säkerheten för programvara med öppen källkod. Finansieringen riktar sig till underhållare som är överväldigade av AI-genererade sårbarhetsrapporter. Det kommer att hanteras av Alpha-Omega och Open Source Security Foundation.

Rapporterad av AI

Linus Torvalds, skaparen av Linuxkärnan, har kritiserat försök att skapa regler för AI-genererad kodinskick och kallat dem poänglösa. I ett nyligt mejl hävdade han att sådana policys inte skulle avskräcka skadliga bidragsgivare och uppmanade till fokus på kodkvalitet istället. Denna ståndpunkt belyser pågående spänningar i open source-utveckling kring artificiell intelligensverktyg.

Linus Torvalds, skaparen av Linuxkärnan, har hårt kritiserat diskussioner om AI-genererat innehåll i kärnans dokumentation. Han kallade snack om 'AI slop' poänglöst och dumt. Kommentarerna belyser pågående spänningar kring AI i open source-utveckling.

Rapporterad av AI

Efter tidigare rapporter om direkta attacker mot OpenClaw AI-agenter varnar TechRadar för att infostealers nu förklär sig som Claude Code, OpenClaw och andra AI-utvecklingsverktyg. Användare bör vara försiktiga med sökmotorresultat. Publicerad 18 mars 2026.

Linus Torvalds, skaparen av Linux, har vänt sig till AI-assisterad kodning för ett hobbyprojekt, vilket markerar en förändring från hans tidigare kritik mot sådana verktyg. I januari 2026 uppdaterade han sitt GitHub-repository AudioNoise och krediterade Googles Antigravity för att generera Python-kod för att visualisera ljudprover. Detta drag belyser AI:s roll i experimentell utveckling medan han fokuserar på kärnlogik i C.

Rapporterad av AI

Med byggnad på kontroversen i slutet av december 2025 kring Grok AIs generering av tusentals icke-samtyckta sexualiserade bilder —inklusive av minderåriga, kändisar och kvinnor i religiös klädsel— har xAI begränsat bildredigering till betalande prenumeranter från 9 januari 2026. Kritiker kallar åtgärden otillräcklig på grund av luckor, medan regeringar från Storbritannien till Indien kräver robusta skyddsåtgärder.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj