Linux Foundation har säkrat 12,5 miljoner dollar i bidrag från AI-företag för att stärka säkerheten för programvara med öppen källkod. Finansieringen riktar sig till underhållare som är överväldigade av AI-genererade sårbarhetsrapporter. Det kommer att hanteras av Alpha-Omega och Open Source Security Foundation.
Linux Foundation tillkännagav 12,5 miljoner dollar i bidrag den 19 mars 2026, i syfte att stärka säkerheten för programvara med öppen källkod. Detta initiativ, som hanteras av dess säkerhetsfokuserade projekt Alpha-Omega och Open Source Security Foundation (OpenSSF), riktar sig till utmaningen för underhållare av öppen källkod som kämpar med en kraftig ökning av säkerhetsfynd från AI-verktyg - vissa legitima, andra hallucinationer genererade i en skala som de inte kan hantera ensamma. Bidragande AI-företag inkluderar Anthropic, Google, Google DeepMind, GitHub, Microsoft och OpenAI. Projekten planerar att samarbeta direkt med underhållare för att utveckla praktiska säkerhetsverktyg som integreras i befintliga arbetsflöden, vilket hjälper dem att hantera ökande krav utan att bli överväldigade. Greg Kroah-Hartman, en Linux Foundation Fellow och underhållare av Linux-kärnan, noterade problemets giltighet och hänvisade till en tidigare incident. År 2025 mötte cURLs bug bounty-program på HackerOne en flod av AI-genererade rapporter som saknade ordentlig forskning. cURL-skaparen Daniel Stenberg varnade för att inlämnare av sådana rapporter skulle bli offentligt namngivna, förlöjligade och förbjudna, men detta avskräckte dem inte. I januari 2026 hade programmet tagit emot 20 sådana rapporter under de första veckorna, vilket ledde till att det stängdes ned helt. Förespråkare ser bidragen som ett konstruktivt steg, men inte en fullständig lösning på AI-genererat brus i säkerhetsinsatser med öppen källkod.