Python-stiftelsen accepterar Anthropic-finansiering efter att ha avvisat USA-bidrag

Python Software Foundation har säkrat 1,5 miljoner dollar från Anthropic, företaget bakom Claude AI, för ett tvåårigt partnerskap fokuserat på att förbättra säkerheten i Python-ekosystemet. Detta följer stiftelsens avvisande av liknande finansiering från USA:s regering förra året på grund av oro kring mångfalds-, rättvishets- och inkluderingsriktlinjer. Investeringen syftar till att skydda Python Package Index från försörjningskedjeattacker och stödja pågående verksamheter.

Python har blivit oumbärligt för modern AI-utveckling och driver ramverk som TensorFlow och PyTorch tack vare sin tillgänglighet och rika bibliotek. Den 15 januari 2026 meddelade Python Software Foundation (PSF) en investering på 1,5 miljoner dollar från Anthropic över de kommande två åren. Förra året avvisade PSF ett jämförbart bidrag på 1,5 miljoner dollar från National Science Foundation (NSF). Beslutet grundade sig i en klausul som tillät NSF att återkräva medlen om PSF bröt mot USA:s regerings antagande DEI-politik. Loren Crary vid PSF tog upp detta i ett uttalande och belyste stiftelsens farhågor. Anthropics finansiering riktar sig mot säkerhetsförbättringar för Python-ekosystemet, särskilt Python Package Index (PyPI). PyPI lagrar hundratusentals paket och betjänar miljontals utvecklare världen över men är sårbart för skadliga open source-uppladdningar. Partnerskapet kommer att utveckla automatiserade granskningsverktyg för uppladdade paket och skifta från reaktiva åtgärder till proaktiv detektion. Viktiga initiativ inkluderar skapandet av en datamängd med känd skadlig kod för att träna detektionsverktyg som identifierar misstänkta mönster. Detta tillvägagångssätt kan utökas till andra open source-repositorier. Utöver säkerhet kommer medlen att upprätthålla PyPI:s drift, Developers in Residence-programmet för bidrag till CPython och gemenskapsbidrag. Anthropics bidrag understryker dess beroende av Python för verksamheten och blandar egenintresse med gemenskapsstöd. När AI-företag i ökande grad förlitar sig på open source-infrastruktur belyser sådana investeringar behovet av hållbara finansieringsmodeller mitt i farhågor om företagsfrittiden.

Relaterade artiklar

Realistic illustration of Linux Foundation executives and AI partners launching Agentic AI Foundation, featuring collaborative autonomous AI agents on a conference screen.
Bild genererad av AI

Linux Foundation lanserar Agentic AI Foundation

Rapporterad av AI Bild genererad av AI

Linux Foundation har lanserat Agentic AI Foundation för att främja öppen samverkan kring autonoma AI-system. Stora teknikföretag, inklusive Anthropic, OpenAI och Block, har bidragit med nyckelöppen källkod för att främja interoperabilitet och förhindra leverantörslåsning. Initiativet syftar till att skapa neutrala standarder för AI-agenter som kan fatta beslut och utföra uppgifter oberoende.

Linux Foundation har säkrat 12,5 miljoner dollar i bidrag från AI-företag för att stärka säkerheten för programvara med öppen källkod. Finansieringen riktar sig till underhållare som är överväldigade av AI-genererade sårbarhetsrapporter. Det kommer att hanteras av Alpha-Omega och Open Source Security Foundation.

Rapporterad av AI

Anthropic har lanserat Anthropic Institute, ett nytt forskningsinitiativ, och öppnat sitt första kontor för offentlig politik i Washington, DC, i år. Dessa steg följer AI-företagets senaste federala stämning mot USA:s regering gällande försvarsdepartementets klassificering av leveranskedjerisk kopplad till en tvist om kontrakt.

USA:s president Donald Trump har beordrat alla federala myndigheter att omedelbart sluta använda Anthropics AI-verktyg mitt i en tvist om militära tillämpningar. Åtgärden följer veckor av kollisioner mellan Anthropic och Pentagon-tjänstemän angående restriktioner för AI vid massövervakning och autonoma vapen. En utfasningsperiod på sex månader har annonserats.

Rapporterad av AI

Anthropics senaste uppdatering av sin CoWork-plattform har lett till betydande marknadsmässiga reaktioner i mjukvaruindustrin. USA:s mjukvarusektor utsattes för en omfattande säljoffensiv och förlorade över 1 biljon dollar i värde, enligt Fortune. Denna utveckling belyser osäkerheten bland investerare kring AI-native arbetsflöden och deras inverkan på SaaS-aktier.

Efter att Anthropics VD Dario Amodei i slutet av februari sagt att företaget inte skulle tillåta att dess Claude-modell användes för massövervakning i hemmet eller för helt autonoma vapen, sa ledande Pentagon-tjänstemän att de inte har för avsikt att använda AI för övervakning i hemmet och insisterar på att privata företag inte kan sätta bindande gränser för hur den amerikanska militären använder AI-verktyg.

Rapporterad av AI

USA:s president Donald Trump har beordrat federala myndigheter att omedelbart upphöra med användningen av Anthropics Claude AI, efter företagets vägran att tillåta användning för massövervakning eller autonoma vapen. Orden inkluderar en utfasningsperiod på sex månader. Beslutet härrör från pågående konflikter mellan Anthropic och försvarsdepartementet kring AI-restriktioner.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj