Python-stiftelsen accepterar Anthropic-finansiering efter att ha avvisat USA-bidrag

Python Software Foundation har säkrat 1,5 miljoner dollar från Anthropic, företaget bakom Claude AI, för ett tvåårigt partnerskap fokuserat på att förbättra säkerheten i Python-ekosystemet. Detta följer stiftelsens avvisande av liknande finansiering från USA:s regering förra året på grund av oro kring mångfalds-, rättvishets- och inkluderingsriktlinjer. Investeringen syftar till att skydda Python Package Index från försörjningskedjeattacker och stödja pågående verksamheter.

Python har blivit oumbärligt för modern AI-utveckling och driver ramverk som TensorFlow och PyTorch tack vare sin tillgänglighet och rika bibliotek. Den 15 januari 2026 meddelade Python Software Foundation (PSF) en investering på 1,5 miljoner dollar från Anthropic över de kommande två åren. Förra året avvisade PSF ett jämförbart bidrag på 1,5 miljoner dollar från National Science Foundation (NSF). Beslutet grundade sig i en klausul som tillät NSF att återkräva medlen om PSF bröt mot USA:s regerings antagande DEI-politik. Loren Crary vid PSF tog upp detta i ett uttalande och belyste stiftelsens farhågor. Anthropics finansiering riktar sig mot säkerhetsförbättringar för Python-ekosystemet, särskilt Python Package Index (PyPI). PyPI lagrar hundratusentals paket och betjänar miljontals utvecklare världen över men är sårbart för skadliga open source-uppladdningar. Partnerskapet kommer att utveckla automatiserade granskningsverktyg för uppladdade paket och skifta från reaktiva åtgärder till proaktiv detektion. Viktiga initiativ inkluderar skapandet av en datamängd med känd skadlig kod för att träna detektionsverktyg som identifierar misstänkta mönster. Detta tillvägagångssätt kan utökas till andra open source-repositorier. Utöver säkerhet kommer medlen att upprätthålla PyPI:s drift, Developers in Residence-programmet för bidrag till CPython och gemenskapsbidrag. Anthropics bidrag understryker dess beroende av Python för verksamheten och blandar egenintresse med gemenskapsstöd. När AI-företag i ökande grad förlitar sig på open source-infrastruktur belyser sådana investeringar behovet av hållbara finansieringsmodeller mitt i farhågor om företagsfrittiden.

Relaterade artiklar

Tech leaders announcing Linux Foundation's AI-powered cybersecurity initiative for open source software with major partners.
Bild genererad av AI

Linux Foundation announces AI security initiative with tech partners

Rapporterad av AI Bild genererad av AI

The Linux Foundation has launched a new initiative using Anthropic's Claude Mythos preview for defensive cybersecurity in open source software. Partners include AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan, Microsoft, NVIDIA, and Palo Alto Networks. The effort aims to secure critical software amid the rise of AI for open source maintainers.

The Linux Foundation has secured $12.5 million in grants from AI companies to bolster open source software security. The funding addresses maintainers overwhelmed by AI-generated vulnerability reports. It will be managed by Alpha-Omega and the Open Source Security Foundation.

Rapporterad av AI

Anthropic has launched the Anthropic Institute, a new research initiative, and opened its first Public Policy office in Washington, DC, this spring. These steps follow the AI company's recent federal lawsuit against the US government over a Defense Department supply chain risk designation tied to a contract dispute.

In the wake of Anthropic's unveiling of its powerful Claude Mythos AI—capable of detecting and exploiting software vulnerabilities—the US Treasury Secretary has convened top bank executives to highlight escalating AI-driven cyber threats. The move underscores growing concerns as the AI is restricted to a tech coalition via Project Glasswing.

Rapporterad av AI Faktagranskad

The Pentagon has formally notified AI company Anthropic that it is deemed a “supply chain risk,” a rare designation that critics say is typically aimed at adversary-linked technology. The move follows a breakdown in negotiations over whether the U.S. military can use Anthropic’s Claude models for all lawful purposes, versus contractual limits the company says are needed to prevent fully autonomous weapons and mass domestic surveillance.

A federal judge in San Francisco issued a preliminary injunction on March 27, 2026, blocking the Trump administration's designation of AI company Anthropic as a military supply chain risk—a label applied three weeks earlier amid disputes over the firm's limits on its Claude AI models for military uses like autonomous weapons.

Rapporterad av AI

Global investors are questioning the returns on massive tech spending in artificial intelligence. Christopher Wood, from Jefferies, identifies Anthropic as a standout in the evolving AI landscape. The AI boom has boosted US equities, but concerns grow over its sustainability.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj