Fondation Python accepte fonds d'Anthropic après refus de subvention américaine

La Python Software Foundation a obtenu 1,5 million de dollars d'Anthropic, l'entreprise derrière Claude AI, pour un partenariat de deux ans axé sur l'amélioration de la sécurité de l'écosystème Python. Cela fait suite au refus de la fondation d'un financement similaire du gouvernement américain l'an dernier en raison de préoccupations concernant les politiques de diversité, équité et inclusion. L'investissement vise à protéger le Python Package Index contre les attaques de la chaîne d'approvisionnement et à soutenir les opérations en cours.

Python est devenu essentiel au développement de l'IA moderne, alimentant des frameworks comme TensorFlow et PyTorch grâce à son accessibilité et à ses bibliothèques riches. Le 15 janvier 2026, la Python Software Foundation (PSF) a annoncé un investissement de 1,5 million de dollars d'Anthropic sur les deux prochaines années. L'année dernière, la PSF a rejeté une subvention comparable de 1,5 million de dollars de la National Science Foundation (NSF). Cette décision provenait d'une clause permettant à la NSF de récupérer les fonds si la PSF violait les politiques anti-DEI du gouvernement américain. Loren Crary de la PSF a abordé cela dans une déclaration, soulignant les préoccupations de la fondation. Le financement d'Anthropic cible des améliorations de sécurité pour l'écosystème Python, en particulier le Python Package Index (PyPI). PyPI héberge des centaines de milliers de paquets et sert des millions de développeurs dans le monde, mais reste vulnérable aux téléchargements malveillants open source. Le partenariat développera des outils de révision automatisés pour les paquets téléversés, passant de mesures réactives à une détection proactive. Les initiatives clés incluent la création d'un ensemble de données de malwares connus pour entraîner des outils de détection qui repèrent des motifs suspects. Cette approche pourrait s'étendre à d'autres dépôts open source. Au-delà de la sécurité, les fonds soutiendront les opérations de PyPI, le programme Developers in Residence pour les contributions à CPython et les subventions communautaires. La contribution d'Anthropic souligne sa dépendance à Python pour ses opérations, mêlant intérêt propre et soutien communautaire. Alors que les entreprises d'IA dépendent de plus en plus de l'infrastructure open source, de tels investissements mettent en lumière le besoin de modèles de financement durables face aux préoccupations de profiteur corporatif.

Articles connexes

Tech leaders announcing Linux Foundation's AI-powered cybersecurity initiative for open source software with major partners.
Image générée par IA

Linux Foundation announces AI security initiative with tech partners

Rapporté par l'IA Image générée par IA

The Linux Foundation has launched a new initiative using Anthropic's Claude Mythos preview for defensive cybersecurity in open source software. Partners include AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan, Microsoft, NVIDIA, and Palo Alto Networks. The effort aims to secure critical software amid the rise of AI for open source maintainers.

The Linux Foundation has secured $12.5 million in grants from AI companies to bolster open source software security. The funding addresses maintainers overwhelmed by AI-generated vulnerability reports. It will be managed by Alpha-Omega and the Open Source Security Foundation.

Rapporté par l'IA

Anthropic has launched the Anthropic Institute, a new research initiative, and opened its first Public Policy office in Washington, DC, this spring. These steps follow the AI company's recent federal lawsuit against the US government over a Defense Department supply chain risk designation tied to a contract dispute.

In the wake of Anthropic's unveiling of its powerful Claude Mythos AI—capable of detecting and exploiting software vulnerabilities—the US Treasury Secretary has convened top bank executives to highlight escalating AI-driven cyber threats. The move underscores growing concerns as the AI is restricted to a tech coalition via Project Glasswing.

Rapporté par l'IA Vérifié par des faits

The Pentagon has formally notified AI company Anthropic that it is deemed a “supply chain risk,” a rare designation that critics say is typically aimed at adversary-linked technology. The move follows a breakdown in negotiations over whether the U.S. military can use Anthropic’s Claude models for all lawful purposes, versus contractual limits the company says are needed to prevent fully autonomous weapons and mass domestic surveillance.

A federal judge in San Francisco issued a preliminary injunction on March 27, 2026, blocking the Trump administration's designation of AI company Anthropic as a military supply chain risk—a label applied three weeks earlier amid disputes over the firm's limits on its Claude AI models for military uses like autonomous weapons.

Rapporté par l'IA

Global investors are questioning the returns on massive tech spending in artificial intelligence. Christopher Wood, from Jefferies, identifies Anthropic as a standout in the evolving AI landscape. The AI boom has boosted US equities, but concerns grow over its sustainability.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser