Fondation Python accepte fonds d'Anthropic après refus de subvention américaine

La Python Software Foundation a obtenu 1,5 million de dollars d'Anthropic, l'entreprise derrière Claude AI, pour un partenariat de deux ans axé sur l'amélioration de la sécurité de l'écosystème Python. Cela fait suite au refus de la fondation d'un financement similaire du gouvernement américain l'an dernier en raison de préoccupations concernant les politiques de diversité, équité et inclusion. L'investissement vise à protéger le Python Package Index contre les attaques de la chaîne d'approvisionnement et à soutenir les opérations en cours.

Python est devenu essentiel au développement de l'IA moderne, alimentant des frameworks comme TensorFlow et PyTorch grâce à son accessibilité et à ses bibliothèques riches. Le 15 janvier 2026, la Python Software Foundation (PSF) a annoncé un investissement de 1,5 million de dollars d'Anthropic sur les deux prochaines années. L'année dernière, la PSF a rejeté une subvention comparable de 1,5 million de dollars de la National Science Foundation (NSF). Cette décision provenait d'une clause permettant à la NSF de récupérer les fonds si la PSF violait les politiques anti-DEI du gouvernement américain. Loren Crary de la PSF a abordé cela dans une déclaration, soulignant les préoccupations de la fondation. Le financement d'Anthropic cible des améliorations de sécurité pour l'écosystème Python, en particulier le Python Package Index (PyPI). PyPI héberge des centaines de milliers de paquets et sert des millions de développeurs dans le monde, mais reste vulnérable aux téléchargements malveillants open source. Le partenariat développera des outils de révision automatisés pour les paquets téléversés, passant de mesures réactives à une détection proactive. Les initiatives clés incluent la création d'un ensemble de données de malwares connus pour entraîner des outils de détection qui repèrent des motifs suspects. Cette approche pourrait s'étendre à d'autres dépôts open source. Au-delà de la sécurité, les fonds soutiendront les opérations de PyPI, le programme Developers in Residence pour les contributions à CPython et les subventions communautaires. La contribution d'Anthropic souligne sa dépendance à Python pour ses opérations, mêlant intérêt propre et soutien communautaire. Alors que les entreprises d'IA dépendent de plus en plus de l'infrastructure open source, de tels investissements mettent en lumière le besoin de modèles de financement durables face aux préoccupations de profiteur corporatif.

Articles connexes

Realistic illustration of Linux Foundation executives and AI partners launching Agentic AI Foundation, featuring collaborative autonomous AI agents on a conference screen.
Image générée par IA

Linux Foundation lance Agentic AI Foundation

Rapporté par l'IA Image générée par IA

La Linux Foundation a lancé l'Agentic AI Foundation pour favoriser la collaboration ouverte sur les systèmes d'IA autonomes. De grandes entreprises technologiques, dont Anthropic, OpenAI et Block, ont contribué des projets open source clés pour promouvoir l'interopérabilité et éviter le verrouillage fournisseur. L'initiative vise à créer des normes neutres pour les agents IA capables de prendre des décisions et d'exécuter des tâches de manière indépendante.

La Fondation Linux a obtenu 12,5 millions de dollars de subventions de la part d'entreprises spécialisées dans l'intelligence artificielle afin de renforcer la sécurité des logiciels libres. Ce financement s'adresse aux mainteneurs submergés par les rapports de vulnérabilité générés par l'IA. Il sera géré par Alpha-Omega et l'Open Source Security Foundation.

Rapporté par l'IA

Anthropic a lancé l’Anthropic Institute, une nouvelle initiative de recherche, et ouvert son premier bureau de politique publique à Washington, DC, ce printemps. Ces mesures font suite au récent procès fédéral intenté par l’entreprise d’IA contre le gouvernement américain concernant une désignation de risque dans la chaîne d’approvisionnement du Département de la Défense liée à un différend contractuel.

Le président américain Donald Trump a ordonné à toutes les agences fédérales de cesser immédiatement d'utiliser les outils d'IA d'Anthropic au milieu d'un différend sur les applications militaires. Cette mesure fait suite à des semaines de clashes entre Anthropic et des responsables du Pentagone concernant les restrictions sur l'IA pour la surveillance de masse et les armes autonomes. Une période de transition de six mois a été annoncée.

Rapporté par l'IA

La récente mise à jour de la plateforme CoWork d'Anthropic a entraîné des réactions marquées sur le marché dans l'industrie logicielle. Le secteur logiciel américain a connu une vente massive généralisée, perdant plus de 1 000 milliards de dollars de valeur, selon Fortune. Ce développement met en lumière l'incertitude des investisseurs quant aux workflows natifs IA et leur impact sur les actions SaaS.

Après que le PDG d'Anthropic, Dario Amodei, a déclaré fin février que l'entreprise ne permettrait pas que son modèle Claude soit utilisé pour la surveillance domestique de masse ou pour des armes entièrement autonomes, de hauts responsables du Pentagone ont déclaré qu'ils n'avaient pas l'intention d'utiliser l'IA pour la surveillance domestique et ont insisté sur le fait que les entreprises privées ne peuvent pas fixer de limites contraignantes sur la manière dont l'armée américaine utilise les outils d'IA.

Rapporté par l'IA

Le président américain Donald Trump a ordonné aux agences fédérales de cesser immédiatement d'utiliser l'IA Claude d'Anthropic, après le refus de l'entreprise d'autoriser son usage pour la surveillance de masse ou les armes autonomes. L'ordonnance prévoit une période de transition de six mois. Cette décision résulte des affrontements en cours entre Anthropic et le Département de la Défense sur les restrictions relatives à l'IA.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser