Fundação Python aceita financiamento da Anthropic após rejeitar subsídio dos EUA

A Python Software Foundation garantiu 1,5 milhão de dólares da Anthropic, a empresa por trás do Claude AI, para uma parceria de dois anos focada em aprimorar a segurança do ecossistema Python. Isso segue a rejeição da fundação a um financiamento similar do governo dos EUA no ano passado devido a preocupações com políticas de diversidade, equidade e inclusão. O investimento visa proteger o Python Package Index de ataques à cadeia de suprimentos e apoiar operações contínuas.

O Python tornou-se essencial para o desenvolvimento de IA moderno, alimentando frameworks como TensorFlow e PyTorch devido à sua acessibilidade e bibliotecas ricas. Em 15 de janeiro de 2026, a Python Software Foundation (PSF) anunciou um investimento de 1,5 milhão de dólares da Anthropic nos próximos dois anos. No ano passado, a PSF rejeitou uma subvenção comparável de 1,5 milhão de dólares da National Science Foundation (NSF). A decisão decorreu de uma cláusula que permitia à NSF recuperar os fundos se a PSF violasse as políticas anti-DEI do governo dos EUA. Loren Crary, da PSF, abordou isso em uma declaração, destacando as preocupações da fundação. O financiamento da Anthropic visa melhorias de segurança para o ecossistema Python, particularmente o Python Package Index (PyPI). O PyPI abriga centenas de milhares de pacotes e atende milhões de desenvolvedores em todo o mundo, mas permanece vulnerável a uploads maliciosos de código aberto. A parceria desenvolverá ferramentas de revisão automatizada para pacotes enviados, passando de medidas reativas para detecção proativa. Iniciativas chave incluem a criação de um conjunto de dados de malware conhecido para treinar ferramentas de detecção que identifiquem padrões suspeitos. Essa abordagem pode se estender a outros repositórios de código aberto. Além da segurança, os fundos sustentarão as operações do PyPI, o programa Developers in Residence para contribuições ao CPython e subsídios comunitários. A contribuição da Anthropic sublinha sua dependência do Python para operações, misturando interesse próprio com apoio comunitário. À medida que empresas de IA dependem cada vez mais de infraestrutura de código aberto, tais investimentos destacam a necessidade de modelos de financiamento sustentáveis em meio a preocupações com parasitismo corporativo.

Artigos relacionados

Tech leaders announcing Linux Foundation's AI-powered cybersecurity initiative for open source software with major partners.
Imagem gerada por IA

Linux Foundation announces AI security initiative with tech partners

Reportado por IA Imagem gerada por IA

The Linux Foundation has launched a new initiative using Anthropic's Claude Mythos preview for defensive cybersecurity in open source software. Partners include AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan, Microsoft, NVIDIA, and Palo Alto Networks. The effort aims to secure critical software amid the rise of AI for open source maintainers.

The Linux Foundation has secured $12.5 million in grants from AI companies to bolster open source software security. The funding addresses maintainers overwhelmed by AI-generated vulnerability reports. It will be managed by Alpha-Omega and the Open Source Security Foundation.

Reportado por IA

Anthropic has launched the Anthropic Institute, a new research initiative, and opened its first Public Policy office in Washington, DC, this spring. These steps follow the AI company's recent federal lawsuit against the US government over a Defense Department supply chain risk designation tied to a contract dispute.

In the wake of Anthropic's unveiling of its powerful Claude Mythos AI—capable of detecting and exploiting software vulnerabilities—the US Treasury Secretary has convened top bank executives to highlight escalating AI-driven cyber threats. The move underscores growing concerns as the AI is restricted to a tech coalition via Project Glasswing.

Reportado por IA Verificado

The Pentagon has formally notified AI company Anthropic that it is deemed a “supply chain risk,” a rare designation that critics say is typically aimed at adversary-linked technology. The move follows a breakdown in negotiations over whether the U.S. military can use Anthropic’s Claude models for all lawful purposes, versus contractual limits the company says are needed to prevent fully autonomous weapons and mass domestic surveillance.

A federal judge in San Francisco issued a preliminary injunction on March 27, 2026, blocking the Trump administration's designation of AI company Anthropic as a military supply chain risk—a label applied three weeks earlier amid disputes over the firm's limits on its Claude AI models for military uses like autonomous weapons.

Reportado por IA

Global investors are questioning the returns on massive tech spending in artificial intelligence. Christopher Wood, from Jefferies, identifies Anthropic as a standout in the evolving AI landscape. The AI boom has boosted US equities, but concerns grow over its sustainability.

terça-feira, 05 de maio de 2026, 03:11h

Anthropic reportedly agrees to pay Google $200 billion over five years

segunda-feira, 20 de abril de 2026, 20:41h

Anthropic's Mythos AI model sparks hacking fears

terça-feira, 07 de abril de 2026, 23:21h

Anthropic restricts Claude Mythos AI release and launches Project Glasswing over cybersecurity risks

segunda-feira, 06 de abril de 2026, 02:37h

UK government courts Anthropic for London office expansion

segunda-feira, 09 de março de 2026, 14:38h

Anthropic sues US defense department over supply chain risk designation

quarta-feira, 04 de março de 2026, 11:15h

Anthropic's CoWork update sparks U.S. software sector sell-off

sábado, 28 de fevereiro de 2026, 15:28h

Trump orders federal ban on Anthropic AI for government use

sexta-feira, 27 de fevereiro de 2026, 11:37h

Trump directs US agencies to end work with Anthropic

quinta-feira, 26 de fevereiro de 2026, 22:43h

Anthropic cannot meet Pentagon's AI safeguards demand, CEO says

segunda-feira, 16 de fevereiro de 2026, 13:12h

Pentagon may sever ties with Anthropic over AI safeguards

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar