Fundação Python aceita financiamento da Anthropic após rejeitar subsídio dos EUA

A Python Software Foundation garantiu 1,5 milhão de dólares da Anthropic, a empresa por trás do Claude AI, para uma parceria de dois anos focada em aprimorar a segurança do ecossistema Python. Isso segue a rejeição da fundação a um financiamento similar do governo dos EUA no ano passado devido a preocupações com políticas de diversidade, equidade e inclusão. O investimento visa proteger o Python Package Index de ataques à cadeia de suprimentos e apoiar operações contínuas.

O Python tornou-se essencial para o desenvolvimento de IA moderno, alimentando frameworks como TensorFlow e PyTorch devido à sua acessibilidade e bibliotecas ricas. Em 15 de janeiro de 2026, a Python Software Foundation (PSF) anunciou um investimento de 1,5 milhão de dólares da Anthropic nos próximos dois anos. No ano passado, a PSF rejeitou uma subvenção comparável de 1,5 milhão de dólares da National Science Foundation (NSF). A decisão decorreu de uma cláusula que permitia à NSF recuperar os fundos se a PSF violasse as políticas anti-DEI do governo dos EUA. Loren Crary, da PSF, abordou isso em uma declaração, destacando as preocupações da fundação. O financiamento da Anthropic visa melhorias de segurança para o ecossistema Python, particularmente o Python Package Index (PyPI). O PyPI abriga centenas de milhares de pacotes e atende milhões de desenvolvedores em todo o mundo, mas permanece vulnerável a uploads maliciosos de código aberto. A parceria desenvolverá ferramentas de revisão automatizada para pacotes enviados, passando de medidas reativas para detecção proativa. Iniciativas chave incluem a criação de um conjunto de dados de malware conhecido para treinar ferramentas de detecção que identifiquem padrões suspeitos. Essa abordagem pode se estender a outros repositórios de código aberto. Além da segurança, os fundos sustentarão as operações do PyPI, o programa Developers in Residence para contribuições ao CPython e subsídios comunitários. A contribuição da Anthropic sublinha sua dependência do Python para operações, misturando interesse próprio com apoio comunitário. À medida que empresas de IA dependem cada vez mais de infraestrutura de código aberto, tais investimentos destacam a necessidade de modelos de financiamento sustentáveis em meio a preocupações com parasitismo corporativo.

Artigos relacionados

Realistic illustration of Linux Foundation executives and AI partners launching Agentic AI Foundation, featuring collaborative autonomous AI agents on a conference screen.
Imagem gerada por IA

Linux Foundation lança Agentic AI Foundation

Reportado por IA Imagem gerada por IA

A Linux Foundation lançou a Agentic AI Foundation para fomentar a colaboração aberta em sistemas de IA autônomos. Grandes empresas de tecnologia, incluindo Anthropic, OpenAI e Block, contribuíram com projetos open-source chave para promover interoperabilidade e evitar lock-in de fornecedores. A iniciativa visa criar padrões neutros para agentes de IA que possam tomar decisões e executar tarefas de forma independente.

A Linux Foundation garantiu US$ 12,5 milhões em subsídios de empresas de IA para reforçar a segurança de software de código aberto. O financiamento destina-se a mantenedores sobrecarregados por relatórios de vulnerabilidade gerados por IA. Ele será gerenciado pela Alpha-Omega e pela Open Source Security Foundation.

Reportado por IA

A Anthropic lançou o Anthropic Institute, uma nova iniciativa de pesquisa, e abriu seu primeiro escritório de Políticas Públicas em Washington, DC, nesta primavera. Essas medidas seguem a recente ação judicial federal da empresa de IA contra o governo dos EUA relacionada a uma designação de risco na cadeia de suprimentos do Departamento de Defesa, ligada a uma disputa contratual.

O presidente dos EUA, Donald Trump, determinou que todas as agências federais cessem imediatamente o uso das ferramentas de IA da Anthropic em meio a uma disputa sobre aplicações militares. A medida segue semanas de confrontos entre a Anthropic e autoridades do Pentágono quanto a restrições à IA para vigilância em massa e armas autônomas. Foi anunciado um período de fase de saída de seis meses.

Reportado por IA

A atualização recente da Anthropic à sua plataforma CoWork levou a reações significativas de mercado na indústria de software. O setor de software dos EUA registrou uma venda generalizada, perdendo mais de 1 trilhão de dólares em valor, segundo a Fortune. Esse desenvolvimento destaca a incerteza dos investidores em torno de fluxos de trabalho nativos em IA e seu impacto nas ações de SaaS.

Depois que o CEO da Anthropic, Dario Amodei, disse no final de fevereiro que a empresa não permitiria que seu modelo Claude fosse usado para vigilância doméstica em massa ou para armas totalmente autônomas, altos funcionários do Pentágono disseram que não têm intenção de usar IA para vigilância doméstica e insistem que as empresas privadas não podem estabelecer limites obrigatórios sobre como os militares dos EUA empregam ferramentas de IA.

Reportado por IA

O presidente dos EUA, Donald Trump, determinou que as agências federais cessem imediatamente o uso da IA Claude da Anthropic, após a recusa da empresa em permitir seu emprego para vigilância em massa ou armas autônomas. A ordem inclui um período de transição de seis meses. Essa decisão decorre de confrontos contínuos entre a Anthropic e o Departamento de Defesa sobre restrições à IA.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar