Yayasan Python terima dana Anthropic setelah tolak hibah AS

Yayasan Perangkat Lunak Python telah mengamankan 1,5 juta dolar AS dari Anthropic, perusahaan di balik Claude AI, untuk kemitraan dua tahun yang berfokus pada peningkatan keamanan ekosistem Python. Ini menyusul penolakan yayasan terhadap pendanaan serupa dari pemerintah AS tahun lalu karena kekhawatiran tentang kebijakan keragaman, kesetaraan, dan inklusi. Investasi ini bertujuan melindungi Python Package Index dari serangan rantai pasok dan mendukung operasi berkelanjutan.

Python telah menjadi esensial untuk pengembangan AI modern, mendukung framework seperti TensorFlow dan PyTorch berkat aksesibilitas dan perpustakaannya yang kaya. Pada 15 Januari 2026, Yayasan Perangkat Lunak Python (PSF) mengumumkan investasi 1,5 juta dolar dari Anthropic selama dua tahun ke depan. Tahun lalu, PSF menolak hibah sebanding 1,5 juta dolar dari National Science Foundation (NSF). Keputusan itu berasal dari klausul yang memungkinkan NSF mengembalikan dana jika PSF melanggar kebijakan anti-DEI pemerintah AS. Loren Crary dari PSF membahas hal ini dalam pernyataan, menyoroti kekhawatiran yayasan. Pendanaan Anthropic menargetkan peningkatan keamanan untuk ekosistem Python, khususnya Python Package Index (PyPI). PyPI menampung ratusan ribu paket dan melayani jutaan pengembang di seluruh dunia tetapi tetap rentan terhadap unggahan open-source berbahaya. Kemitraan ini akan mengembangkan alat ulasan otomatis untuk paket yang diunggah, beralih dari langkah reaktif ke deteksi proaktif. Inisiatif kunci mencakup pembuatan dataset malware yang diketahui untuk melatih alat deteksi yang mendeteksi pola mencurigakan. Pendekatan ini bisa diperluas ke repositori open-source lainnya. Selain keamanan, dana akan mempertahankan operasi PyPI, program Developers in Residence untuk kontribusi CPython, dan hibah komunitas. Kontribusi Anthropic menekankan ketergantungannya pada Python untuk operasi, memadukan kepentingan diri dengan dukungan komunitas. Saat perusahaan AI semakin bergantung pada infrastruktur open-source, investasi seperti ini menyoroti kebutuhan model pendanaan berkelanjutan di tengah kekhawatiran freeload korporat.

Artikel Terkait

Tech leaders announcing Linux Foundation's AI-powered cybersecurity initiative for open source software with major partners.
Gambar dihasilkan oleh AI

Linux Foundation announces AI security initiative with tech partners

Dilaporkan oleh AI Gambar dihasilkan oleh AI

The Linux Foundation has launched a new initiative using Anthropic's Claude Mythos preview for defensive cybersecurity in open source software. Partners include AWS, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan, Microsoft, NVIDIA, and Palo Alto Networks. The effort aims to secure critical software amid the rise of AI for open source maintainers.

The Linux Foundation has secured $12.5 million in grants from AI companies to bolster open source software security. The funding addresses maintainers overwhelmed by AI-generated vulnerability reports. It will be managed by Alpha-Omega and the Open Source Security Foundation.

Dilaporkan oleh AI

Anthropic has launched the Anthropic Institute, a new research initiative, and opened its first Public Policy office in Washington, DC, this spring. These steps follow the AI company's recent federal lawsuit against the US government over a Defense Department supply chain risk designation tied to a contract dispute.

In the wake of Anthropic's unveiling of its powerful Claude Mythos AI—capable of detecting and exploiting software vulnerabilities—the US Treasury Secretary has convened top bank executives to highlight escalating AI-driven cyber threats. The move underscores growing concerns as the AI is restricted to a tech coalition via Project Glasswing.

Dilaporkan oleh AI Fakta terverifikasi

The Pentagon has formally notified AI company Anthropic that it is deemed a “supply chain risk,” a rare designation that critics say is typically aimed at adversary-linked technology. The move follows a breakdown in negotiations over whether the U.S. military can use Anthropic’s Claude models for all lawful purposes, versus contractual limits the company says are needed to prevent fully autonomous weapons and mass domestic surveillance.

A federal judge in San Francisco issued a preliminary injunction on March 27, 2026, blocking the Trump administration's designation of AI company Anthropic as a military supply chain risk—a label applied three weeks earlier amid disputes over the firm's limits on its Claude AI models for military uses like autonomous weapons.

Dilaporkan oleh AI

Global investors are questioning the returns on massive tech spending in artificial intelligence. Christopher Wood, from Jefferies, identifies Anthropic as a standout in the evolving AI landscape. The AI boom has boosted US equities, but concerns grow over its sustainability.

 

 

 

Situs web ini menggunakan cookie

Kami menggunakan cookie untuk analisis guna meningkatkan situs kami. Baca kebijakan privasi kami untuk informasi lebih lanjut.
Tolak