Källkod för Anthropics Claude Code CLI har läckt ut på nätet

Källkoden till Anthropics kommandoradsgränssnitt Claude Code har läckt ut på nätet efter ett paketeringsfel i en nyligen genomförd release. Incidenten exponerade över 512 000 rader kod från närmare 2 000 TypeScript-filer. Företaget beskriver det som ett mänskligt fel där ingen känslig information kommit på avvägar.

Anthropic släppte version 2.1.88 av sitt npm-paket Claude Code den 31 mars 2026. Paketet innehöll av misstag en källkodsfil (source map) som gav tillgång till hela kodbasen. Säkerhetsforskaren Chaofan Shou uppmärksammade problemet först på X och delade en länk till ett arkiv med filerna. Koden dök snart upp i ett offentligt GitHub-arkiv, som sedan dess har kopierats (forkats) tiotusentals gånger. Ingen kunddata eller inloggningsuppgifter exponerades, enligt representanter för Anthropic, som kallar händelsen ett paketeringsfel orsakat av mänskliga faktorer, inte ett säkerhetsintrång. Företaget uppgav: ”Tidigare idag innehöll en release av Claude Code viss intern källkod. Ingen känslig kunddata eller inloggningsuppgifter var involverade eller exponerade. Detta var ett problem vid paketeringen av releasen orsakat av mänskliga faktorer, inte ett säkerhetsintrång. Vi inför nu åtgärder för att förhindra att detta sker igen.” Utvecklare började snabbt analysera den läckta koden. Exempelvis detaljerade en översikt Claude Codes minnesarkitektur, inklusive omskrivning av bakgrundsminne och valideringssteg. En annan analys noterade cirka 40 000 rader kod för ett plugin-liknande verktygssystem och 46 000 för frågespråksystemet, och beskrev det som ett sofistikerat utvecklarverktyg av produktionsklass snarare än ett enkelt API-omslag. Tidigare insatser från communityn hade delvis återskapat Claude Code genom reverse engineering, men denna läcka ger en oöverträffad fullständighet. Exponeringen ger konkurrenter insikter i Anthropics arkitektur och potentiella sårbarheter i dess säkerhetsmekanismer.

Relaterade artiklar

Dramatic illustration of Anthropic imposing a paywall on Claude AI, blocking third-party agents from overloaded servers.
Bild genererad av AI

Anthropic ends unlimited Claude access via third-party agents, requires extra payments for heavy use

Rapporterad av AI Bild genererad av AI

Anthropic has restricted unlimited access to its Claude AI models through third-party agents like OpenClaw, requiring heavy users to pay extra via API keys or usage bundles starting April 4, 2026. The policy shift, announced over the weekend, addresses severe system strain from high-volume agent tools previously covered under $20 monthly subscriptions.

Anthropic has confirmed the leak of more than 512,000 lines of source code for its Claude Code tool. The disclosure reveals disabled features hinting at future developments, including a persistent background agent called Kairos. Observers examining the code also found references to stealth modes and a virtual assistant named Buddy.

Rapporterad av AI

Anthropic has limited access to its Claude Mythos Preview AI model due to its superior ability to detect and exploit software vulnerabilities, while launching Project Glasswing—a consortium with over 45 tech firms including Apple, Google, and Microsoft—to collaboratively patch flaws and bolster defenses. The announcement follows recent data leaks at the firm.

Anthropic has launched a legal plugin for its Claude Cowork tool, prompting concerns among dedicated legal AI providers. The plugin offers useful features for contract review and compliance but falls short of replacing specialized platforms. South African firms face additional hurdles due to data protection regulations.

Rapporterad av AI

Anthropic is temporarily doubling usage limits for its Claude AI chatbot during off-peak hours from March 13 to March 27. The promotion applies to Free, Pro, Max, and Team plan users, excluding Enterprise plans. It activates automatically across web, desktop, mobile, and integrated apps.

Anthropic's Claude AI app has hit the top spot on Apple's App Store free apps chart, overtaking ChatGPT and Gemini, fueled by public support following President Trump's federal ban on the tool over Anthropic's AI safety refusals.

Rapporterad av AI

Researchers have identified three high-risk vulnerabilities in Claude.ai. These enable an end-to-end attack chain that exfiltrates sensitive information without the user's knowledge. A legitimate Google ad could trigger data exfiltration.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj