A photorealistic illustration of a Memphis data center with SpaceX rocket, depicting Anthropic's major computing deal.
A photorealistic illustration of a Memphis data center with SpaceX rocket, depicting Anthropic's major computing deal.
Bild genererad av AI

Anthropic fördubblar gränserna för Claude Code efter avtal med SpaceX

Bild genererad av AI

Anthropic meddelade på onsdagen att man ingått ett omfattande datoravtal med SpaceX som omedelbart höjer hastighetsgränserna för användare av Claude Code. Avtalet ger AI-företaget full tillgång till ett stort datacenter i Memphis, Tennessee.

Vid sin konferens Code with Claude i San Francisco meddelade Anthropic att de kommer att använda hela kapaciteten i SpaceX superdator Colossus 1. Anläggningen rymmer över 220 000 NVIDIA GPU:er och kommer att tillföra mer än 300 megawatt ny datorkraft inom loppet av en månad. VD Dario Amodei kopplade beslutet direkt till ökade användningskvoter för betalande kunder.

Vad folk säger

De första reaktionerna på X kring avtalet mellan Anthropic och SpaceX om Colossus fokuserar på den omedelbara fördubblingen av hastighetsgränserna för Claude Code, borttagningen av begränsningar under rusningstid samt betydande förbättringar av API:et. Användare och teknikorienterade konton uttrycker entusiasm över den utökade beräkningskapaciteten som möjliggör mer utvecklingsarbete, och många ser det som ett positivt steg som adresserar tidigare frustrationer kring användningsbegränsningar. Neutrala meddelanden från media och Anthropic själva dominerar diskussionen, tillsammans med optimistiska kommentarer om hur infrastrukturpartnerskap påskyndar AI-utvecklingen.

Relaterade artiklar

Dramatic illustration of Anthropic imposing a paywall on Claude AI, blocking third-party agents from overloaded servers.
Bild genererad av AI

Anthropic ends unlimited Claude access via third-party agents, requires extra payments for heavy use

Rapporterad av AI Bild genererad av AI

Anthropic has restricted unlimited access to its Claude AI models through third-party agents like OpenClaw, requiring heavy users to pay extra via API keys or usage bundles starting April 4, 2026. The policy shift, announced over the weekend, addresses severe system strain from high-volume agent tools previously covered under $20 monthly subscriptions.

Anthropic is temporarily doubling usage limits for its Claude AI chatbot during off-peak hours from March 13 to March 27. The promotion applies to Free, Pro, Max, and Team plan users, excluding Enterprise plans. It activates automatically across web, desktop, mobile, and integrated apps.

Rapporterad av AI Faktagranskad

After Anthropic CEO Dario Amodei said in late February that the company would not allow its Claude model to be used for mass domestic surveillance or fully autonomous weapons, senior Pentagon officials said they have no intention of using AI for domestic surveillance and insist that private firms cannot set binding limits on how the U.S. military employs AI tools.

The Pentagon has formally notified AI company Anthropic that it is deemed a “supply chain risk,” a rare designation that critics say is typically aimed at adversary-linked technology. The move follows a breakdown in negotiations over whether the U.S. military can use Anthropic’s Claude models for all lawful purposes, versus contractual limits the company says are needed to prevent fully autonomous weapons and mass domestic surveillance.

Rapporterad av AI

Building on its January Cowork feature, Anthropic has launched a research preview for Claude Code and Cowork tools, enabling Pro and Max subscribers' Claude AI to directly control Mac desktops—pointing, clicking, scrolling, and navigating screens for tasks like opening files, using browsers, developer tools, and app interactions such as Google Calendar and Slack. Safeguards address security risks, amid competition from tools like OpenClaw.

Anthropic's Claude Code command line interface source code has leaked online after a packaging error in a recent release. The incident exposed over 512,000 lines of code from nearly 2,000 TypeScript files. The company described it as human error with no sensitive data involved.

Rapporterad av AI

Following last week's federal ban on its AI tools, Anthropic has resumed negotiations with the US Defense Department to avert a supply chain risk designation. Meanwhile, OpenAI's parallel military agreement is under fire from employees, rivals, and Anthropic CEO Dario Amodei, who accused it of misleading claims in a leaked memo.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj