A photorealistic illustration of a Memphis data center with SpaceX rocket, depicting Anthropic's major computing deal.
A photorealistic illustration of a Memphis data center with SpaceX rocket, depicting Anthropic's major computing deal.
Image générée par IA

Anthropic double les limites de Claude Code après un accord avec SpaceX

Image générée par IA

Anthropic a annoncé mercredi un accord informatique majeur avec SpaceX qui augmente immédiatement les limites de débit pour les utilisateurs de Claude Code. Cet accord donne à la société d'IA un accès complet à un vaste centre de données situé à Memphis, dans le Tennessee.

Lors de sa conférence Code with Claude à San Francisco, Anthropic a déclaré qu'elle utiliserait la capacité totale du supercalculateur Colossus 1 de SpaceX. L'installation abrite plus de 220 000 GPU NVIDIA et fournira plus de 300 mégawatts de nouvelle puissance de calcul dans le courant du mois. Le PDG Dario Amodei a directement lié cette décision à l'augmentation des plafonds d'utilisation pour les clients payants.

Ce que les gens disent

Les premières réactions sur X concernant l'accord entre Anthropic et le Colossus de SpaceX se concentrent sur le doublement immédiat des limites de débit de Claude Code, la suppression des restrictions aux heures de pointe et les améliorations majeures apportées à l'API. Les utilisateurs et les comptes spécialisés dans la technologie expriment leur enthousiasme quant à l'augmentation de la capacité de calcul, qui permet d'accélérer le travail de développement, beaucoup y voyant une mesure positive permettant de résoudre les frustrations liées à l'utilisation antérieure. Les annonces neutres des médias et d'Anthropic elles-mêmes dominent, accompagnées de commentaires optimistes sur les partenariats d'infrastructure qui accélèrent les capacités de l'IA.

Articles connexes

Dramatic illustration of Anthropic imposing a paywall on Claude AI, blocking third-party agents from overloaded servers.
Image générée par IA

Anthropic ends unlimited Claude access via third-party agents, requires extra payments for heavy use

Rapporté par l'IA Image générée par IA

Anthropic has restricted unlimited access to its Claude AI models through third-party agents like OpenClaw, requiring heavy users to pay extra via API keys or usage bundles starting April 4, 2026. The policy shift, announced over the weekend, addresses severe system strain from high-volume agent tools previously covered under $20 monthly subscriptions.

Anthropic is temporarily doubling usage limits for its Claude AI chatbot during off-peak hours from March 13 to March 27. The promotion applies to Free, Pro, Max, and Team plan users, excluding Enterprise plans. It activates automatically across web, desktop, mobile, and integrated apps.

Rapporté par l'IA Vérifié par des faits

After Anthropic CEO Dario Amodei said in late February that the company would not allow its Claude model to be used for mass domestic surveillance or fully autonomous weapons, senior Pentagon officials said they have no intention of using AI for domestic surveillance and insist that private firms cannot set binding limits on how the U.S. military employs AI tools.

The Pentagon has formally notified AI company Anthropic that it is deemed a “supply chain risk,” a rare designation that critics say is typically aimed at adversary-linked technology. The move follows a breakdown in negotiations over whether the U.S. military can use Anthropic’s Claude models for all lawful purposes, versus contractual limits the company says are needed to prevent fully autonomous weapons and mass domestic surveillance.

Rapporté par l'IA

Building on its January Cowork feature, Anthropic has launched a research preview for Claude Code and Cowork tools, enabling Pro and Max subscribers' Claude AI to directly control Mac desktops—pointing, clicking, scrolling, and navigating screens for tasks like opening files, using browsers, developer tools, and app interactions such as Google Calendar and Slack. Safeguards address security risks, amid competition from tools like OpenClaw.

Anthropic's Claude Code command line interface source code has leaked online after a packaging error in a recent release. The incident exposed over 512,000 lines of code from nearly 2,000 TypeScript files. The company described it as human error with no sensitive data involved.

Rapporté par l'IA

Following last week's federal ban on its AI tools, Anthropic has resumed negotiations with the US Defense Department to avert a supply chain risk designation. Meanwhile, OpenAI's parallel military agreement is under fire from employees, rivals, and Anthropic CEO Dario Amodei, who accused it of misleading claims in a leaked memo.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser