Anthropic aurait accepté de verser 200 milliards de dollars à Google sur cinq ans

Anthropic aurait accepté de payer 200 milliards de dollars à Google au cours des cinq prochaines années pour obtenir l'accès à des puces et à des serveurs cloud. Cet accord, rapporté par The Information, fait suite à une entente précédente accordant au créateur de l'IA Claude l'accès à l'infrastructure de Google. Il met en lumière les investissements massifs qui alimentent le secteur de l'IA.

Google et Anthropic ont conclu un accord au début du mois fournissant à la startup spécialisée dans l'IA des serveurs cloud et des puces, selon plusieurs rapports. The Information a précisé lundi qu'Anthropic s'est engagé à verser à Google la somme colossale de 200 milliards de dollars sur cinq ans dans le cadre de cet arrangement. Ce pacte quinquennal souligne les flux financiers énormes entre les entreprises d'IA et les géants de la technologie dans le contexte de l'essor actuel. Des accords similaires de plusieurs milliards de dollars incluent le récent partenariat d'Anthropic avec Amazon, contribuant à un carnet de commandes combiné de 2 000 milliards de dollars provenant d'accords avec Anthropic et OpenAI, impliquant Amazon, Google, Microsoft et Oracle. Les fournisseurs de cloud ont investi tôt dans la vague de l'IA, pariant sur la demande croissante des startups en ressources, et ces contrats ont jusqu'à présent porté leurs fruits. Les projections avaient estimé les coûts de serveurs d'Anthropic pour 2026 à 20 milliards de dollars, contre 45 milliards de dollars pour OpenAI. Les experts notent que de tels accords circulaires, parallèlement à des investissements comme celui de NVIDIA dans OpenAI, stimulent l'expansion de l'IA mais mettent sous tension des ressources telles que les centres de données et les approvisionnements en mémoire vive (RAM).

Articles connexes

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Image générée par IA

Anthropic sues US defense department over supply chain risk designation

Rapporté par l'IA Image générée par IA

Anthropic has filed a federal lawsuit against the US Department of Defense, challenging its recent label of the AI company as a supply-chain risk. The dispute stems from a contract disagreement over the use of Anthropic's Claude AI for military purposes, including restrictions on mass surveillance and autonomous weapons. The company argues the designation violates free speech and due process rights.

AI company Anthropic has sparked buzz on social media with a chart showing its revenue run rate surging from zero to $14 billion in just three years. This stands in stark contrast to the stagnant revenues of Indian IT companies over the same period.

Rapporté par l'IA

Global investors are questioning the returns on massive tech spending in artificial intelligence. Christopher Wood, from Jefferies, identifies Anthropic as a standout in the evolving AI landscape. The AI boom has boosted US equities, but concerns grow over its sustainability.

The Pentagon has formally notified AI company Anthropic that it is deemed a “supply chain risk,” a rare designation that critics say is typically aimed at adversary-linked technology. The move follows a breakdown in negotiations over whether the U.S. military can use Anthropic’s Claude models for all lawful purposes, versus contractual limits the company says are needed to prevent fully autonomous weapons and mass domestic surveillance.

Rapporté par l'IA

US President Donald Trump has directed all federal agencies to immediately cease using Anthropic's AI tools amid a dispute over military applications. The move follows weeks of clashes between Anthropic and Pentagon officials regarding restrictions on AI for mass surveillance and autonomous weapons. A six-month phase-out period has been announced.

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Rapporté par l'IA Vérifié par des faits

After Anthropic CEO Dario Amodei said in late February that the company would not allow its Claude model to be used for mass domestic surveillance or fully autonomous weapons, senior Pentagon officials said they have no intention of using AI for domestic surveillance and insist that private firms cannot set binding limits on how the U.S. military employs AI tools.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser