Anthropic habría acordado pagar 200.000 millones de dólares a Google en cinco años

Anthropic habría acordado pagar 200.000 millones de dólares a Google durante los próximos cinco años para acceder a chips y servidores en la nube. El acuerdo, reportado por The Information, sigue a un pacto anterior que otorgaba al creador de la IA Claude acceso a la infraestructura de Google. Esto pone de relieve las enormes inversiones que impulsan el sector de la inteligencia artificial.

Google y Anthropic alcanzaron un acuerdo a principios de este mes que proporciona a la startup de IA servidores en la nube y chips, según los informes. The Information detalló el lunes que Anthropic se comprometió a pagar a Google la asombrosa cifra de 200.000 millones de dólares en cinco años como parte de este arreglo. Este pacto quinquenal subraya los enormes flujos financieros entre las empresas de IA y los gigantes tecnológicos en medio del auge actual. Otros acuerdos multimillonarios similares incluyen el reciente pacto de Anthropic con Amazon, que contribuye a una cartera de ingresos combinada de 2 billones de dólares derivada de los contratos de Anthropic y OpenAI con Amazon, Google, Microsoft y Oracle. Los proveedores de servicios en la nube han invertido desde el principio en el auge de la IA, apostando por la creciente demanda de recursos de las startups, y hasta ahora estos contratos han dado resultados. Las proyecciones estimaban los costes de servidor de Anthropic para 2026 en 20.000 millones de dólares, mientras que los de OpenAI se situarían en 45.000 millones. Los expertos señalan que este tipo de acuerdos circulares, junto con inversiones como la de NVIDIA en OpenAI, impulsan la expansión de la IA pero ejercen presión sobre recursos como los centros de datos y el suministro de memoria RAM.

Artículos relacionados

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Imagen generada por IA

Anthropic sues US defense department over supply chain risk designation

Reportado por IA Imagen generada por IA

Anthropic has filed a federal lawsuit against the US Department of Defense, challenging its recent label of the AI company as a supply-chain risk. The dispute stems from a contract disagreement over the use of Anthropic's Claude AI for military purposes, including restrictions on mass surveillance and autonomous weapons. The company argues the designation violates free speech and due process rights.

AI company Anthropic has sparked buzz on social media with a chart showing its revenue run rate surging from zero to $14 billion in just three years. This stands in stark contrast to the stagnant revenues of Indian IT companies over the same period.

Reportado por IA

Global investors are questioning the returns on massive tech spending in artificial intelligence. Christopher Wood, from Jefferies, identifies Anthropic as a standout in the evolving AI landscape. The AI boom has boosted US equities, but concerns grow over its sustainability.

The Pentagon has formally notified AI company Anthropic that it is deemed a “supply chain risk,” a rare designation that critics say is typically aimed at adversary-linked technology. The move follows a breakdown in negotiations over whether the U.S. military can use Anthropic’s Claude models for all lawful purposes, versus contractual limits the company says are needed to prevent fully autonomous weapons and mass domestic surveillance.

Reportado por IA

US President Donald Trump has directed all federal agencies to immediately cease using Anthropic's AI tools amid a dispute over military applications. The move follows weeks of clashes between Anthropic and Pentagon officials regarding restrictions on AI for mass surveillance and autonomous weapons. A six-month phase-out period has been announced.

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Reportado por IA Verificado por hechos

After Anthropic CEO Dario Amodei said in late February that the company would not allow its Claude model to be used for mass domestic surveillance or fully autonomous weapons, senior Pentagon officials said they have no intention of using AI for domestic surveillance and insist that private firms cannot set binding limits on how the U.S. military employs AI tools.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar