Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Imagen generada por IA

Anthropic demanda al Departamento de Defensa de EE.UU. por designación de riesgo en la cadena de suministro

Imagen generada por IA

Anthropic ha presentado una demanda federal contra el Departamento de Defensa de EE.UU., cuestionando su reciente etiqueta de la empresa de IA como un riesgo en la cadena de suministro. La disputa surge de un desacuerdo contractual sobre el uso del Claude AI de Anthropic para fines militares, incluyendo restricciones en la vigilancia masiva y armas autónomas. La empresa argumenta que la designación viola los derechos de libertad de expresión y debido proceso.

El conflicto entre Anthropic y el Departamento de Defensa de EE.UU. se intensificó a finales de febrero de 2026, cuando el Pentágono buscó un acceso más amplio al modelo Claude AI de Anthropic para «todos los fines legales». Anthropic se negó a eliminar las salvaguardas que prohíben su uso para vigilancia masiva doméstica o sistemas de armas totalmente autónomas sin supervisión humana. El 26 de febrero, el CEO Dario Amodei declaró que la IA poderosa permite ensamblar datos dispersos en perfiles completos de individuos a gran escala, subrayando las preocupaciones de la empresa.  nnPara el 27 de febrero, después de que Anthropic se negara a modificar sus términos, el secretario de Defensa Pete Hegseth amenazó con designar a la empresa como un riesgo en la cadena de suministro y cancelar su contrato de 200 millones de dólares. El presidente Donald Trump ordenó entonces a todas las agencias federales que dejaran de usar la tecnología de Anthropic. El Pentágono formalizó la designación a finales del mes pasado, lo que llevó a Anthropic a presentar la demanda el 9 de marzo en un tribunal federal. La demanda describe las acciones como una «campaña de represalia sin precedentes e ilegal», afirmando que «la Constitución no permite que el gobierno use su enorme poder para castigar a una empresa por su discurso protegido».  nnLos funcionarios del Pentágono sostienen que el tema es irrelevante, ya que las leyes actuales prohíben dicha vigilancia y el departamento no tiene planes para armas autónomas. Sin embargo, expertos como Hamza Chaudhry del Future of Life Institute lo calificaron como un «vacío real de gobernanza» y una llamada de atención para que el Congreso promulgue regulaciones claras. Greg Nojeim del Center for Democracy and Technology señaló que los modelos de IA «no son lo suficientemente confiables» para armas totalmente autónomas, criticando al Pentágono por rechazar el consejo de expertos.  nnEn respuesta, el Pentágono llegó a un acuerdo con OpenAI, que incluía disposiciones contra la vigilancia doméstica de personas estadounidenses. El CEO de OpenAI, Sam Altman, confirmó que la herramienta no sería utilizada por agencias de inteligencia. Más de 30 empleados de OpenAI y Google, incluyendo el científico jefe de Google DeepMind, Jeff Dean, presentaron un breve amicus apoyando a Anthropic el 9 de marzo. A pesar de la disputa, Anthropic continúa suministrando sus modelos al ejército a un costo nominal, incluyendo su uso en la guerra en curso en Irán. Amodei enfatizó el compromiso de la empresa con la seguridad nacional mientras busca una resolución legal.

Qué dice la gente

Las discusiones en X apoyan predominantemente la demanda de Anthropic, considerando la designación de riesgo en la cadena de suministro del DoD como una represalia excesiva por negarse al uso de IA en vigilancia masiva y armas autónomas. Los críticos lo etiquetan como un abuso de poder contra una empresa estadounidense, mientras que los periodistas detallan las reclamaciones de libertad de expresión y debido proceso. Voces escépticas cuestionan la aplicación a contratistas. Las reacciones destacan los límites éticos de la IA y posibles precedentes.

Artículos relacionados

Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Imagen generada por IA

Pentagon designates Anthropic a ‘supply chain risk’ after dispute over military use limits for Claude AI

Reportado por IA Imagen generada por IA Verificado por hechos

The Pentagon has formally notified AI company Anthropic that it is deemed a “supply chain risk,” a rare designation that critics say is typically aimed at adversary-linked technology. The move follows a breakdown in negotiations over whether the U.S. military can use Anthropic’s Claude models for all lawful purposes, versus contractual limits the company says are needed to prevent fully autonomous weapons and mass domestic surveillance.

Following last week's federal ban on its AI tools, Anthropic has resumed negotiations with the US Defense Department to avert a supply chain risk designation. Meanwhile, OpenAI's parallel military agreement is under fire from employees, rivals, and Anthropic CEO Dario Amodei, who accused it of misleading claims in a leaked memo.

Reportado por IA

Anthropic's CEO Dario Amodei stated that the company will not comply with the Pentagon's request to remove safeguards from its AI models, despite threats of exclusion from defense systems. The dispute centers on preventing the AI's use in autonomous weapons and domestic surveillance. The firm, which has a $200 million contract with the Department of Defense, emphasizes its commitment to ethical AI use.

In the latest development of the Anthropic supply chain risk controversy, a U.S. federal appeals court on April 9 denied Anthropic's emergency motion to block the Trump administration's blacklisting of its AI technology. The court expedited oral arguments for May 19 but ruled the balance of equities favors the government, marking a setback following a prior district court injunction.

Reportado por IA

Anthropic has launched the Anthropic Institute, a new research initiative, and opened its first Public Policy office in Washington, DC, this spring. These steps follow the AI company's recent federal lawsuit against the US government over a Defense Department supply chain risk designation tied to a contract dispute.

Anthropic's Claude AI app has hit the top spot on Apple's App Store free apps chart, overtaking ChatGPT and Gemini, fueled by public support following President Trump's federal ban on the tool over Anthropic's AI safety refusals.

Reportado por IA

Global investors are questioning the returns on massive tech spending in artificial intelligence. Christopher Wood, from Jefferies, identifies Anthropic as a standout in the evolving AI landscape. The AI boom has boosted US equities, but concerns grow over its sustainability.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar