Un tribunal de apelaciones deniega la suspensión solicitada por Anthropic en su lucha contra la lista negra de riesgos a la cadena de suministro

En el último episodio de la controversia sobre el riesgo a la cadena de suministro de Anthropic, un tribunal federal de apelaciones de EE. UU. denegó el 9 de abril la moción de emergencia de Anthropic para bloquear la inclusión de su tecnología de IA en la lista negra por parte de la administración Trump. El tribunal aceleró los argumentos orales para el 19 de mayo, pero dictaminó que el equilibrio de equidades favorece al gobierno, lo que supone un revés tras una medida cautelar anterior de un tribunal de distrito.

El Tribunal de Apelaciones de los EE. UU. para el Circuito del Distrito de Columbia se negó a detener la designación de la administración Trump que etiqueta a Anthropic como un riesgo para la cadena de suministro de seguridad nacional. Un panel de tres jueces nombrados por republicanos, incluidos Gregory Katsas y Neomi Rao, designados por Trump, reconoció posibles daños irreparables para Anthropic —como pérdidas financieras y acusaciones de represalias por libertad de expresión protegida por la Primera Enmienda—, pero determinó que no había pruebas suficientes de una coacción a la libre expresión y priorizó los intereses del gobierno en medio de un conflicto militar.

La lista negra surge de la negativa de Anthropic a permitir el uso de sus modelos de IA Claude para la guerra autónoma y la vigilancia masiva de ciudadanos estadounidenses. El presidente Trump ordenó a las agencias federales dejar de utilizar la tecnología, y el secretario de Defensa, Pete Hegseth, prohibió a los contratistas militares mantener negocios con la firma. El fiscal general interino, Todd Blanche, calificó el fallo como una 'victoria rotunda para la preparación militar', enfatizando la autoridad presidencial sobre el Departamento de Guerra (anteriormente Defensa).

Esto sigue a la medida cautelar preliminar de la jueza de distrito de EE. UU. Rita Lin del 27 de marzo en California, que bloqueó la designación inicial del 4 de marzo por considerarla arbitraria y una represalia contra la Primera Enmienda; la administración está apelando ante el Noveno Circuito. Anthropic expresó su confianza en futuras resoluciones judiciales que declaren ilegal la lista negra y reiteró su compromiso con una IA segura. La Asociación de la Industria de la Computación y las Comunicaciones advirtió que los fallos de procedimiento en tales designaciones podrían perjudicar la innovación en EE. UU.

Parte de la serie 'Controversia sobre el riesgo a la cadena de suministro de Anthropic'.

Artículos relacionados

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Imagen generada por IA

Anthropic sues US defense department over supply chain risk designation

Reportado por IA Imagen generada por IA

Anthropic has filed a federal lawsuit against the US Department of Defense, challenging its recent label of the AI company as a supply-chain risk. The dispute stems from a contract disagreement over the use of Anthropic's Claude AI for military purposes, including restrictions on mass surveillance and autonomous weapons. The company argues the designation violates free speech and due process rights.

A federal judge in San Francisco issued a preliminary injunction on March 27, 2026, blocking the Trump administration's designation of AI company Anthropic as a military supply chain risk—a label applied three weeks earlier amid disputes over the firm's limits on its Claude AI models for military uses like autonomous weapons.

Reportado por IA Verificado por hechos

The Pentagon has formally notified AI company Anthropic that it is deemed a “supply chain risk,” a rare designation that critics say is typically aimed at adversary-linked technology. The move follows a breakdown in negotiations over whether the U.S. military can use Anthropic’s Claude models for all lawful purposes, versus contractual limits the company says are needed to prevent fully autonomous weapons and mass domestic surveillance.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Reportado por IA

Hundreds of employees from Google and OpenAI have signed an open letter in solidarity with Anthropic, urging their companies to resist Pentagon demands for unrestricted military use of AI models. The letter opposes uses involving domestic mass surveillance and autonomous killing without human oversight. This comes amid threats from US Defense Secretary Pete Hegseth to label Anthropic a supply chain risk.

Anthropic has limited access to its Claude Mythos Preview AI model due to its superior ability to detect and exploit software vulnerabilities, while launching Project Glasswing—a consortium with over 45 tech firms including Apple, Google, and Microsoft—to collaboratively patch flaws and bolster defenses. The announcement follows recent data leaks at the firm.

Reportado por IA

Anthropic's recent update to its CoWork platform has led to significant market reactions in the software industry. The U.S. software sector saw a widespread sell-off, losing over $1 trillion in value, according to Fortune. This development highlights investor uncertainty around AI-native workflows and their impact on SaaS stocks.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar