En el último episodio de la controversia sobre el riesgo a la cadena de suministro de Anthropic, un tribunal federal de apelaciones de EE. UU. denegó el 9 de abril la moción de emergencia de Anthropic para bloquear la inclusión de su tecnología de IA en la lista negra por parte de la administración Trump. El tribunal aceleró los argumentos orales para el 19 de mayo, pero dictaminó que el equilibrio de equidades favorece al gobierno, lo que supone un revés tras una medida cautelar anterior de un tribunal de distrito.
El Tribunal de Apelaciones de los EE. UU. para el Circuito del Distrito de Columbia se negó a detener la designación de la administración Trump que etiqueta a Anthropic como un riesgo para la cadena de suministro de seguridad nacional. Un panel de tres jueces nombrados por republicanos, incluidos Gregory Katsas y Neomi Rao, designados por Trump, reconoció posibles daños irreparables para Anthropic —como pérdidas financieras y acusaciones de represalias por libertad de expresión protegida por la Primera Enmienda—, pero determinó que no había pruebas suficientes de una coacción a la libre expresión y priorizó los intereses del gobierno en medio de un conflicto militar.
La lista negra surge de la negativa de Anthropic a permitir el uso de sus modelos de IA Claude para la guerra autónoma y la vigilancia masiva de ciudadanos estadounidenses. El presidente Trump ordenó a las agencias federales dejar de utilizar la tecnología, y el secretario de Defensa, Pete Hegseth, prohibió a los contratistas militares mantener negocios con la firma. El fiscal general interino, Todd Blanche, calificó el fallo como una 'victoria rotunda para la preparación militar', enfatizando la autoridad presidencial sobre el Departamento de Guerra (anteriormente Defensa).
Esto sigue a la medida cautelar preliminar de la jueza de distrito de EE. UU. Rita Lin del 27 de marzo en California, que bloqueó la designación inicial del 4 de marzo por considerarla arbitraria y una represalia contra la Primera Enmienda; la administración está apelando ante el Noveno Circuito. Anthropic expresó su confianza en futuras resoluciones judiciales que declaren ilegal la lista negra y reiteró su compromiso con una IA segura. La Asociación de la Industria de la Computación y las Comunicaciones advirtió que los fallos de procedimiento en tales designaciones podrían perjudicar la innovación en EE. UU.
Parte de la serie 'Controversia sobre el riesgo a la cadena de suministro de Anthropic'.