Jueza federal bloquea la designación de 'riesgo para la cadena de suministro' del Pentágono contra Anthropic

Una jueza federal de San Francisco emitió una medida cautelar el 27 de marzo de 2026, bloqueando la designación de la administración Trump que calificaba a la empresa de IA Anthropic como un riesgo para la cadena de suministro militar; una etiqueta aplicada tres semanas antes en medio de disputas sobre las restricciones de la firma en sus modelos de IA Claude para usos militares como armas autónomas.

Tras la designación del Pentágono del 4 de marzo que etiquetaba a Anthropic como un "riesgo para la cadena de suministro" —derivada de la ruptura de negociaciones sobre restricciones contractuales para el uso de Claude AI en armas totalmente autónomas y vigilancia masiva—, la jueza de distrito de EE. UU. Rita Lin dictaminó que la medida fue arbitraria, caprichosa y un "clásico caso de represalia bajo la Primera Enmienda".

La designación habría restringido los contratos gubernamentales con la empresa de IA de Silicon Valley, que hace hincapié en las salvaguardas de seguridad. En su orden de 42 páginas, Lin suspendió la medida a la espera de una revisión adicional.

El subsecretario de Guerra, Emil Michael, criticó el fallo en las redes sociales calificándolo de "una vergüenza", alegando que contenía errores fácticos, fue apresurado en medio del conflicto y socava el papel del presidente como comandante en jefe. El secretario de Guerra, Pete Hegseth, había argumentado previamente que los proveedores no pueden dictar el uso militar de la tecnología.

El director ejecutivo de Anthropic, Dario Amodei, había indicado planes para impugnar legalmente la designación. La jueza Lin cuenta con experiencia previa en casos relacionados, como el bloqueo de recortes de fondos a la UCLA por preocupaciones sobre antisemitismo.

El fallo subraya las tensiones actuales entre los límites éticos de las empresas de IA y las demandas de seguridad nacional. Esto forma parte de la serie 'Controversia sobre el riesgo de la cadena de suministro de Anthropic'.

Artículos relacionados

Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Imagen generada por IA

El Pentágono designa a Anthropic como ‘riesgo en la cadena de suministro’ tras disputa por límites al uso militar de Claude AI

Reportado por IA Imagen generada por IA Verificado por hechos

El Pentágono ha notificado formalmente a la empresa de IA Anthropic que se le considera un «riesgo en la cadena de suministro», una designación rara que los críticos dicen que suele dirigirse a tecnologías vinculadas a adversarios. El movimiento sigue a una ruptura en las negociaciones sobre si el ejército de EE.UU. puede usar los modelos Claude de Anthropic para todos los fines legales, frente a límites contractuales que la empresa dice que son necesarios para prevenir armas completamente autónomas y vigilancia masiva doméstica.

Anthropic ha presentado una demanda federal contra el Departamento de Defensa de EE.UU., cuestionando su reciente etiqueta de la empresa de IA como un riesgo en la cadena de suministro. La disputa surge de un desacuerdo contractual sobre el uso del Claude AI de Anthropic para fines militares, incluyendo restricciones en la vigilancia masiva y armas autónomas. La empresa argumenta que la designación viola los derechos de libertad de expresión y debido proceso.

Reportado por IA

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

Cientos de empleados de Google y OpenAI han firmado una carta abierta en solidaridad con Anthropic, instando a sus empresas a resistir las demandas del Pentágono para el uso militar sin restricciones de modelos de IA. La carta se opone a usos que involucren vigilancia masiva doméstica y asesinatos autónomos sin supervisión humana. Esto llega en medio de amenazas del secretario de Defensa de EE.UU., Pete Hegseth, de etiquetar a Anthropic como un riesgo en la cadena de suministro.

Reportado por IA

Anthropic ha lanzado el Anthropic Institute, una nueva iniciativa de investigación, y ha abierto su primera oficina de Políticas Públicas en Washington, DC, esta primavera. Estos pasos siguen a la reciente demanda federal presentada por la empresa de IA contra el gobierno de EE.UU. por una designación de riesgo en la cadena de suministro del Departamento de Defensa vinculada a una disputa contractual.

El presidente Donald Trump ha firmado una orden ejecutiva destinada a crear un marco nacional para la regulación de la inteligencia artificial. Esta medida busca restringir a los estados la aprobación de sus propias leyes de IA mediante el establecimiento de mecanismos de supervisión federal. Esto incluye medidas punitivas contra los estados que promulguen legislación contradictoria.

Reportado por IA

xAI, de Elon Musk, perdió su solicitud de medida cautelar preliminar para bloquear el proyecto de ley Assembly Bill 2013 de California, que exige a las empresas de IA divulgar detalles de sus datos de entrenamiento. El juez de distrito estadounidense Jesús Bernal dictaminó que xAI no demostró que la ley revele secretos comerciales o cause daños irreparables. La compañía debe ahora cumplir con la ley, vigente desde enero, mientras prosigue la demanda.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar