Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Imagen generada por IA

El Pentágono designa a Anthropic como ‘riesgo en la cadena de suministro’ tras disputa por límites al uso militar de Claude AI

Imagen generada por IA
Verificado por hechos

El Pentágono ha notificado formalmente a la empresa de IA Anthropic que se le considera un «riesgo en la cadena de suministro», una designación rara que los críticos dicen que suele dirigirse a tecnologías vinculadas a adversarios. El movimiento sigue a una ruptura en las negociaciones sobre si el ejército de EE.UU. puede usar los modelos Claude de Anthropic para todos los fines legales, frente a límites contractuales que la empresa dice que son necesarios para prevenir armas completamente autónomas y vigilancia masiva doméstica.

Las negociaciones entre el Pentágono y Anthropic se intensificaron en las últimas semanas, ya que funcionarios de defensa buscaban términos contractuales que permitieran al ejército usar los modelos de IA de Anthropic para todos los fines legales.  nnSegún The Daily Wire, Anthropic estaba dispuesta a seguir proporcionando acceso a sus modelos, pero insistió en dos excepciones: prohibir su uso en sistemas de armas completamente autónomas y prohibir su uso para vigilancia masiva doméstica. El medio informó que la administración Biden aceptó esos términos en un contrato de 2024, pero la administración Trump decidió reabrir la cuestión.  nnUn alto funcionario de tecnología del Pentágono, Emil Michael —identificado por The Daily Wire como el subsecretario de la administración Trump que supervisaba la disputa—, criticó lo que describió como restricciones incorporadas en acuerdos previos. «Revisé los contratos y dije: madre mía. No se pueden usar para planificar un ataque cinético. No se puede usar su modelo de IA para mover un satélite», dijo, según The Daily Wire. Michael añadió que quería «términos de servicio» que consideraba compatibles con la misión del departamento.  nnThe Daily Wire también informó que Anthropic propuso excepciones limitadas —como su uso en la planificación de un enjambre de drones o en la respuesta a un misil hipersónico chino—, pero Michael dijo que esas excepciones no eran suficientes. También expresó preocupación por que las restricciones basadas en políticas pudieran crear riesgos operativos si un proveedor cortara el servicio durante una misión.  nnLa disputa culminó cuando el Pentágono dijo que había «informado oficialmente al liderazgo de Anthropic que la empresa y sus productos se consideran un riesgo en la cadena de suministro, con efecto inmediato», según un informe de Associated Press que cita un comunicado del Pentágono.  nnEl CEO de Anthropic, Dario Amodei, dijo que la empresa no cree que la designación sea legalmente sólida y planea impugnarla en los tribunales, informó AP. En un comunicado publicado por Anthropic el 5 de marzo de 2026, Amodei dijo que la empresa recibió una carta el 4 de marzo confirmando la designación y argumentó que el alcance práctico de la acción es estrecho según el estatuto citado, aplicándose solo al uso de Claude «como parte directa de» contratos del Departamento de Defensa, no a todo uso de clientes.  nnEl secretario de Defensa Pete Hegseth ha argumentado públicamente que los proveedores no deberían poder restringir el uso legal de la tecnología por parte del ejército, una visión reflejada en el comunicado del Pentágono a AP en el que afirma que el ejército «no permitirá que un proveedor se inserte en la cadena de mando restringiendo el uso legal de una capacidad crítica y poniendo en riesgo a nuestros combatientes».  nnPor separado, The Daily Wire informó que el asesor de IA de la administración Trump, David Sacks, criticó lo que describió como lazos de la era Biden entre el personal de políticas de IA y Anthropic, y nombró a exfuncionarios de Biden Elizabeth Kelly y Benjamin Merkel como ahora trabajando en la empresa. The Daily Wire también informó que Anthropic dijo que había nombrado al exfuncionario de la administración Trump Chris Liddell en su junta directiva.  nnEl impacto legal y práctico más amplio de la designación de «riesgo en la cadena de suministro» sigue siendo controvertido. Analistas legales y críticos han argumentado que la autoridad invocada es más estrecha que algunas afirmaciones públicas sobre una prohibición general a contratistas para hacer cualquier negocio con Anthropic, mientras que Anthropic ha dicho que la carta del Pentágono refleja una aplicación limitada vinculada a contratos de defensa específicos.  nnEn su cobertura de la disputa, AP dijo que el enfrentamiento se centra en la insistencia de Anthropic de que su tecnología no se use para vigilancia masiva de estadounidenses o armas completamente autónomas, barreras de seguridad que la empresa argumenta que son necesarias incluso mientras dice que la toma de decisiones operativas debe permanecer en manos del ejército.  

Artículos relacionados

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Imagen generada por IA

Anthropic demanda al Departamento de Defensa de EE.UU. por designación de riesgo en la cadena de suministro

Reportado por IA Imagen generada por IA

Anthropic ha presentado una demanda federal contra el Departamento de Defensa de EE.UU., cuestionando su reciente etiqueta de la empresa de IA como un riesgo en la cadena de suministro. La disputa surge de un desacuerdo contractual sobre el uso del Claude AI de Anthropic para fines militares, incluyendo restricciones en la vigilancia masiva y armas autónomas. La empresa argumenta que la designación viola los derechos de libertad de expresión y debido proceso.

Una jueza federal de San Francisco emitió una medida cautelar el 27 de marzo de 2026, bloqueando la designación de la administración Trump que calificaba a la empresa de IA Anthropic como un riesgo para la cadena de suministro militar; una etiqueta aplicada tres semanas antes en medio de disputas sobre las restricciones de la firma en sus modelos de IA Claude para usos militares como armas autónomas.

Reportado por IA

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

En el último episodio de la controversia sobre el riesgo a la cadena de suministro de Anthropic, un tribunal federal de apelaciones de EE. UU. denegó el 9 de abril la moción de emergencia de Anthropic para bloquear la inclusión de su tecnología de IA en la lista negra por parte de la administración Trump. El tribunal aceleró los argumentos orales para el 19 de mayo, pero dictaminó que el equilibrio de equidades favorece al gobierno, lo que supone un revés tras una medida cautelar anterior de un tribunal de distrito.

Reportado por IA

El presidente de EE.UU., Donald Trump, declaró el viernes que está ordenando a las agencias gubernamentales que dejen de trabajar con Anthropic. El Pentágono planea declarar a la startup como un riesgo en la cadena de suministro, lo que supone un golpe importante tras un enfrentamiento sobre protecciones tecnológicas. Las agencias que utilizan los productos de la compañía tendrán un período de fase de salida de seis meses.

El Departamento de Ciencia, Innovación y Tecnología del Reino Unido ha propuesto que Anthropic amplíe su oficina en Londres y considere una posible cotización bursátil dual, según un informe del Financial Times. Este esfuerzo surge tras una disputa entre la empresa de IA con sede en San Francisco y el Departamento de Defensa de los Estados Unidos. Los funcionarios buscan atraer a Anthropic en medio de las tensiones actuales.

Reportado por IA

Los inversores globales están cuestionando los retornos de los enormes gastos tecnológicos en inteligencia artificial. Christopher Wood, de Jefferies, identifica a Anthropic como una destacada en el cambiante panorama de la IA. El auge de la IA ha impulsado las acciones estadounidenses, pero crecen las preocupaciones sobre su sostenibilidad.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar