Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Imagen generada por IA

El Pentágono designa a Anthropic como ‘riesgo en la cadena de suministro’ tras disputa por límites al uso militar de Claude AI

Imagen generada por IA
Verificado por hechos

El Pentágono ha notificado formalmente a la empresa de IA Anthropic que se le considera un «riesgo en la cadena de suministro», una designación rara que los críticos dicen que suele dirigirse a tecnologías vinculadas a adversarios. El movimiento sigue a una ruptura en las negociaciones sobre si el ejército de EE.UU. puede usar los modelos Claude de Anthropic para todos los fines legales, frente a límites contractuales que la empresa dice que son necesarios para prevenir armas completamente autónomas y vigilancia masiva doméstica.

Las negociaciones entre el Pentágono y Anthropic se intensificaron en las últimas semanas, ya que funcionarios de defensa buscaban términos contractuales que permitieran al ejército usar los modelos de IA de Anthropic para todos los fines legales.  nnSegún The Daily Wire, Anthropic estaba dispuesta a seguir proporcionando acceso a sus modelos, pero insistió en dos excepciones: prohibir su uso en sistemas de armas completamente autónomas y prohibir su uso para vigilancia masiva doméstica. El medio informó que la administración Biden aceptó esos términos en un contrato de 2024, pero la administración Trump decidió reabrir la cuestión.  nnUn alto funcionario de tecnología del Pentágono, Emil Michael —identificado por The Daily Wire como el subsecretario de la administración Trump que supervisaba la disputa—, criticó lo que describió como restricciones incorporadas en acuerdos previos. «Revisé los contratos y dije: madre mía. No se pueden usar para planificar un ataque cinético. No se puede usar su modelo de IA para mover un satélite», dijo, según The Daily Wire. Michael añadió que quería «términos de servicio» que consideraba compatibles con la misión del departamento.  nnThe Daily Wire también informó que Anthropic propuso excepciones limitadas —como su uso en la planificación de un enjambre de drones o en la respuesta a un misil hipersónico chino—, pero Michael dijo que esas excepciones no eran suficientes. También expresó preocupación por que las restricciones basadas en políticas pudieran crear riesgos operativos si un proveedor cortara el servicio durante una misión.  nnLa disputa culminó cuando el Pentágono dijo que había «informado oficialmente al liderazgo de Anthropic que la empresa y sus productos se consideran un riesgo en la cadena de suministro, con efecto inmediato», según un informe de Associated Press que cita un comunicado del Pentágono.  nnEl CEO de Anthropic, Dario Amodei, dijo que la empresa no cree que la designación sea legalmente sólida y planea impugnarla en los tribunales, informó AP. En un comunicado publicado por Anthropic el 5 de marzo de 2026, Amodei dijo que la empresa recibió una carta el 4 de marzo confirmando la designación y argumentó que el alcance práctico de la acción es estrecho según el estatuto citado, aplicándose solo al uso de Claude «como parte directa de» contratos del Departamento de Defensa, no a todo uso de clientes.  nnEl secretario de Defensa Pete Hegseth ha argumentado públicamente que los proveedores no deberían poder restringir el uso legal de la tecnología por parte del ejército, una visión reflejada en el comunicado del Pentágono a AP en el que afirma que el ejército «no permitirá que un proveedor se inserte en la cadena de mando restringiendo el uso legal de una capacidad crítica y poniendo en riesgo a nuestros combatientes».  nnPor separado, The Daily Wire informó que el asesor de IA de la administración Trump, David Sacks, criticó lo que describió como lazos de la era Biden entre el personal de políticas de IA y Anthropic, y nombró a exfuncionarios de Biden Elizabeth Kelly y Benjamin Merkel como ahora trabajando en la empresa. The Daily Wire también informó que Anthropic dijo que había nombrado al exfuncionario de la administración Trump Chris Liddell en su junta directiva.  nnEl impacto legal y práctico más amplio de la designación de «riesgo en la cadena de suministro» sigue siendo controvertido. Analistas legales y críticos han argumentado que la autoridad invocada es más estrecha que algunas afirmaciones públicas sobre una prohibición general a contratistas para hacer cualquier negocio con Anthropic, mientras que Anthropic ha dicho que la carta del Pentágono refleja una aplicación limitada vinculada a contratos de defensa específicos.  nnEn su cobertura de la disputa, AP dijo que el enfrentamiento se centra en la insistencia de Anthropic de que su tecnología no se use para vigilancia masiva de estadounidenses o armas completamente autónomas, barreras de seguridad que la empresa argumenta que son necesarias incluso mientras dice que la toma de decisiones operativas debe permanecer en manos del ejército.  

Artículos relacionados

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Imagen generada por IA

Anthropic demanda al Departamento de Defensa de EE.UU. por designación de riesgo en la cadena de suministro

Reportado por IA Imagen generada por IA

Anthropic ha presentado una demanda federal contra el Departamento de Defensa de EE.UU., cuestionando su reciente etiqueta de la empresa de IA como un riesgo en la cadena de suministro. La disputa surge de un desacuerdo contractual sobre el uso del Claude AI de Anthropic para fines militares, incluyendo restricciones en la vigilancia masiva y armas autónomas. La empresa argumenta que la designación viola los derechos de libertad de expresión y debido proceso.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Reportado por IA

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's AI technology. The order follows a dispute with the Pentagon, where the company refused unconditional military use of its Claude models. Anthropic has vowed to challenge the Pentagon's ban in court.

La app de Claude AI de Anthropic ha alcanzado el primer puesto en el ranking de apps gratuitas de la App Store de Apple, superando a ChatGPT y Gemini, impulsada por el apoyo público tras la prohibición federal del presidente Trump a la herramienta por los rechazos de Anthropic en materia de seguridad de la IA.

Reportado por IA

Los inversores globales están cuestionando los retornos de los enormes gastos tecnológicos en inteligencia artificial. Christopher Wood, de Jefferies, identifica a Anthropic como una destacada en el cambiante panorama de la IA. El auge de la IA ha impulsado las acciones estadounidenses, pero crecen las preocupaciones sobre su sostenibilidad.

Anthropic ha anunciado que su chatbot de IA Claude permanecerá libre de anuncios, en fuerte contraste con la reciente decisión de su rival OpenAI de probar anuncios en ChatGPT. La compañía lanzó una campaña publicitaria en el Super Bowl que se burla de los asistentes de IA que interrumpen las conversaciones con promociones de productos. Esta jugada resalta las crecientes tensiones en el competitivo panorama de la IA.

Reportado por IA

La herramienta de IA Claude Cowork de Anthropic ha provocado una fuerte caída en las acciones de Infosys, TCS y otras empresas SaaS. Estas compañías perdieron cientos de miles de millones de dólares en valor de mercado. El desencadenante es el auge de la IA.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar