Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Imagen generada por IA

Anthropic demanda al Departamento de Defensa de EE.UU. por designación de riesgo en la cadena de suministro

Imagen generada por IA

Anthropic ha presentado una demanda federal contra el Departamento de Defensa de EE.UU., cuestionando su reciente etiqueta de la empresa de IA como un riesgo en la cadena de suministro. La disputa surge de un desacuerdo contractual sobre el uso del Claude AI de Anthropic para fines militares, incluyendo restricciones en la vigilancia masiva y armas autónomas. La empresa argumenta que la designación viola los derechos de libertad de expresión y debido proceso.

El conflicto entre Anthropic y el Departamento de Defensa de EE.UU. se intensificó a finales de febrero de 2026, cuando el Pentágono buscó un acceso más amplio al modelo Claude AI de Anthropic para «todos los fines legales». Anthropic se negó a eliminar las salvaguardas que prohíben su uso para vigilancia masiva doméstica o sistemas de armas totalmente autónomas sin supervisión humana. El 26 de febrero, el CEO Dario Amodei declaró que la IA poderosa permite ensamblar datos dispersos en perfiles completos de individuos a gran escala, subrayando las preocupaciones de la empresa.  nnPara el 27 de febrero, después de que Anthropic se negara a modificar sus términos, el secretario de Defensa Pete Hegseth amenazó con designar a la empresa como un riesgo en la cadena de suministro y cancelar su contrato de 200 millones de dólares. El presidente Donald Trump ordenó entonces a todas las agencias federales que dejaran de usar la tecnología de Anthropic. El Pentágono formalizó la designación a finales del mes pasado, lo que llevó a Anthropic a presentar la demanda el 9 de marzo en un tribunal federal. La demanda describe las acciones como una «campaña de represalia sin precedentes e ilegal», afirmando que «la Constitución no permite que el gobierno use su enorme poder para castigar a una empresa por su discurso protegido».  nnLos funcionarios del Pentágono sostienen que el tema es irrelevante, ya que las leyes actuales prohíben dicha vigilancia y el departamento no tiene planes para armas autónomas. Sin embargo, expertos como Hamza Chaudhry del Future of Life Institute lo calificaron como un «vacío real de gobernanza» y una llamada de atención para que el Congreso promulgue regulaciones claras. Greg Nojeim del Center for Democracy and Technology señaló que los modelos de IA «no son lo suficientemente confiables» para armas totalmente autónomas, criticando al Pentágono por rechazar el consejo de expertos.  nnEn respuesta, el Pentágono llegó a un acuerdo con OpenAI, que incluía disposiciones contra la vigilancia doméstica de personas estadounidenses. El CEO de OpenAI, Sam Altman, confirmó que la herramienta no sería utilizada por agencias de inteligencia. Más de 30 empleados de OpenAI y Google, incluyendo el científico jefe de Google DeepMind, Jeff Dean, presentaron un breve amicus apoyando a Anthropic el 9 de marzo. A pesar de la disputa, Anthropic continúa suministrando sus modelos al ejército a un costo nominal, incluyendo su uso en la guerra en curso en Irán. Amodei enfatizó el compromiso de la empresa con la seguridad nacional mientras busca una resolución legal.

Qué dice la gente

Las discusiones en X apoyan predominantemente la demanda de Anthropic, considerando la designación de riesgo en la cadena de suministro del DoD como una represalia excesiva por negarse al uso de IA en vigilancia masiva y armas autónomas. Los críticos lo etiquetan como un abuso de poder contra una empresa estadounidense, mientras que los periodistas detallan las reclamaciones de libertad de expresión y debido proceso. Voces escépticas cuestionan la aplicación a contratistas. Las reacciones destacan los límites éticos de la IA y posibles precedentes.

Artículos relacionados

Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Imagen generada por IA

El Pentágono designa a Anthropic como ‘riesgo en la cadena de suministro’ tras disputa por límites al uso militar de Claude AI

Reportado por IA Imagen generada por IA Verificado por hechos

El Pentágono ha notificado formalmente a la empresa de IA Anthropic que se le considera un «riesgo en la cadena de suministro», una designación rara que los críticos dicen que suele dirigirse a tecnologías vinculadas a adversarios. El movimiento sigue a una ruptura en las negociaciones sobre si el ejército de EE.UU. puede usar los modelos Claude de Anthropic para todos los fines legales, frente a límites contractuales que la empresa dice que son necesarios para prevenir armas completamente autónomas y vigilancia masiva doméstica.

Tras la prohibición federal de la semana pasada sobre sus herramientas de IA, Anthropic ha reanudado las negociaciones con el Departamento de Defensa de EE.UU. para evitar una designación como riesgo en la cadena de suministro. Mientras tanto, el acuerdo militar paralelo de OpenAI está recibiendo críticas de empleados, rivales y el CEO de Anthropic, Dario Amodei, quien lo acusó de afirmaciones engañosas en un memo filtrado.

Reportado por IA

El CEO de Anthropic, Dario Amodei, afirmó que la empresa no cumplirá con la solicitud del Pentágono de eliminar salvaguardas de sus modelos de IA, a pesar de las amenazas de exclusión de sistemas de defensa. La disputa se centra en prevenir el uso de la IA en armas autónomas y vigilancia doméstica. La firma, que tiene un contrato de 200 millones de dólares con el Departamento de Defensa, enfatiza su compromiso con el uso ético de la IA.

La app de Claude AI de Anthropic ha alcanzado el primer puesto en el ranking de apps gratuitas de la App Store de Apple, superando a ChatGPT y Gemini, impulsada por el apoyo público tras la prohibición federal del presidente Trump a la herramienta por los rechazos de Anthropic en materia de seguridad de la IA.

Reportado por IA

Los inversores globales están cuestionando los retornos de los enormes gastos tecnológicos en inteligencia artificial. Christopher Wood, de Jefferies, identifica a Anthropic como una destacada en el cambiante panorama de la IA. El auge de la IA ha impulsado las acciones estadounidenses, pero crecen las preocupaciones sobre su sostenibilidad.

La herramienta de IA Claude Cowork de Anthropic ha provocado una fuerte caída en las acciones de Infosys, TCS y otras empresas SaaS. Estas compañías perdieron cientos de miles de millones de dólares en valor de mercado. El desencadenante es el auge de la IA.

Reportado por IA

En 2025, los agentes de IA se convirtieron en el centro del progreso de la inteligencia artificial, permitiendo que los sistemas usen herramientas y actúen de manera autónoma. Desde la teoría hasta las aplicaciones cotidianas, transformaron las interacciones humanas con los grandes modelos de lenguaje. Sin embargo, también trajeron desafíos como riesgos de seguridad y lagunas regulatorias.

 

 

 

Este sitio web utiliza cookies

Utilizamos cookies para análisis con el fin de mejorar nuestro sitio. Lee nuestra política de privacidad para más información.
Rechazar