Anthropic ha presentado una demanda federal contra el Departamento de Defensa de EE.UU., cuestionando su reciente etiqueta de la empresa de IA como un riesgo en la cadena de suministro. La disputa surge de un desacuerdo contractual sobre el uso del Claude AI de Anthropic para fines militares, incluyendo restricciones en la vigilancia masiva y armas autónomas. La empresa argumenta que la designación viola los derechos de libertad de expresión y debido proceso.
El conflicto entre Anthropic y el Departamento de Defensa de EE.UU. se intensificó a finales de febrero de 2026, cuando el Pentágono buscó un acceso más amplio al modelo Claude AI de Anthropic para «todos los fines legales». Anthropic se negó a eliminar las salvaguardas que prohíben su uso para vigilancia masiva doméstica o sistemas de armas totalmente autónomas sin supervisión humana. El 26 de febrero, el CEO Dario Amodei declaró que la IA poderosa permite ensamblar datos dispersos en perfiles completos de individuos a gran escala, subrayando las preocupaciones de la empresa. nnPara el 27 de febrero, después de que Anthropic se negara a modificar sus términos, el secretario de Defensa Pete Hegseth amenazó con designar a la empresa como un riesgo en la cadena de suministro y cancelar su contrato de 200 millones de dólares. El presidente Donald Trump ordenó entonces a todas las agencias federales que dejaran de usar la tecnología de Anthropic. El Pentágono formalizó la designación a finales del mes pasado, lo que llevó a Anthropic a presentar la demanda el 9 de marzo en un tribunal federal. La demanda describe las acciones como una «campaña de represalia sin precedentes e ilegal», afirmando que «la Constitución no permite que el gobierno use su enorme poder para castigar a una empresa por su discurso protegido». nnLos funcionarios del Pentágono sostienen que el tema es irrelevante, ya que las leyes actuales prohíben dicha vigilancia y el departamento no tiene planes para armas autónomas. Sin embargo, expertos como Hamza Chaudhry del Future of Life Institute lo calificaron como un «vacío real de gobernanza» y una llamada de atención para que el Congreso promulgue regulaciones claras. Greg Nojeim del Center for Democracy and Technology señaló que los modelos de IA «no son lo suficientemente confiables» para armas totalmente autónomas, criticando al Pentágono por rechazar el consejo de expertos. nnEn respuesta, el Pentágono llegó a un acuerdo con OpenAI, que incluía disposiciones contra la vigilancia doméstica de personas estadounidenses. El CEO de OpenAI, Sam Altman, confirmó que la herramienta no sería utilizada por agencias de inteligencia. Más de 30 empleados de OpenAI y Google, incluyendo el científico jefe de Google DeepMind, Jeff Dean, presentaron un breve amicus apoyando a Anthropic el 9 de marzo. A pesar de la disputa, Anthropic continúa suministrando sus modelos al ejército a un costo nominal, incluyendo su uso en la guerra en curso en Irán. Amodei enfatizó el compromiso de la empresa con la seguridad nacional mientras busca una resolución legal.