Después de que el CEO de Anthropic, Dario Amodei, dijera a finales de febrero que la empresa no permitiría que su modelo Claude se utilizara para la vigilancia doméstica masiva ni para armas totalmente autónomas, altos cargos del Pentágono afirmaron que no tienen intención de utilizar la IA para la vigilancia doméstica e insisten en que las empresas privadas no pueden establecer límites vinculantes sobre la forma en que el ejército estadounidense emplea las herramientas de IA.
El pasado mes de julio, el jefe de inteligencia digital y artificial del Pentágono, Doug Matty, anunció la adjudicación de contratos de hasta 200 millones de dólares cada uno a cuatro empresas tecnológicas -Anthropic, Google, OpenAI y xAI- para proporcionar modelos avanzados de IA para misiones del Departamento de Defensa. Matty dijo que el departamento tenía la intención de acelerar la adopción de IA comercial para "tareas esenciales de misiones conjuntas" en el "dominio de combate", pero el Pentágono dio pocos detalles operativos, citando la seguridad nacional.
Las relativamente opacas adjudicaciones volvieron a llamar la atención a finales de febrero, cuando Anthropic dijo que insistía en los límites para Claude en un "conjunto reducido de casos". En una declaración del 26 de febrero, Amodei dijo que apoyaba firmemente el uso de la IA para ayudar a defender a Estados Unidos y otras democracias, pero argumentó que algunas aplicaciones podrían socavar los valores democráticos, incluida la "vigilancia doméstica masiva" y las "armas totalmente autónomas", que describió como drones de combate autoguiados.
Altos funcionarios del Departamento de Defensa respondieron rebatiendo tanto la premisa como la influencia de la empresa. Según la información citada por The Nation, los funcionarios del Pentágono dijeron que no tienen intención de utilizar la IA para la vigilancia nacional y que los sistemas de armas no tripuladas seguirán bajo supervisión humana. Pero también argumentaron que los contratistas no deberían poder imponer sus propias condiciones de libertades civiles en las operaciones del Pentágono. Emil Michael, Subsecretario de Defensa para Investigación e Ingeniería, fue citado diciendo: "No dejaremos que ninguna empresa BigTech decida sobre las libertades civiles de los estadounidenses".
The Nation informó de que, durante las negociaciones, Michael también planteó otra cuestión sobre si Anthropic se opondría al uso de Claude en misiones relacionadas con la energía nuclear, como la defensa antimisiles, y que Amodei no se opuso a ese uso.
La disputa ha puesto de relieve una tensión más amplia entre el impulso del Pentágono para integrar la IA generativa en la inteligencia, la selección de objetivos y el desarrollo de armas, y las barreras que las empresas de IA dicen que necesitan para evitar un uso indebido. The Nation se refirió a los esfuerzos del Departamento de Defensa desde hace tiempo, como el Proyecto Maven, que comenzó utilizando IA para ayudar a analizar vídeos de drones en busca de objetivos potenciales, y la iniciativa Collaborative Operations in Denied Environment (CODE) de DARPA, que ha trabajado en la autonomía de grupos de drones que operan bajo reglas preestablecidas.
La política oficial del Pentágono en materia de autonomía se describe en la Directiva 3000.09 del Departamento de Defensa, que establece que las armas autónomas y semiautónomas deben diseñarse de modo que los mandos y operadores puedan ejercer "niveles apropiados de juicio humano sobre el uso de la fuerza". Los críticos han argumentado que la flexibilidad de la política sigue dejando margen para una autonomía que podría reducir significativamente el control humano en tiempo real.
A medida que la IA se integra cada vez más en la planificación y las operaciones militares, el enfrentamiento entre el Pentágono y Anthropic pone de relieve una cuestión sin resolver en el centro de la expansión de la IA en el ejército estadounidense: cómo conciliar la rápida adopción de sistemas comerciales con la exigencia de límites aplicables a la vigilancia nacional y la delegación de fuerza letal a las máquinas.