Depois que o CEO da Anthropic, Dario Amodei, disse no final de fevereiro que a empresa não permitiria que seu modelo Claude fosse usado para vigilância doméstica em massa ou para armas totalmente autônomas, altos funcionários do Pentágono disseram que não têm intenção de usar IA para vigilância doméstica e insistem que as empresas privadas não podem estabelecer limites obrigatórios sobre como os militares dos EUA empregam ferramentas de IA.
Em julho passado, o diretor de inteligência digital e artificial do Pentágono, Doug Matty, anunciou a concessão de contratos de até US$ 200 milhões cada para quatro empresas de tecnologia - Anthropic, Google, OpenAI e xAI - para fornecer modelos avançados de IA para missões do Departamento de Defesa. Matty disse que o departamento pretendia acelerar a adoção da IA comercial para "tarefas essenciais de missão conjunta" no "domínio de combate", mas o Pentágono divulgou poucos detalhes operacionais, citando a segurança nacional.
Os prêmios relativamente opacos chamaram nova atenção no final de fevereiro, quando a Anthropic disse que estava insistindo em limites para a Claude em um "conjunto restrito de casos". Em uma declaração de 26 de fevereiro, Amodei disse que apoiava fortemente o uso de IA para ajudar a defender os Estados Unidos e outras democracias, mas argumentou que algumas aplicações poderiam minar os valores democráticos - incluindo "vigilância doméstica em massa" e "armas totalmente autônomas", que ele descreveu como drones de combate autoguiados.
Autoridades sênior do Departamento de Defesa responderam contestando tanto a premissa quanto a vantagem da empresa. De acordo com uma reportagem citada pelo The Nation, as autoridades do Pentágono disseram que não pretendem usar IA para vigilância doméstica e que os sistemas de armas não tripuladas permanecerão sob supervisão humana. Mas eles também argumentaram que as empreiteiras não deveriam poder impor suas próprias condições de liberdade civil nas operações do Pentágono. Emil Michael, subsecretário de defesa para pesquisa e engenharia, foi citado como tendo dito: "Não permitiremos que nenhuma empresa BigTech decida sobre as liberdades civis dos americanos".
O The Nation relatou que, durante as negociações, Michael também levantou uma questão separada sobre se a Anthropic se oporia ao uso do Claude em missões relacionadas à energia nuclear, como defesa de mísseis, e que Amodei não se opôs a esse uso.
A disputa destacou uma tensão mais ampla entre o esforço do Pentágono para integrar a IA generativa à inteligência, ao direcionamento e ao desenvolvimento de armas - e as proteções que as empresas de IA dizem precisar para evitar o uso indevido. O The Nation destacou os esforços de longa data do Departamento de Defesa, como o Projeto Maven, que começou usando a IA para ajudar a analisar vídeos de drones em busca de alvos em potencial, e a iniciativa Collaborative Operations in Denied Environment (CODE) da DARPA, que trabalhou na autonomia de grupos de drones que operam sob regras predefinidas.
A política oficial do Pentágono sobre autonomia está descrita na Diretiva 3000.09 do DoD, que afirma que as armas autônomas e semiautônomas devem ser projetadas para que os comandantes e operadores possam exercer "níveis apropriados de julgamento humano sobre o uso da força". Os críticos argumentaram que a flexibilidade da política ainda deixa espaço para a autonomia que poderia reduzir significativamente o controle humano em tempo real.
À medida que a IA se torna mais integrada ao planejamento e às operações militares, o impasse entre a Anthropic e o Pentágono ressalta uma questão não resolvida no centro da expansão da IA das Forças Armadas dos EUA: como conciliar a rápida adoção de sistemas comerciais com as demandas por limites aplicáveis à vigilância doméstica e à delegação de força letal às máquinas.