Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
Illustrative photo of Pentagon challenging Anthropic's limits on Claude AI for military use during strained contract talks.
Imagem gerada por IA

O Pentágono contesta os limites do Anthropic para o uso militar do Claude, à medida que as negociações sobre o contrato se tornam tensas

Imagem gerada por IA
Verificado

Depois que o CEO da Anthropic, Dario Amodei, disse no final de fevereiro que a empresa não permitiria que seu modelo Claude fosse usado para vigilância doméstica em massa ou para armas totalmente autônomas, altos funcionários do Pentágono disseram que não têm intenção de usar IA para vigilância doméstica e insistem que as empresas privadas não podem estabelecer limites obrigatórios sobre como os militares dos EUA empregam ferramentas de IA.

Em julho passado, o diretor de inteligência digital e artificial do Pentágono, Doug Matty, anunciou a concessão de contratos de até US$ 200 milhões cada para quatro empresas de tecnologia - Anthropic, Google, OpenAI e xAI - para fornecer modelos avançados de IA para missões do Departamento de Defesa. Matty disse que o departamento pretendia acelerar a adoção da IA comercial para "tarefas essenciais de missão conjunta" no "domínio de combate", mas o Pentágono divulgou poucos detalhes operacionais, citando a segurança nacional.

Os prêmios relativamente opacos chamaram nova atenção no final de fevereiro, quando a Anthropic disse que estava insistindo em limites para a Claude em um "conjunto restrito de casos". Em uma declaração de 26 de fevereiro, Amodei disse que apoiava fortemente o uso de IA para ajudar a defender os Estados Unidos e outras democracias, mas argumentou que algumas aplicações poderiam minar os valores democráticos - incluindo "vigilância doméstica em massa" e "armas totalmente autônomas", que ele descreveu como drones de combate autoguiados.

Autoridades sênior do Departamento de Defesa responderam contestando tanto a premissa quanto a vantagem da empresa. De acordo com uma reportagem citada pelo The Nation, as autoridades do Pentágono disseram que não pretendem usar IA para vigilância doméstica e que os sistemas de armas não tripuladas permanecerão sob supervisão humana. Mas eles também argumentaram que as empreiteiras não deveriam poder impor suas próprias condições de liberdade civil nas operações do Pentágono. Emil Michael, subsecretário de defesa para pesquisa e engenharia, foi citado como tendo dito: "Não permitiremos que nenhuma empresa BigTech decida sobre as liberdades civis dos americanos".

O The Nation relatou que, durante as negociações, Michael também levantou uma questão separada sobre se a Anthropic se oporia ao uso do Claude em missões relacionadas à energia nuclear, como defesa de mísseis, e que Amodei não se opôs a esse uso.

A disputa destacou uma tensão mais ampla entre o esforço do Pentágono para integrar a IA generativa à inteligência, ao direcionamento e ao desenvolvimento de armas - e as proteções que as empresas de IA dizem precisar para evitar o uso indevido. O The Nation destacou os esforços de longa data do Departamento de Defesa, como o Projeto Maven, que começou usando a IA para ajudar a analisar vídeos de drones em busca de alvos em potencial, e a iniciativa Collaborative Operations in Denied Environment (CODE) da DARPA, que trabalhou na autonomia de grupos de drones que operam sob regras predefinidas.

A política oficial do Pentágono sobre autonomia está descrita na Diretiva 3000.09 do DoD, que afirma que as armas autônomas e semiautônomas devem ser projetadas para que os comandantes e operadores possam exercer "níveis apropriados de julgamento humano sobre o uso da força". Os críticos argumentaram que a flexibilidade da política ainda deixa espaço para a autonomia que poderia reduzir significativamente o controle humano em tempo real.

À medida que a IA se torna mais integrada ao planejamento e às operações militares, o impasse entre a Anthropic e o Pentágono ressalta uma questão não resolvida no centro da expansão da IA das Forças Armadas dos EUA: como conciliar a rápida adoção de sistemas comerciais com as demandas por limites aplicáveis à vigilância doméstica e à delegação de força letal às máquinas.

O que as pessoas estão dizendo

As discussões do X revelam uma divisão na disputa entre o Pentágono e a Anthropic sobre os limites da Claude AI. Os defensores da Anthropic elogiam sua postura ética contra a vigilância em massa e as armas autônomas, considerando a lista negra do Pentágono como um exagero. Os críticos argumentam que as empresas privadas não podem impor restrições ao uso militar e que termos contratuais simples são suficientes. Publicações neutras detalham o impasse, os prazos e as escaladas legais, contrastando com a conformidade da OpenAI. Os relatos de alto engajamento de jornalistas e analistas destacam as tensões entre a segurança nacional e a segurança da IA.

Artigos relacionados

Dramatic illustration of Pentagon designating Anthropic's Claude AI a supply chain risk after military usage dispute.
Imagem gerada por IA

Pentágono designa Anthropic um ‘risco na cadeia de suprimentos’ após disputa sobre limites de uso militar para Claude AI

Reportado por IA Imagem gerada por IA Verificado

O Pentágono notificou formalmente a empresa de IA Anthropic de que a considera um “risco na cadeia de suprimentos”, uma designação rara que críticos dizem ser tipicamente direcionada a tecnologias ligadas a adversários. A medida segue o rompimento de negociações sobre se o exército dos EUA pode usar os modelos Claude da Anthropic para todos os propósitos legais, versus limites contratuais que a empresa diz serem necessários para prevenir armas totalmente autônomas e vigilância doméstica em massa.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Reportado por IA

Anthropic's CEO Dario Amodei stated that the company will not comply with the Pentagon's request to remove safeguards from its AI models, despite threats of exclusion from defense systems. The dispute centers on preventing the AI's use in autonomous weapons and domestic surveillance. The firm, which has a $200 million contract with the Department of Defense, emphasizes its commitment to ethical AI use.

US President Donald Trump stated on Friday that he is directing government agencies to stop working with Anthropic. The Pentagon plans to declare the startup a supply-chain risk, marking a major blow following a showdown over technology guardrails. Agencies using the company's products will have a six-month phase-out period.

Reportado por IA

O app Claude AI da Anthropic atingiu o topo do ranking de apps grátis da App Store da Apple, superando ChatGPT e Gemini, impulsionado pelo apoio público após a proibição federal do presidente Trump à ferramenta devido às recusas da Anthropic em questões de segurança de IA.

A Anthropic lançou um plugin jurídico para sua ferramenta Claude Cowork, provocando preocupações entre provedores dedicados de IA jurídica. O plugin oferece recursos úteis para revisão de contratos e conformidade, mas fica aquém de substituir plataformas especializadas. Empresas sul-africanas enfrentam obstáculos adicionais devido a regulamentações de proteção de dados.

Reportado por IA

Um comentário da CNET argumenta que descrever a IA como tendo qualidades humanas, como almas ou confissões, engana o público e erode a confiança na tecnologia. Destaca como empresas como OpenAI e Anthropic usam tal linguagem, que obscurece questões reais como viés e segurança. O texto clama por terminologia mais precisa para promover compreensão precisa.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar