Anthropic lança instituto de pesquisa e escritório de políticas em DC em meio a processo judicial do governo

A Anthropic lançou o Anthropic Institute, uma nova iniciativa de pesquisa, e abriu seu primeiro escritório de Políticas Públicas em Washington, DC, nesta primavera. Essas medidas seguem a recente ação judicial federal da empresa de IA contra o governo dos EUA relacionada a uma designação de risco na cadeia de suprimentos do Departamento de Defesa, ligada a uma disputa contratual.

Apoiada em sua ação judicial de 9 de março que contesta o rótulo de risco na cadeia de suprimentos do Departamento de Defesa dos EUA — decorrente da recusa da Anthropic em remover salvaguardas de seu Claude AI para uso militar —, a empresa anunciou expansões em políticas e pesquisa. A Anthropic está triplicando o tamanho de sua equipe de Políticas Públicas e estabelecendo seu primeiro escritório em DC nesta primavera, conforme relatado pela Axios. Sarah Heck, nova Head of External Affairs, liderará os esforços de política, sucedendo o cofundador Jack Clark, que passa a Head of Public Benefit, supervisionando o Anthropic Institute. O instituto consolidará e expandirá grupos existentes: o Frontier Red Team (testes de estresse de IA), equipe de Impactos Sociais (aplicações no mundo real) e equipe de Pesquisa Econômica (efeitos no emprego/economia). Ele visa compartilhar percepções sobre os desafios da IA, incluindo remodelação econômica e novos riscos. Membros fundadores incluem Matt Botvinick (ex-Google DeepMind) e Zoë Hitzig (ex-OpenAI). Em uma audiência judicial relacionada, a Anthropic buscou garantias contra penalidades adicionais da administração Trump, que recusou. Fontes indicam uma potencial nova ordem executiva da Casa Branca visando a empresa.

Artigos relacionados

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Imagem gerada por IA

Anthropic processa Departamento de Defesa dos EUA por designação de risco na cadeia de suprimentos

Reportado por IA Imagem gerada por IA

A Anthropic apresentou uma ação judicial federal contra o Departamento de Defesa dos EUA, contestando a recente classificação da empresa de IA como risco na cadeia de suprimentos. A disputa decorre de um desacordo contratual sobre o uso do Claude AI da Anthropic para fins militares, incluindo restrições à vigilância em massa e armas autônomas. A empresa argumenta que a designação viola os direitos de liberdade de expressão e devido processo legal.

Após a proibição federal de suas ferramentas de IA na semana passada, a Anthropic retomou negociações com o Departamento de Defesa dos EUA para evitar uma designação de risco na cadeia de suprimentos. Enquanto isso, o acordo militar paralelo da OpenAI está sob críticas de funcionários, rivais e do CEO da Anthropic, Dario Amodei, que o acusou de alegações enganosas num memorando vazado.

Reportado por IA Verificado

O Pentágono notificou formalmente a empresa de IA Anthropic de que a considera um “risco na cadeia de suprimentos”, uma designação rara que críticos dizem ser tipicamente direcionada a tecnologias ligadas a adversários. A medida segue o rompimento de negociações sobre se o exército dos EUA pode usar os modelos Claude da Anthropic para todos os propósitos legais, versus limites contratuais que a empresa diz serem necessários para prevenir armas totalmente autônomas e vigilância doméstica em massa.

Investidores globais questionam os retornos dos maciços gastos tecnológicos em inteligência artificial. Christopher Wood, da Jefferies, destaca Anthropic como um ponto de destaque no cenário evolutivo da IA. O boom da IA impulsionou as ações americanas, mas crescem as preocupações sobre a sua sustentabilidade.

Reportado por IA

A atualização recente da Anthropic à sua plataforma CoWork levou a reações significativas de mercado na indústria de software. O setor de software dos EUA registrou uma venda generalizada, perdendo mais de 1 trilhão de dólares em valor, segundo a Fortune. Esse desenvolvimento destaca a incerteza dos investidores em torno de fluxos de trabalho nativos em IA e seu impacto nas ações de SaaS.

O app Claude AI da Anthropic atingiu o topo do ranking de apps grátis da App Store da Apple, superando ChatGPT e Gemini, impulsionado pelo apoio público após a proibição federal do presidente Trump à ferramenta devido às recusas da Anthropic em questões de segurança de IA.

Reportado por IA

Anthropic's Claude Cowork AI tool has caused a sharp decline in stocks of Infosys, TCS, and other SaaS companies. These firms lost hundreds of billions of dollars in market value. The trigger is the rise of AI.

sábado, 28 de fevereiro de 2026, 15:28h

Trump ordena proibição federal ao uso da IA da Anthropic no governo

sábado, 28 de fevereiro de 2026, 11:10h

Plugin jurídico da Anthropic levanta questões para especialistas em IA

sexta-feira, 27 de fevereiro de 2026, 12:40h

Trump orders US agencies to halt use of Anthropic AI technology

sexta-feira, 27 de fevereiro de 2026, 11:37h

Trump directs US agencies to end work with Anthropic

sexta-feira, 27 de fevereiro de 2026, 02:33h

Trump ordena que agências federais parem de usar IA da Anthropic

quarta-feira, 25 de fevereiro de 2026, 17:22h

Pentágono pressiona Anthropic a enfraquecer compromissos de segurança de IA

sexta-feira, 13 de fevereiro de 2026, 20:43h

Anthropic reaches $14 billion revenue run rate in three years

terça-feira, 03 de fevereiro de 2026, 09:31h

Quadros superiores da OpenAI saem em meio ao foco no ChatGPT

sexta-feira, 16 de janeiro de 2026, 00:23h

Fundação Python aceita financiamento da Anthropic após rejeitar subsídio dos EUA

quarta-feira, 10 de dezembro de 2025, 22:39h

Linux Foundation lança Agentic AI Foundation

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar