A photorealistic illustration of a Memphis data center with SpaceX rocket, depicting Anthropic's major computing deal.
A photorealistic illustration of a Memphis data center with SpaceX rocket, depicting Anthropic's major computing deal.
Imagem gerada por IA

Anthropic dobra limites do Claude Code após acordo com a SpaceX

Imagem gerada por IA

A Anthropic anunciou um grande acordo de computação com a SpaceX nesta quarta-feira que aumenta imediatamente os limites de taxa para usuários do Claude Code. O contrato dá à empresa de IA acesso total a um grande centro de dados em Memphis, no Tennessee.

Durante sua conferência Code with Claude em São Francisco, a Anthropic informou que utilizará toda a capacidade do supercomputador Colossus 1 da SpaceX. A instalação abriga mais de 220.000 GPUs da NVIDIA e fornecerá mais de 300 megawatts de novo poder computacional dentro de um mês. O CEO Dario Amodei relacionou a medida diretamente ao aumento das permissões de uso para clientes pagantes.

O que as pessoas estão dizendo

As reações iniciais no X ao acordo entre a Anthropic e o Colossus da SpaceX concentram-se na duplicação imediata dos limites de taxa do Claude Code, na remoção da limitação em horários de pico e em melhorias significativas na API. Usuários e contas de tecnologia expressam entusiasmo com a maior capacidade computacional, que permite realizar mais trabalho de desenvolvimento, e muitos veem a iniciativa como um passo positivo para resolver frustrações anteriores com o uso. Anúncios neutros da mídia e da própria Anthropic predominam, juntamente com comentários otimistas sobre parcerias de infraestrutura que aceleram as capacidades de IA.

Artigos relacionados

Dramatic illustration of Anthropic imposing a paywall on Claude AI, blocking third-party agents from overloaded servers.
Imagem gerada por IA

Anthropic encerra acesso ilimitado ao Claude via agentes de terceiros e passa a exigir pagamentos adicionais para uso intensivo

Reportado por IA Imagem gerada por IA

A Anthropic restringiu o acesso ilimitado aos seus modelos de IA Claude por meio de agentes de terceiros, como o OpenClaw, exigindo que usuários intensivos paguem um valor extra via chaves de API ou pacotes de uso a partir de 4 de abril de 2026. A mudança na política, anunciada durante o fim de semana, visa solucionar a sobrecarga severa no sistema causada por ferramentas de agentes de alto volume que anteriormente eram cobertas pelas assinaturas mensais de US$ 20.

A Anthropic está temporariamente a duplicar os limites de uso do seu chatbot de IA Claude durante horários fora de pico, de 13 a 27 de março. A promoção aplica-se a utilizadores dos planos Free, Pro, Max e Team, excluindo os planos Enterprise. Ativa-se automaticamente em web, desktop, mobile e aplicações integradas.

Reportado por IA Verificado

Depois que o CEO da Anthropic, Dario Amodei, disse no final de fevereiro que a empresa não permitiria que seu modelo Claude fosse usado para vigilância doméstica em massa ou para armas totalmente autônomas, altos funcionários do Pentágono disseram que não têm intenção de usar IA para vigilância doméstica e insistem que as empresas privadas não podem estabelecer limites obrigatórios sobre como os militares dos EUA empregam ferramentas de IA.

O Pentágono notificou formalmente a empresa de IA Anthropic de que a considera um “risco na cadeia de suprimentos”, uma designação rara que críticos dizem ser tipicamente direcionada a tecnologias ligadas a adversários. A medida segue o rompimento de negociações sobre se o exército dos EUA pode usar os modelos Claude da Anthropic para todos os propósitos legais, versus limites contratuais que a empresa diz serem necessários para prevenir armas totalmente autônomas e vigilância doméstica em massa.

Reportado por IA

Expandindo o recurso Cowork de janeiro, a Anthropic lançou uma prévia de pesquisa para o Claude Code e ferramentas de Cowork, permitindo que a IA Claude de assinantes Pro e Max controle diretamente desktops Mac — apontando, clicando, rolando e navegando por telas para realizar tarefas como abrir arquivos, usar navegadores, ferramentas de desenvolvedor e interações com aplicativos como Google Calendar e Slack. Salvaguardas abordam riscos de segurança, em meio à concorrência com ferramentas como o OpenClaw.

O código-fonte da interface de linha de comando Claude Code, da Anthropic, vazou online após um erro de empacotamento em um lançamento recente. O incidente expôs mais de 512.000 linhas de código de quase 2.000 arquivos TypeScript. A empresa descreveu o ocorrido como um erro humano, afirmando que nenhum dado sensível foi comprometido.

Reportado por IA

Após a proibição federal de suas ferramentas de IA na semana passada, a Anthropic retomou negociações com o Departamento de Defesa dos EUA para evitar uma designação de risco na cadeia de suprimentos. Enquanto isso, o acordo militar paralelo da OpenAI está sob críticas de funcionários, rivais e do CEO da Anthropic, Dario Amodei, que o acusou de alegações enganosas num memorando vazado.

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar