Anthropic adiciona função de memória ao plano gratuito do Claude

A Anthropic estendeu sua capacidade de memória para o nível gratuito do seu chatbot de IA Claude, permitindo que os usuários façam referência a conversas passadas. A empresa também lançou uma ferramenta para importar memórias de chatbots concorrentes como ChatGPT e Gemini. Esta atualização coincide com o aumento de popularidade do Claude em meio a uma disputa com o Departamento de Defesa dos EUA.

A Anthropic anunciou em 2 de março de 2026 que o recurso de memória para o seu chatbot de IA Claude está agora disponível no plano gratuito. Anteriormente uma opção paga, o recurso permite que o Claude faça referência a conversas anteriores para informar suas respostas. A Anthropic introduziu pela primeira vez capacidades de memória em agosto passado, seguidas pela compartimentalização de memórias no outono. Os usuários podem ativar a memória durante conversas com o Claude. Se optarem por desativá-la, as opções incluem pausar o recurso para preservar memórias para uso posterior ou excluí-las completamente dos servidores da Anthropic. Complementando isso, a Anthropic lançou uma ferramenta de importação de memórias no mesmo dia. A ferramenta extrai contexto e memórias de outros chatbots de IA, gerando um prompt de texto que os usuários podem copiar e colar no Claude. Concorrentes suportados incluem ChatGPT, Gemini e Copilot. A assimilação leva cerca de 24 horas, visível pelo botão “Veja o que o Claude aprendeu sobre você”. Na seção “Gerenciar memória”, os usuários podem editar o que o Claude lembra. A Anthropic observa que o Claude prioriza “tópicos relacionados ao trabalho para aprimorar sua efetividade como colaborador” e pode não reter detalhes pessoais não relacionados. A popularidade do Claude cresceu rapidamente, alcançando recentemente o topo das paradas de apps gratuitos na App Store, superando o ChatGPT. Essa ascensão coincide com a disputa contratual em andamento da Anthropic com o governo dos EUA sobre salvaguardas de IA. Na sexta-feira, o Secretário de Defesa dos EUA, Pete Hegseth, designou a Anthropic como um “risco na cadeia de suprimentos” após a empresa recusar um contrato do Pentágono envolvendo vigilância em massa contra americanos e armas totalmente autônomas. A Anthropic prometeu contestar o rótulo. Enquanto isso, a OpenAI estaria assumindo o papel anterior da Anthropic com o Departamento de Defesa, levando alguns usuários a boicotarem o ChatGPT e cancelarem assinaturas.

Artigos relacionados

Dramatic illustration of Anthropic imposing a paywall on Claude AI, blocking third-party agents from overloaded servers.
Imagem gerada por IA

Anthropic ends unlimited Claude access via third-party agents, requires extra payments for heavy use

Reportado por IA Imagem gerada por IA

Anthropic has restricted unlimited access to its Claude AI models through third-party agents like OpenClaw, requiring heavy users to pay extra via API keys or usage bundles starting April 4, 2026. The policy shift, announced over the weekend, addresses severe system strain from high-volume agent tools previously covered under $20 monthly subscriptions.

Anthropic has upgraded its Claude AI chatbot's free plan by adding previously paid features, positioning it as an ad-free alternative to OpenAI's ChatGPT. The enhancements include file creation, connectors to third-party services, and custom skills, amid OpenAI's plans to introduce ads in its free tier. This move follows Anthropic's Super Bowl advertisements criticizing the ad strategy.

Reportado por IA

Anthropic has announced that its AI chatbot Claude will remain free of advertisements, contrasting sharply with rival OpenAI's recent decision to test ads in ChatGPT. The company launched a Super Bowl ad campaign mocking AI assistants that interrupt conversations with product pitches. This move highlights growing tensions in the competitive AI landscape.

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's Claude AI, following the company's refusal to allow its use for mass surveillance or autonomous weapons. The order includes a six-month phaseout period. This decision stems from ongoing clashes between Anthropic and the Department of Defense over AI restrictions.

Reportado por IA

Anthropic has limited access to its Claude Mythos Preview AI model due to its superior ability to detect and exploit software vulnerabilities, while launching Project Glasswing—a consortium with over 45 tech firms including Apple, Google, and Microsoft—to collaboratively patch flaws and bolster defenses. The announcement follows recent data leaks at the firm.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Reportado por IA Verificado

After Anthropic CEO Dario Amodei said in late February that the company would not allow its Claude model to be used for mass domestic surveillance or fully autonomous weapons, senior Pentagon officials said they have no intention of using AI for domestic surveillance and insist that private firms cannot set binding limits on how the U.S. military employs AI tools.

sexta-feira, 17 de abril de 2026, 19:24h

Anthropic launches Claude Design research preview

segunda-feira, 13 de abril de 2026, 18:31h

Anthropic launches Claude AI add-on for Microsoft Word

quarta-feira, 08 de abril de 2026, 23:36h

Anthropic launches Claude Managed Agents for AI builders

quarta-feira, 01 de abril de 2026, 18:28h

Anthropic confirms leak of Claude Code source code

segunda-feira, 16 de março de 2026, 04:30h

Anthropic doubles Claude usage limits during off-peak hours

sexta-feira, 13 de março de 2026, 00:22h

Anthropic previews interactive visuals for Claude chatbot

segunda-feira, 09 de março de 2026, 14:38h

Anthropic sues US defense department over supply chain risk designation

domingo, 01 de março de 2026, 08:19h

Claude AI app tops App Store amid backlash to US government ban

sábado, 28 de fevereiro de 2026, 11:10h

Anthropic's legal plugin raises questions for AI specialists

quarta-feira, 25 de fevereiro de 2026, 17:22h

Pentagon pressures Anthropic to weaken AI safety commitments

 

 

 

Este site usa cookies

Usamos cookies para análise para melhorar nosso site. Leia nossa política de privacidade para mais informações.
Recusar