Anthropic ajoute une fonction de mémoire au plan gratuit de Claude

Anthropic a étendu sa capacité de mémoire au niveau gratuit de son chatbot IA Claude, permettant aux utilisateurs de référencer des conversations passées. L’entreprise a également publié un outil pour importer des souvenirs de chatbots concurrents comme ChatGPT et Gemini. Cette mise à jour coïncide avec la montée en popularité de Claude au milieu d’un différend avec le Département de la Défense des États-Unis.

Anthropic a annoncé le 2 mars 2026 que la fonction de mémoire pour son chatbot IA Claude est désormais disponible sur le plan gratuit. Précédemment une option payante, cette fonction permet à Claude de référencer des conversations précédentes pour informer ses réponses. Anthropic a introduit pour la première fois les capacités de mémoire en août dernier, suivies par la compartimentation des souvenirs à l’automne. Les utilisateurs peuvent activer la mémoire pendant les discussions avec Claude. S’ils choisissent de la désactiver, les options incluent la mise en pause de la fonction pour conserver les souvenirs pour une utilisation ultérieure ou leur suppression complète des serveurs d’Anthropic. En complément, Anthropic a lancé un outil d’importation de mémoires le même jour. L’outil extrait le contexte et les souvenirs d’autres chatbots IA, générant un prompt texte que les utilisateurs peuvent copier-coller dans Claude. Les concurrents pris en charge incluent ChatGPT, Gemini et Copilot. L’assimilation prend environ 24 heures, visible via le bouton « Voir ce que Claude a appris sur vous ». Dans la section « Gérer la mémoire », les utilisateurs peuvent modifier ce que Claude retient. Anthropic note que Claude priorise les « sujets liés au travail pour améliorer son efficacité en tant que collaborateur » et peut ne pas conserver de détails personnels non pertinents. La popularité de Claude a connu une croissance rapide, atteignant récemment la première place des classements d’apps gratuites de l’App Store, surpassant ChatGPT. Cette montée s’aligne sur le différend contractuel en cours d’Anthropic avec le gouvernement américain concernant les garde-fous de l’IA. Vendredi, le secrétaire à la Défense des États-Unis, Pete Hegseth, a qualifié Anthropic de « risque pour la chaîne d’approvisionnement » après que l’entreprise a refusé un contrat du Pentagone impliquant une surveillance de masse contre les Américains et des armes totalement autonomes. Anthropic s’est engagé à contester cette étiquette. Parallèlement, OpenAI serait en train de reprendre le rôle précédent d’Anthropic avec le Département de la Défense, incitant certains utilisateurs à boycotter ChatGPT et à annuler leurs abonnements.

Articles connexes

Dramatic illustration of Anthropic imposing a paywall on Claude AI, blocking third-party agents from overloaded servers.
Image générée par IA

Anthropic ends unlimited Claude access via third-party agents, requires extra payments for heavy use

Rapporté par l'IA Image générée par IA

Anthropic has restricted unlimited access to its Claude AI models through third-party agents like OpenClaw, requiring heavy users to pay extra via API keys or usage bundles starting April 4, 2026. The policy shift, announced over the weekend, addresses severe system strain from high-volume agent tools previously covered under $20 monthly subscriptions.

Anthropic has upgraded its Claude AI chatbot's free plan by adding previously paid features, positioning it as an ad-free alternative to OpenAI's ChatGPT. The enhancements include file creation, connectors to third-party services, and custom skills, amid OpenAI's plans to introduce ads in its free tier. This move follows Anthropic's Super Bowl advertisements criticizing the ad strategy.

Rapporté par l'IA

Anthropic has announced that its AI chatbot Claude will remain free of advertisements, contrasting sharply with rival OpenAI's recent decision to test ads in ChatGPT. The company launched a Super Bowl ad campaign mocking AI assistants that interrupt conversations with product pitches. This move highlights growing tensions in the competitive AI landscape.

US President Donald Trump has directed federal agencies to immediately cease using Anthropic's Claude AI, following the company's refusal to allow its use for mass surveillance or autonomous weapons. The order includes a six-month phaseout period. This decision stems from ongoing clashes between Anthropic and the Department of Defense over AI restrictions.

Rapporté par l'IA

Anthropic has limited access to its Claude Mythos Preview AI model due to its superior ability to detect and exploit software vulnerabilities, while launching Project Glasswing—a consortium with over 45 tech firms including Apple, Google, and Microsoft—to collaboratively patch flaws and bolster defenses. The announcement follows recent data leaks at the firm.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Rapporté par l'IA Vérifié par des faits

After Anthropic CEO Dario Amodei said in late February that the company would not allow its Claude model to be used for mass domestic surveillance or fully autonomous weapons, senior Pentagon officials said they have no intention of using AI for domestic surveillance and insist that private firms cannot set binding limits on how the U.S. military employs AI tools.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser