Anthropic a étendu sa capacité de mémoire au niveau gratuit de son chatbot IA Claude, permettant aux utilisateurs de référencer des conversations passées. L’entreprise a également publié un outil pour importer des souvenirs de chatbots concurrents comme ChatGPT et Gemini. Cette mise à jour coïncide avec la montée en popularité de Claude au milieu d’un différend avec le Département de la Défense des États-Unis.
Anthropic a annoncé le 2 mars 2026 que la fonction de mémoire pour son chatbot IA Claude est désormais disponible sur le plan gratuit. Précédemment une option payante, cette fonction permet à Claude de référencer des conversations précédentes pour informer ses réponses. Anthropic a introduit pour la première fois les capacités de mémoire en août dernier, suivies par la compartimentation des souvenirs à l’automne. Les utilisateurs peuvent activer la mémoire pendant les discussions avec Claude. S’ils choisissent de la désactiver, les options incluent la mise en pause de la fonction pour conserver les souvenirs pour une utilisation ultérieure ou leur suppression complète des serveurs d’Anthropic. En complément, Anthropic a lancé un outil d’importation de mémoires le même jour. L’outil extrait le contexte et les souvenirs d’autres chatbots IA, générant un prompt texte que les utilisateurs peuvent copier-coller dans Claude. Les concurrents pris en charge incluent ChatGPT, Gemini et Copilot. L’assimilation prend environ 24 heures, visible via le bouton « Voir ce que Claude a appris sur vous ». Dans la section « Gérer la mémoire », les utilisateurs peuvent modifier ce que Claude retient. Anthropic note que Claude priorise les « sujets liés au travail pour améliorer son efficacité en tant que collaborateur » et peut ne pas conserver de détails personnels non pertinents. La popularité de Claude a connu une croissance rapide, atteignant récemment la première place des classements d’apps gratuites de l’App Store, surpassant ChatGPT. Cette montée s’aligne sur le différend contractuel en cours d’Anthropic avec le gouvernement américain concernant les garde-fous de l’IA. Vendredi, le secrétaire à la Défense des États-Unis, Pete Hegseth, a qualifié Anthropic de « risque pour la chaîne d’approvisionnement » après que l’entreprise a refusé un contrat du Pentagone impliquant une surveillance de masse contre les Américains et des armes totalement autonomes. Anthropic s’est engagé à contester cette étiquette. Parallèlement, OpenAI serait en train de reprendre le rôle précédent d’Anthropic avec le Département de la Défense, incitant certains utilisateurs à boycotter ChatGPT et à annuler leurs abonnements.