Anthropic ajoute une fonction de « rêve » aux agents gérés par Claude

Anthropic a dévoilé une nouvelle capacité de « rêve » pour ses agents gérés par Claude lors de la conférence pour développeurs Code with Claude à San Francisco. Cette fonctionnalité permet aux agents d'examiner leurs sessions récentes et de stocker des modèles clés en mémoire pour des tâches futures. L'entreprise prévoit également d'élargir l'accès à d'autres outils et d'augmenter les limites d'utilisation pour les abonnés.

Le processus de « rêve » s'exécute selon un calendrier et analyse les sessions de plusieurs agents pour identifier les modèles récurrents, les erreurs et les préférences partagées. Les utilisateurs peuvent opter pour des mises à jour automatiques de la mémoire ou examiner eux-mêmes les changements proposés. Cette approche permet de surmonter les limites des fenêtres de contexte lors de projets prolongés impliquant plusieurs agents travaillant ensemble sur plusieurs heures ou jours.

Articles connexes

Dramatic illustration of Anthropic imposing a paywall on Claude AI, blocking third-party agents from overloaded servers.
Image générée par IA

Anthropic met fin à l'accès illimité à Claude via des agents tiers et exige des frais supplémentaires pour les usages intensifs

Rapporté par l'IA Image générée par IA

Anthropic a restreint l'accès illimité à ses modèles d'IA Claude via des agents tiers tels qu'OpenClaw, imposant aux utilisateurs intensifs de payer des suppléments via des clés API ou des forfaits d'utilisation à compter du 4 avril 2026. Ce changement de politique, annoncé au cours du week-end, répond à la forte pression exercée sur les systèmes par des outils d'agents à haut volume, précédemment couverts par des abonnements mensuels de 20 dollars.

Anthropic a étendu sa capacité de mémoire au niveau gratuit de son chatbot IA Claude, permettant aux utilisateurs de référencer des conversations passées. L’entreprise a également publié un outil pour importer des souvenirs de chatbots concurrents comme ChatGPT et Gemini. Cette mise à jour coïncide avec la montée en popularité de Claude au milieu d’un différend avec le Département de la Défense des États-Unis.

Rapporté par l'IA

Anthropic a annoncé mercredi le lancement de Claude Managed Agents, un nouveau produit visant à simplifier la création et le déploiement d'agents IA pour les entreprises. L'outil fournit aux développeurs une infrastructure prête à l'emploi pour concevoir des systèmes d'IA autonomes. Il répond à un obstacle majeur dans l'automatisation des tâches professionnelles, dans un contexte de croissance rapide de l'entreprise sur le marché des entreprises.

Anthropic double temporairement les limites d'utilisation de son chatbot IA Claude pendant les heures creuses du 13 au 27 mars. Cette promotion s'applique aux utilisateurs des plans Free, Pro, Max et Team, à l'exclusion des plans Enterprise. Elle s'active automatiquement sur le web, le bureau, mobile et les applications intégrées.

Rapporté par l'IA

Anthropic a publié une version bêta d'un module complémentaire intégrant son assistant d'IA Claude à Microsoft Word, désormais disponible pour les clients disposant d'abonnements Team et Enterprise. Cette intégration permet aux utilisateurs de générer du nouveau contenu, de modifier des documents et de gérer les commentaires directement dans l'application. Elle offre une alternative au Copilot de Microsoft.

À la suite du dévoilement par Anthropic de sa puissante IA Claude Mythos — capable de détecter et d'exploiter des vulnérabilités logicielles — le secrétaire au Trésor américain a réuni les principaux dirigeants des banques pour souligner la montée des cybermenaces alimentées par l'IA. Cette initiative souligne les préoccupations croissantes alors que l'IA est restreinte à une coalition technologique via le projet Glasswing.

Rapporté par l'IA Vérifié par des faits

Après que le PDG d'Anthropic, Dario Amodei, a déclaré fin février que l'entreprise ne permettrait pas que son modèle Claude soit utilisé pour la surveillance domestique de masse ou pour des armes entièrement autonomes, de hauts responsables du Pentagone ont déclaré qu'ils n'avaient pas l'intention d'utiliser l'IA pour la surveillance domestique et ont insisté sur le fait que les entreprises privées ne peuvent pas fixer de limites contraignantes sur la manière dont l'armée américaine utilise les outils d'IA.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser