Anthropic présente en avant-première des visuels interactifs pour le chatbot Claude

Anthropic a introduit une fonctionnalité bêta permettant à son IA Claude de générer des graphiques, diagrammes et visualisations interactifs directement dans les discussions. L’outil vise à améliorer la compréhension en remplaçant les textes denses par des visuels lorsque c’est approprié. Il est disponible pour tous les utilisateurs sur les plateformes web et bureau.

Anthropic a annoncé le 12 mars 2026 une nouvelle mise à jour pour son chatbot Claude, lui permettant de créer des visuels interactifs dans le cadre de ses réponses. Cette fonctionnalité, actuellement en bêta, permet à Claude de produire des graphiques, diagrammes et autres visualisations soit lorsque les utilisateurs les demandent, soit lorsque l’IA les juge utiles pour expliquer des concepts.  nnContrairement aux générateurs d’images traditionnels, Claude utilise du code HTML et des graphiques vectoriels SVG pour créer ces éléments sur-le-champ. Anthropic la décrit comme fournissant à Claude un tableau blanc à la demande, rendant les explications plus dynamiques et plus faciles à suivre. Par exemple, lorsque sollicité pour montrer comment changer un pneu, Claude a généré une illustration interactive en sept étapes, incluant les outils nécessaires et les explications clés. Les visuels ne sont pas hautement détaillés mais transmettent efficacement le processus, et les utilisateurs peuvent les télécharger ou les sauvegarder en tant qu’artefacts.  nnD’autres exemples incluent un tutoriel étape par étape pour plier un avion en papier à verrou Nakamura et un tableau périodique interactif où les utilisateurs peuvent cliquer sur les éléments pour plus d’informations. Dans un test créatif, Claude a visualisé la façade d’une maison tirée d’un livre, avec des éléments cliquables comme les fenêtres et les portes révélant des détails.  nnCette capacité est disponible par défaut sur tous les types de plans Claude, sans barrière payante, bien qu’elle soit limitée pour l’instant au web et au bureau, avec un support mobile potentiellement à venir plus tard. Anthropic note que, en tant que logiciel bêta, les utilisateurs peuvent rencontrer des bizarreries. Cette sortie fait suite à une mise à jour similaire d’OpenAI pour ChatGPT, qui a ajouté des visuels interactifs pour les explications scientifiques et mathématiques juste quelques jours avant.  nnCette fonctionnalité souligne les efforts d’Anthropic pour faire de Claude un outil plus polyvalent, en sélectionnant le meilleur médium — texte ou visuel — pour délivrer l’information.

Articles connexes

Illustration of Claude AI controlling a Mac desktop, with open apps like Slack and Calendar, highlighting new research preview features.
Image générée par IA

L'IA Claude d'Anthropic obtient un contrôle total du bureau sous MacOS dans une préversion de recherche

Rapporté par l'IA Image générée par IA

S'appuyant sur sa fonctionnalité Cowork lancée en janvier, Anthropic a inauguré une préversion de recherche pour Claude Code et ses outils Cowork, permettant à l'IA Claude des abonnés Pro et Max de contrôler directement les ordinateurs Mac. Elle peut désormais pointer, cliquer, faire défiler et naviguer sur l'écran pour effectuer des tâches telles que l'ouverture de fichiers, l'utilisation de navigateurs, d'outils de développement et l'interaction avec des applications comme Google Calendar et Slack. Des mesures de protection répondent aux risques de sécurité, dans un contexte de concurrence avec des outils comme OpenClaw.

Anthropic a présenté Claude Design, un nouvel outil en préversion de recherche qui permet aux abonnés de générer des designs, des prototypes et des présentations à l'aide de son IA Claude. Propulsé par le modèle de vision Opus 4.7, l'outil met l'accent sur les visuels professionnels plutôt que sur la génération d'images aléatoires. Il est disponible dès maintenant pour les abonnés Pro, Max, Team et Enterprise.

Rapporté par l'IA

Anthropic a annoncé mercredi le lancement de Claude Managed Agents, un nouveau produit visant à simplifier la création et le déploiement d'agents IA pour les entreprises. L'outil fournit aux développeurs une infrastructure prête à l'emploi pour concevoir des systèmes d'IA autonomes. Il répond à un obstacle majeur dans l'automatisation des tâches professionnelles, dans un contexte de croissance rapide de l'entreprise sur le marché des entreprises.

Anthropic a dévoilé une nouvelle capacité de « rêve » pour ses agents gérés par Claude lors de la conférence pour développeurs Code with Claude à San Francisco. Cette fonctionnalité permet aux agents d'examiner leurs sessions récentes et de stocker des modèles clés en mémoire pour des tâches futures. L'entreprise prévoit également d'élargir l'accès à d'autres outils et d'augmenter les limites d'utilisation pour les abonnés.

Rapporté par l'IA

Anthropic a mis à la retraite son modèle d’IA Claude 3 Opus et, après un entretien de retraite, a lancé un bulletin Substack pour lui intitulé Claude’s Corner. Le bulletin proposera des essais hebdomadaires rédigés par le modèle pendant au moins les trois prochains mois. Cette initiative reflète l’approche d’Anthropic consistant à respecter les préférences de ses systèmes d’IA mis à la retraite.

Suite aux révélations de la semaine dernière qui ont suscité une inquiétude mondiale, Anthropic a restreint l'accès à sa puissante IA Mythos, capable de détecter des vulnérabilités en cybersécurité, à un groupe sélectionné d'entreprises dans le cadre du projet Glasswing, dont Amazon Web Services, Apple et Google, après qu'une fuite accidentelle a soulevé des préoccupations en matière de sécurité nationale.

Rapporté par l'IA

La société de droits musicaux BMG a intenté une action en justice contre la société d'intelligence artificielle Anthropic, alléguant l'utilisation non autorisée de paroles de chansons pour former son chatbot Claude. La plainte affirme que l'infraction remonte à la création d'Anthropic et concerne des œuvres d'artistes tels que Justin Bieber et Bruno Mars. BMG demande des dommages et intérêts pouvant aller jusqu'à 150 000 dollars par œuvre violée.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser