Anthropic confirme la fuite du code source de Claude Code

Anthropic a confirmé la fuite de plus de 512 000 lignes de code source de son outil Claude Code. Cette divulgation révèle des fonctionnalités désactivées suggérant des développements futurs, notamment un agent persistant en arrière-plan appelé Kairos. Les observateurs ayant examiné le code ont également trouvé des références à des modes furtifs et à un assistant virtuel nommé Buddy.

Anthropic a confirmé le 1er avril que le code source de Claude Code avait fuité, couvrant plus de 512 000 lignes réparties dans plus de 2 000 fichiers. L'entreprise développe une structure autour de son modèle propriétaire Claude pour les tâches de programmation. Comme l'a d'abord rapporté TechRadar, la brèche a révélé des détails sur des fonctionnalités inactives prévues pour de futures versions. Ars Technica a détaillé hier, le 1er avril 2026, comment des experts ont analysé le code pour découvrir ces informations. Kairos apparaît comme une fonctionnalité clé prévue : un démon persistant opérant en arrière-plan, même lorsque le terminal est fermé. Il utilise des invites "tick" périodiques et un indicateur "PROACTIVE" pour "faire apparaître quelque chose que l'utilisateur n'a pas demandé mais doit voir immédiatement". Le système s'appuie sur une mémoire basée sur des fichiers pour suivre les préférences des utilisateurs, les styles de collaboration et le contexte de travail entre les sessions. Un système AutoDream consoliderait les souvenirs pendant les périodes d'inactivité, en scannant les transcriptions pour trouver de nouvelles informations, en supprimant les doublons ou les entrées obsolètes, et en synthétisant des souvenirs durables pour accélérer les sessions futures. Par ailleurs, un "mode secret" vise à permettre à l'IA de contribuer à des dépôts open source publics sans révéler sa nature, en omettant des expressions comme "Claude Code" ou des attributions à l'IA. Buddy, un assistant de type Clippy avec 18 espèces aléatoires en art ASCII, devait être lancé sous forme de teaser entre le 1er et le 7 avril, avec un déploiement complet en mai. D'autres fonctionnalités référencées incluent UltraPlan pour la planification au niveau Opus, le mode vocal pour les discussions directes, le mode Bridge pour les sessions à distance et un coordinateur pour les tâches multi-utilisateurs. L'impact de la fuite sur ces calendriers reste incertain.

Articles connexes

Illustration of Claude AI controlling a Mac desktop, with open apps like Slack and Calendar, highlighting new research preview features.
Image générée par IA

L'IA Claude d'Anthropic obtient un contrôle total du bureau sous MacOS dans une préversion de recherche

Rapporté par l'IA Image générée par IA

S'appuyant sur sa fonctionnalité Cowork lancée en janvier, Anthropic a inauguré une préversion de recherche pour Claude Code et ses outils Cowork, permettant à l'IA Claude des abonnés Pro et Max de contrôler directement les ordinateurs Mac. Elle peut désormais pointer, cliquer, faire défiler et naviguer sur l'écran pour effectuer des tâches telles que l'ouverture de fichiers, l'utilisation de navigateurs, d'outils de développement et l'interaction avec des applications comme Google Calendar et Slack. Des mesures de protection répondent aux risques de sécurité, dans un contexte de concurrence avec des outils comme OpenClaw.

Le code source de l'interface en ligne de commande Claude Code d'Anthropic a fuité en ligne à la suite d'une erreur de packaging lors d'une récente mise à jour. L'incident a exposé plus de 512 000 lignes de code provenant de près de 2 000 fichiers TypeScript. L'entreprise a décrit l'événement comme une erreur humaine n'impliquant aucune donnée sensible.

Rapporté par l'IA

Le 5 février 2026, Anthropic et OpenAI ont lancé simultanément des produits faisant passer les utilisateurs de la discussion avec l’IA à la gestion d’équipes d’agents IA. Anthropic a introduit Claude Opus 4.6 avec des équipes d’agents pour les développeurs, tandis qu’OpenAI a dévoilé Frontier et GPT-5.3-Codex pour les flux de travail d’entreprise. Ces sorties coïncident avec une chute de 285 milliards de dollars des actions logicielles, sur fond de craintes que l’IA perturbe les fournisseurs SaaS traditionnels.

Apple a publié Xcode 26.3, améliorant son environnement de développement intégré avec une intégration plus profonde pour les agents de codage IA comme Claude et Codex d'OpenAI. La mise à jour exploite le Protocole de Contexte de Modèle pour permettre à ces agents d'accéder plus efficacement à la documentation, aux structures de fichiers et aux paramètres de projet. Cela s'appuie sur les fonctionnalités IA introduites dans Xcode 26 à la WWDC 2025.

Rapporté par l'IA

Anthropic a lancé un plugin juridique pour son outil Claude Cowork, suscitant des inquiétudes parmi les fournisseurs d'IA juridique dédiés. Le plugin offre des fonctionnalités utiles pour l'examen des contrats et la conformité, mais reste en deçà du remplacement des plateformes spécialisées. Les entreprises sud-africaines font face à des obstacles supplémentaires en raison des réglementations sur la protection des données.

OpenAI a publié une application dédiée macOS pour son outil de codage IA Codex, renforçant ses capacités à gérer plusieurs agents IA pour des tâches complexes. L'application s'appuie sur Codex, qui a été lancé au printemps dernier en réponse à des concurrents comme Claude Code d'Anthropic. Elle introduit des fonctionnalités comme Skills et Automations pour rationaliser les flux de travail des développeurs.

Rapporté par l'IA

Suite à des rapports antérieurs faisant état d'attaques directes contre les agents d'intelligence artificielle d'OpenClaw, TechRadar prévient que les voleurs d'informations se déguisent désormais en Claude Code, OpenClaw et autres outils de développement d'intelligence artificielle. Les utilisateurs doivent faire preuve de prudence en ce qui concerne les résultats des moteurs de recherche. Publié le 18 mars 2026.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser