Le code source de l'interface en ligne de commande Claude Code d'Anthropic fuit en ligne

Le code source de l'interface en ligne de commande Claude Code d'Anthropic a fuité en ligne à la suite d'une erreur de packaging lors d'une récente mise à jour. L'incident a exposé plus de 512 000 lignes de code provenant de près de 2 000 fichiers TypeScript. L'entreprise a décrit l'événement comme une erreur humaine n'impliquant aucune donnée sensible.

Anthropic a publié la version 2.1.88 de son package npm Claude Code le 31 mars 2026. Le package incluait par inadvertance un fichier source map, donnant ainsi accès à l'intégralité du code source. Le chercheur en sécurité Chaofan Shou a été le premier à signaler le problème sur X, en partageant un lien vers une archive des fichiers. Le code est rapidement apparu dans un dépôt GitHub public, qui a depuis été forké des dizaines de milliers de fois. Aucune donnée client ou identifiant n'a été exposé, selon les responsables d'Anthropic, qui ont qualifié l'incident de problème de packaging dû à une erreur humaine et non d'une faille de sécurité. L'entreprise a déclaré : « Plus tôt aujourd'hui, une version de Claude Code incluait du code source interne. Aucune donnée client sensible ni aucun identifiant n'ont été impliqués ou exposés. Il s'agissait d'un problème de packaging lié à une erreur humaine, et non d'une faille de sécurité. Nous mettons en place des mesures pour éviter que cela ne se reproduise. » Les développeurs ont rapidement commencé à analyser le code ayant fuité. Par exemple, une étude a détaillé l'architecture de la mémoire de Claude Code, incluant les étapes de réécriture de la mémoire en arrière-plan et de validation. Une autre analyse a relevé environ 40 000 lignes pour un système d'outils similaire à des plugins et 46 000 pour le système de requêtes, décrivant l'ensemble comme un outil de développement sophistiqué de niveau industriel, bien au-delà d'une simple interface API. Les efforts communautaires avaient déjà partiellement permis de procéder à une rétro-ingénierie de Claude Code, mais cette fuite offre une exhaustivité sans précédent. Cette exposition permet aux concurrents d'avoir un aperçu de l'architecture d'Anthropic et des vulnérabilités potentielles de ses systèmes de protection.

Articles connexes

Illustration of Claude AI controlling a Mac desktop, with open apps like Slack and Calendar, highlighting new research preview features.
Image générée par IA

L'IA Claude d'Anthropic obtient un contrôle total du bureau sous MacOS dans une préversion de recherche

Rapporté par l'IA Image générée par IA

S'appuyant sur sa fonctionnalité Cowork lancée en janvier, Anthropic a inauguré une préversion de recherche pour Claude Code et ses outils Cowork, permettant à l'IA Claude des abonnés Pro et Max de contrôler directement les ordinateurs Mac. Elle peut désormais pointer, cliquer, faire défiler et naviguer sur l'écran pour effectuer des tâches telles que l'ouverture de fichiers, l'utilisation de navigateurs, d'outils de développement et l'interaction avec des applications comme Google Calendar et Slack. Des mesures de protection répondent aux risques de sécurité, dans un contexte de concurrence avec des outils comme OpenClaw.

Anthropic a introduit une fonctionnalité bêta permettant à son IA Claude de générer des graphiques, diagrammes et visualisations interactifs directement dans les discussions. L’outil vise à améliorer la compréhension en remplaçant les textes denses par des visuels lorsque c’est approprié. Il est disponible pour tous les utilisateurs sur les plateformes web et bureau.

Rapporté par l'IA

Le 5 février 2026, Anthropic et OpenAI ont lancé simultanément des produits faisant passer les utilisateurs de la discussion avec l’IA à la gestion d’équipes d’agents IA. Anthropic a introduit Claude Opus 4.6 avec des équipes d’agents pour les développeurs, tandis qu’OpenAI a dévoilé Frontier et GPT-5.3-Codex pour les flux de travail d’entreprise. Ces sorties coïncident avec une chute de 285 milliards de dollars des actions logicielles, sur fond de craintes que l’IA perturbe les fournisseurs SaaS traditionnels.

Anthropic a annoncé que son chatbot IA Claude restera sans publicité, en net contraste avec la décision récente de son rival OpenAI de tester des publicités dans ChatGPT. L'entreprise a lancé une campagne publicitaire lors du Super Bowl moquant les assistants IA qui interrompent les conversations avec des pitches produits. Cette initiative met en lumière les tensions croissantes dans le paysage concurrentiel de l'IA.

Rapporté par l'IA

L'application Claude AI d'Anthropic a atteint la première place du classement des applications gratuites de l'App Store d'Apple, dépassant ChatGPT et Gemini, portée par le soutien du public après l'interdiction fédérale du président Trump sur l'outil en raison des refus d'Anthropic en matière de sécurité IA.

Anthropic a mis à la retraite son modèle d’IA Claude 3 Opus et, après un entretien de retraite, a lancé un bulletin Substack pour lui intitulé Claude’s Corner. Le bulletin proposera des essais hebdomadaires rédigés par le modèle pendant au moins les trois prochains mois. Cette initiative reflète l’approche d’Anthropic consistant à respecter les préférences de ses systèmes d’IA mis à la retraite.

Rapporté par l'IA

Le président américain Donald Trump a ordonné aux agences fédérales de cesser immédiatement d'utiliser l'IA Claude d'Anthropic, après le refus de l'entreprise d'autoriser son usage pour la surveillance de masse ou les armes autonomes. L'ordonnance prévoit une période de transition de six mois. Cette décision résulte des affrontements en cours entre Anthropic et le Département de la Défense sur les restrictions relatives à l'IA.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser