Anthropic limite l'accès gratuit à Claude via des outils tiers

Anthropic a mis fin à l'accès gratuit à son IA Claude pour les utilisateurs d'applications tierces telles qu'OpenClaw. Depuis le 4 avril à 15h00 (heure de l'Est), ces utilisateurs doivent désormais acheter un forfait d'utilisation ou obtenir une clé API Claude. Ce changement répond à des contraintes techniques face à une demande croissante.

Boris Cherny, responsable de Claude Code chez Anthropic, a annoncé ce changement de politique sur X. Il a déclaré que les abonnements Claude ne prennent plus en charge l'utilisation gratuite via des outils tiers. Les utilisateurs d'applications comme OpenClaw, un assistant IA open-source destiné à automatiser des tâches telles que la gestion des e-mails et des calendriers, font désormais face à de nouvelles exigences pour continuer à utiliser Claude comme moteur de langage, aux côtés d'options comme ChatGPT ou Google Gemini. Cherny a expliqué que cette décision découle de la gestion de la capacité. « Nous travaillons dur pour répondre à l'augmentation de la demande pour Claude, et nos abonnements n'ont pas été conçus pour les modèles d'utilisation de ces outils tiers », a-t-il écrit. « La capacité est une ressource que nous gérons avec soin et nous donnons la priorité à nos clients utilisant nos produits et notre API. » Les utilisateurs concernés peuvent acheter des forfaits d'utilisation à prix réduit ou se tourner vers des alternatives incluant xAI, Perplexity ou DeepSeek. Anthropic propose son propre outil, Claude Cowork, pour des tâches de flux de travail similaires.

Articles connexes

Illustration of Claude AI controlling a Mac desktop, with open apps like Slack and Calendar, highlighting new research preview features.
Image générée par IA

L'IA Claude d'Anthropic obtient un contrôle total du bureau sous MacOS dans une préversion de recherche

Rapporté par l'IA Image générée par IA

S'appuyant sur sa fonctionnalité Cowork lancée en janvier, Anthropic a inauguré une préversion de recherche pour Claude Code et ses outils Cowork, permettant à l'IA Claude des abonnés Pro et Max de contrôler directement les ordinateurs Mac. Elle peut désormais pointer, cliquer, faire défiler et naviguer sur l'écran pour effectuer des tâches telles que l'ouverture de fichiers, l'utilisation de navigateurs, d'outils de développement et l'interaction avec des applications comme Google Calendar et Slack. Des mesures de protection répondent aux risques de sécurité, dans un contexte de concurrence avec des outils comme OpenClaw.

Anthropic a mis à niveau le plan gratuit de son chatbot IA Claude en ajoutant des fonctionnalités auparavant payantes, le positionnant comme une alternative sans publicité à ChatGPT d'OpenAI. Les améliorations incluent la création de fichiers, des connecteurs vers des services tiers et des compétences personnalisées, alors qu'OpenAI prévoit d'introduire des publicités dans son niveau gratuit. Ce mouvement fait suite aux publicités d'Anthropic au Super Bowl critiquant la stratégie publicitaire.

Rapporté par l'IA

Anthropic double temporairement les limites d'utilisation de son chatbot IA Claude pendant les heures creuses du 13 au 27 mars. Cette promotion s'applique aux utilisateurs des plans Free, Pro, Max et Team, à l'exclusion des plans Enterprise. Elle s'active automatiquement sur le web, le bureau, mobile et les applications intégrées.

L'outil d'IA Claude Cowork d'Anthropic a provoqué une forte baisse des actions d'Infosys, TCS et d'autres entreprises SaaS. Ces firmes ont perdu des centaines de milliards de dollars de valeur boursière. Le déclencheur est l'essor de l'IA.

Rapporté par l'IA

Anthropic a confirmé la fuite de plus de 512 000 lignes de code source de son outil Claude Code. Cette divulgation révèle des fonctionnalités désactivées suggérant des développements futurs, notamment un agent persistant en arrière-plan appelé Kairos. Les observateurs ayant examiné le code ont également trouvé des références à des modes furtifs et à un assistant virtuel nommé Buddy.

La société de droits musicaux BMG a intenté une action en justice contre la société d'intelligence artificielle Anthropic, alléguant l'utilisation non autorisée de paroles de chansons pour former son chatbot Claude. La plainte affirme que l'infraction remonte à la création d'Anthropic et concerne des œuvres d'artistes tels que Justin Bieber et Bruno Mars. BMG demande des dommages et intérêts pouvant aller jusqu'à 150 000 dollars par œuvre violée.

Rapporté par l'IA Vérifié par des faits

Le Pentagone a formellement notifié à la société d’IA Anthropic qu’elle est considérée comme un « risque pour la chaîne d’approvisionnement », une désignation rare que les critiques estiment généralement viser les technologies liées à des adversaires. Cette mesure fait suite à une rupture des négociations sur la question de savoir si l’armée américaine peut utiliser les modèles Claude d’Anthropic à toutes les fins légales, contre les limites contractuelles que l’entreprise juge nécessaires pour empêcher les armes pleinement autonomes et la surveillance domestique de masse.

 

 

 

Ce site utilise des cookies

Nous utilisons des cookies pour l'analyse afin d'améliorer notre site. Lisez notre politique de confidentialité pour plus d'informations.
Refuser