Anthropic begränsar kostnadsfri tillgång till Claude via tredjepartsverktyg

Anthropic har avslutat den kostnadsfria tillgången till sin AI Claude för användare av tredjepartsapplikationer som OpenClaw. Från och med kl. 15.00 ET den 4 april måste dessa användare köpa ett användningspaket eller skaffa en API-nyckel för Claude. Förändringen är en åtgärd för att hantera tekniska begränsningar till följd av ökad efterfrågan.

Boris Cherny, chef för Claude Code på Anthropic, tillkännagav policyändringen på X. Han uppgav att Claude-abonnemang inte längre stöder kostnadsfri användning genom tredjepartsverktyg. Användare av appar som OpenClaw, en AI-assistent med öppen källkod för automatisering av uppgifter som e-post- och kalenderhantering, står nu inför nya krav för att kunna fortsätta använda Claude som språkmodellens backend vid sidan av alternativ som ChatGPT eller Google Gemini. Cherny förklarade att beslutet grundar sig i kapacitetshantering. "Vi har arbetat hårt för att möta den ökade efterfrågan på Claude, och våra abonnemang var inte utformade för de användningsmönster som dessa tredjepartsverktyg har", skrev han. "Kapacitet är en resurs som vi hanterar med eftertanke, och vi prioriterar de kunder som använder våra produkter och vårt API." Berörda användare kan köpa rabatterade användningspaket eller byta till alternativ som xAI, Perplexity eller DeepSeek. Anthropic erbjuder sitt eget verktyg, Claude Cowork, för liknande arbetsflödesuppgifter.

Relaterade artiklar

Illustration of Claude AI controlling a Mac desktop, with open apps like Slack and Calendar, highlighting new research preview features.
Bild genererad av AI

Anthropic Claude AI får full kontroll över MacOS-skrivbordet i forskningsförhandsvisning

Rapporterad av AI Bild genererad av AI

Genom att vidareutveckla sin Cowork-funktion från januari har Anthropic lanserat en forskningsförhandsvisning för Claude Code- och Cowork-verktyg, vilket gör att Pro- och Max-prenumeranters Claude AI kan styra Mac-skrivbord direkt—peka, klicka, scrolla och navigera på skärmar för uppgifter som att öppna filer, använda webbläsare, utvecklarverktyg samt appinteraktioner som Google Calendar och Slack. Säkerhetsåtgärder hanterar risker mitt i konkurrens från verktyg som OpenClaw.

Anthropic har uppgraderat sin AI-chattbot Claude gratisplan genom att lägga till tidigare betalda funktioner, och positionerar den som ett annonsfritt alternativ till OpenAIs ChatGPT. Förbättringarna inkluderar filskapande, anslutningar till tredjepartstjänster och anpassade färdigheter, mitt i OpenAIs planer på att införa annonser i sin gratisnivå. Detta drag följer Anthropics Super Bowl-reklam som kritiserade annonsstrategin.

Rapporterad av AI

Anthropic dubblar tillfälligt användningsgränserna för sin Claude AI-chattbot under icke-topptimmar från 13 mars till 27 mars. Kampanjen gäller användare på Free, Pro, Max och Team-planer, exklusive Enterprise-planer. Den aktiveras automatiskt på web, desktop, mobil och integrerade appar.

Anthropic's Claude Cowork AI tool has caused a sharp decline in stocks of Infosys, TCS, and other SaaS companies. These firms lost hundreds of billions of dollars in market value. The trigger is the rise of AI.

Rapporterad av AI

Anthropic har bekräftat att över 512 000 rader källkod för verktyget Claude Code har läckt ut. Avslöjandet visar inaktiverade funktioner som ger ledtrådar om framtida utveckling, däribland en persistent bakgrundsagent vid namn Kairos. Observatörer som granskat koden har även hittat referenser till hemliga lägen och en virtuell assistent vid namn Buddy.

Musikrättighetsbolaget BMG har lämnat in en stämningsansökan mot AI-företaget Anthropic, som hävdar obehörig användning av låttexter för att träna sin Claude-chatbot. Klagomålet hävdar att överträdelsen går tillbaka till Anthropics grundande och involverar verk av artister inklusive Justin Bieber och Bruno Mars. BMG yrkar på skadestånd på upp till 150 000 USD per intrångsgörande verk.

Rapporterad av AI Faktagranskad

Pentagon har formellt meddelat AI-företaget Anthropic att det betraktas som en ”supply chain risk”, en sällsynt beteckning som kritiker säger vanligtvis riktas mot teknik kopplad till motståndare. Beslutet följer på ett misslyckande i förhandlingar om huruvida USA:s militär kan använda Anthropics Claude-modeller för alla lagliga syften, mot företagets kontraktmässiga begränsningar som sägs vara nödvändiga för att förhindra fullt autonoma vapen och massövervakning inom landet.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj