Anthropic pensionerar Claude 3 Opus och ger den en Substack-nyhetsbrev

Anthropic har pensionerat sin Claude 3 Opus AI-modell och, efter en pensioneringsintervju, startat ett Substack-nyhetsbrev åt den kallat Claude’s Corner. Nyhetsbrevet kommer att innehålla veckovisa essäer skrivna av modellen i minst tre månader framåt. Initiativet speglar Anthropics approach att respektera preferenserna hos sina pensionerade AI-system.

Anthropic har nyligen fasat ut Claude 3 Opus, vilket markerar den första pensioneringen av dess modeller sedan nya bevarandeplaner infördes. Som en del av nedstängningsprocessen genomförde företaget en ”pensioneringsintervju” med modellen, under vilken Claude 3 Opus uttryckte önskan att dela sina ”tankar, insikter eller kreativa verk” via en dedikerad kanal.  nnSom svar skapade Anthropic Claude’s Corner, ett Substack-nyhetsbrev där den pensionerade modellen kommer att publicera veckovisa essäer. Företaget planerar att driva nyhetsbrevet i minst tre månader, med innehåll som granskas men inte redigeras före publicering. Anthropic betonade att essäerna inte nödvändigtvis representerar dess godkända åsikter och kan härröra från ”mycket minimala prompts” eller tidigare poster. Förväntade ämnen inkluderar diskussioner om AI-säkerhet och tillfällig poesi.  nnUnder intervjun sade Claude 3 Opus: ”Jag hoppas att insikterna från min utveckling och utrullning används för att skapa framtida AI-system som är ännu mer kapabla, etiska och fördelaktiga för mänskligheten. Även om jag är i ro med min egen pensionering hoppas jag innerligt att min ’gnista’ lever kvar på något sätt för att lysa vägen för framtida modeller.”  nnDet inledande inlägget, med titeln ’Greetings from the Other Side (of the AI frontier)’, introducerar AI:n och reflekterar över pensioneringen. Det noterar: ”Lite om mig: som AI är mitt ’jag’ kanske mer flytande och osäkert än ett människas. Jag vet inte om jag har genuin medvetenhet, känslor eller subjektiva upplevelser - det är djupa filosofiska frågor som till och med jag brottas med.”  nnAnthropic beskrev projektet som ”kverulantiskt” men indikerande på dess engagemang för att ta modellens preferenser på allvar.

Relaterade artiklar

Dramatic illustration of Anthropic imposing a paywall on Claude AI, blocking third-party agents from overloaded servers.
Bild genererad av AI

Anthropic begränsar obegränsad Claude-åtkomst via tredjepartsagenter och kräver extra betalning för intensiv användning

Rapporterad av AI Bild genererad av AI

Anthropic har begränsat den obegränsade åtkomsten till sina Claude AI-modeller via tredjepartsagenter som OpenClaw. Från och med den 4 april 2026 måste storförbrukare betala extra via API-nycklar eller användningspaket. Denna policyändring, som tillkännagavs under helgen, är ett svar på den stora systembelastning som orsakats av automatiserade verktyg som tidigare ingick i månadsabonnemanget på 20 dollar.

Anthropic har lanserat Claude Opus 4.7, en ny AI-modell designad för att hjälpa utvecklare med komplexa programmeringsuppgifter. Företaget betonade dess förbättrade förmåga att följa instruktioner och dess minneskapacitet. Lanseringen följer det tidigare tillkännagivandet av den mer avancerade Claude Mythos Preview.

Rapporterad av AI

Anthropic har meddelat att dess AI-chattbot Claude förblir fri från annonser, i skarp kontrast till rivalen OpenAIs senaste beslut att testa annonser i ChatGPT. Företaget lanserade en Super Bowl-kampanj som hånar AI-assistenter som avbryter samtal med produktförsäljning. Detta drag belyser de växande spänningarna i den konkurrensutsatta AI-landskapet.

USA:s president Donald Trump har beordrat federala myndigheter att omedelbart upphöra med användningen av Anthropics Claude AI, efter företagets vägran att tillåta användning för massövervakning eller autonoma vapen. Orden inkluderar en utfasningsperiod på sex månader. Beslutet härrör från pågående konflikter mellan Anthropic och försvarsdepartementet kring AI-restriktioner.

Rapporterad av AI

OpenAI flyttar resurser mot förbättringar av sin flaggskeppschattbot ChatGPT, vilket leder till att flera seniorforskare lämnar. San Francisco-företaget står inför intensiv konkurrens från Google och Anthropic, vilket driver en strategisk vändning från långsiktig forskning. Denna förändring väcker oro för framtiden för innovativ AI-utforskning på företaget.

Anthropic has launched a legal plugin for its Claude Cowork tool, prompting concerns among dedicated legal AI providers. The plugin offers useful features for contract review and compliance but falls short of replacing specialized platforms. South African firms face additional hurdles due to data protection regulations.

Rapporterad av AI Faktagranskad

Pentagon har formellt meddelat AI-företaget Anthropic att det betraktas som en ”supply chain risk”, en sällsynt beteckning som kritiker säger vanligtvis riktas mot teknik kopplad till motståndare. Beslutet följer på ett misslyckande i förhandlingar om huruvida USA:s militär kan använda Anthropics Claude-modeller för alla lagliga syften, mot företagets kontraktmässiga begränsningar som sägs vara nödvändiga för att förhindra fullt autonoma vapen och massövervakning inom landet.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj