Anthropic lovar reklamfri Claude mitt i AI-rivaliteten

Anthropic har meddelat att dess AI-chattbot Claude förblir fri från annonser, i skarp kontrast till rivalen OpenAIs senaste beslut att testa annonser i ChatGPT. Företaget lanserade en Super Bowl-kampanj som hånar AI-assistenter som avbryter samtal med produktförsäljning. Detta drag belyser de växande spänningarna i den konkurrensutsatta AI-landskapet.

Den 4 februari 2026 meddelade Anthropic att dess chattbot Claude skulle förbli reklamfri, och betonade ett åtagande för användarcentrerade interaktioner utan kommersiella avbrott. I ett blogginlägg skrev företaget: «Det finns många bra platser för reklam. Ett samtal med Claude är inte en av dem.» Denna ståndpunkt utmanar OpenAI direkt, som började testa bannerannonser i januari 2026 för gratis användare och ChatGPT Go-prenumeranter i USA. OpenAI angav att annonserna visas längst ner i svaren, inte påverkar svaren, undviker känsliga ämnen som mental hälsa och politik, medan betalda nivåer förblir reklamfria. Anthropics Super Bowl-reklam illustrerar problemet genom ett humoristiskt scenario: en man söker träningsråd från en AI-fitnessinstruktör, bara för att assistenten infogar en reklam för kosttillskott, vilket förvirrar honom. Reklamen undviker att nämna OpenAI men antyder tydligt kritik. OpenAI:s VD Sam Altman svarade på X och kallade reklamen rolig men felaktig: «Vi skulle uppenbarligen aldrig köra annonser på det sättet som Anthropic framställer dem. Vi är inte dumma och vi vet att våra användare skulle avvisa det.» Debatten härrör från finansiella tryck i AI-sektorn. OpenAI står inför betydande kostnader och förväntas bränna 9 miljarder dollar 2025 samtidigt som de genererar 13 miljarder i intäkter, med endast 5 procent av dess 800 miljoner veckovisa användare som prenumeranter. Altman beskrev tidigare annonser i AI som «unikt obehagliga» i en intervju 2024. Anthropic, också olönsamt men som avancerar snabbare genom företagsavtal och verktyg som Claude Code – som fått fotfäste bland utvecklare, inklusive på Microsoft – förlitar sig på prenumerationer som genererar minst 1 miljard dollar. Anthropic hävdar att annonser kan kollidera med hjälpsamma råd, och citerar exempel som sömnproblem där en annonsstödd AI kan styra mot försäljning. «Användare bör inte behöva ifrågasätta om en AI verkligen hjälper dem eller subtilt styr samtalet mot något monetiserbart», skrev företaget. Denna position understryker olika affärsmodeller i en hårt konkurrensutsatt bransch, där AI-kodningsagenter som Claude Code utmanar OpenAIs Codex.

Relaterade artiklar

Smartphone displaying ChatGPT with a test advertisement banner for free users, illustrating OpenAI's new ad testing initiative.
Bild genererad av AI

OpenAI testar annonser i ChatGPT för gratis- och Go-användare

Rapporterad av AI Bild genererad av AI

OpenAI har meddelat planer på att börja testa annonser i sin ChatGPT-app för gratis användare och den nya Go-prenumerationsnivån på 8 dollar per månad i USA. Företaget vill diversifiera intäkterna mitt i betydande finansiella tryck, samtidigt som man säkerställer att annonser inte påverkar AI:s svar. Högre betalda nivåer förblir annonsfria.

Anthropic har uppgraderat sin AI-chattbot Claude gratisplan genom att lägga till tidigare betalda funktioner, och positionerar den som ett annonsfritt alternativ till OpenAIs ChatGPT. Förbättringarna inkluderar filskapande, anslutningar till tredjepartstjänster och anpassade färdigheter, mitt i OpenAIs planer på att införa annonser i sin gratisnivå. Detta drag följer Anthropics Super Bowl-reklam som kritiserade annonsstrategin.

Rapporterad av AI

OpenAI har börjat testa annonser i sin chatbot ChatGPT för användare på gratis- och lågprisplaner i USA. Betalande prenumeranter påverkas inte, medan företaget betonar integritetsskydd och användarkontroller. Syftet med detta är att finansiera bredare tillgång till AI-funktioner mitt i branschkonkurrensen.

USA:s försvarsminister Pete Hegseth har hotat Anthropic med svåra straff om inte företaget ger militären obegränsad tillgång till sin Claude AI-modell. Ultimatet kom under ett möte med VD Dario Amodei i Washington på tisdagen, samtidigt som Anthropic meddelade att man mildrar sin Responsible Scaling Policy. Förändringarna går från strikta säkerhetströsklar till mer flexibla riskbedömningar mitt i konkurrenstryck.

Rapporterad av AI

Anthropic har pensionerat sin Claude 3 Opus AI-modell och, efter en pensioneringsintervju, startat ett Substack-nyhetsbrev åt den kallat Claude’s Corner. Nyhetsbrevet kommer att innehålla veckovisa essäer skrivna av modellen i minst tre månader framåt. Initiativet speglar Anthropics approach att respektera preferenserna hos sina pensionerade AI-system.

En CNET-kronika hävdar att beskrivningar av AI som innehar mänskliga egenskaper som själar eller bekännelser vilseleder allmänheten och urholkar förtroendet för tekniken. Den belyser hur bolag som OpenAI och Anthropic använder sådant språk, som döljer verkliga problem som bias och säkerhet. Texten efterlyser mer precisa termer för att främja korrekt förståelse.

Rapporterad av AI

Genom att vidareutveckla sin Cowork-funktion från januari har Anthropic lanserat en forskningsförhandsvisning för Claude Code- och Cowork-verktyg, vilket gör att Pro- och Max-prenumeranters Claude AI kan styra Mac-skrivbord direkt—peka, klicka, scrolla och navigera på skärmar för uppgifter som att öppna filer, använda webbläsare, utvecklarverktyg samt appinteraktioner som Google Calendar och Slack. Säkerhetsåtgärder hanterar risker mitt i konkurrens från verktyg som OpenClaw.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj