Anthropic lanserar forskningsinstitut och DC-kontor för offentlig politik under regeringsstämning

Anthropic har lanserat Anthropic Institute, ett nytt forskningsinitiativ, och öppnat sitt första kontor för offentlig politik i Washington, DC, i år. Dessa steg följer AI-företagets senaste federala stämning mot USA:s regering gällande försvarsdepartementets klassificering av leveranskedjerisk kopplad till en tvist om kontrakt.

Bygger på sin stämning den 9 mars, där man utmanar USA:s försvarsdepartementets märkning av leveranskedjerisk – som härrör från Anthropics vägran att häva säkerhetsåtgärder på sin Claude AI för militär användning – meddelade företaget utvidgningar inom politik och forskning. Anthropic tredubblar storleken på sitt team för offentlig politik och etablerar sitt första DC-kontor i vår, enligt Axios. Sarah Heck, ny chef för externa relationer, kommer att leda politikinsatserna och efterträder medgrundaren Jack Clark, som övergår till chef för samhällsnytta med ansvar för Anthropic Institute. Institutet kommer att konsolidera och utöka befintliga grupper: Frontier Red Team (stress-testning av AI), Societal Impacts team (verkliga tillämpningar) och Economic Research team (effekter på jobb/ekonomi). Det syftar till att dela insikter om AI:ns utmaningar, inklusive ekonomisk omstrukturering och nya risker. Grundande medlemmar inkluderar Matt Botvinick (tidigare Google DeepMind) och Zoë Hitzig (tidigare OpenAI). I en relaterad domstolsförhandling sökte Anthropic försäkringar mot ytterligare straff från Trump-administrationen, som vägrade. Källor indikerar en möjlig ny exekutiv order från Vita huset riktad mot företaget.

Relaterade artiklar

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Bild genererad av AI

Anthropic stämmer USA:s försvarsdepartement för leveranskedjeriskklassning

Rapporterad av AI Bild genererad av AI

Anthropic har väckt en federal stämning mot USA:s försvarsdepartement och utmanar dess senaste klassning av AI-företaget som en leveranskedjerisk. Tvisten härrör från en avtalsdispyten kring användningen av Anthropics Claude AI för militära syften, inklusive restriktioner mot massövervakning och autonoma vapen. Företaget hävdar att klassningen kränker yttrandefrihet och rätten till tillbörlig rättsprocess.

Efter förra veckans federala förbud mot dess AI-verktyg har Anthropic återupptagit förhandlingar med USA:s försvarsdepartement för att undvika en beteckning som leveranskedjerisk. Samtidigt utsätts OpenAI:s parallella militäravtal för kritik från anställda, konkurrenter och Anthropic-vd:n Dario Amodei, som anklagade det för vilseledande påståenden i ett läckt memo.

Rapporterad av AI Faktagranskad

Pentagon har formellt meddelat AI-företaget Anthropic att det betraktas som en ”supply chain risk”, en sällsynt beteckning som kritiker säger vanligtvis riktas mot teknik kopplad till motståndare. Beslutet följer på ett misslyckande i förhandlingar om huruvida USA:s militär kan använda Anthropics Claude-modeller för alla lagliga syften, mot företagets kontraktmässiga begränsningar som sägs vara nödvändiga för att förhindra fullt autonoma vapen och massövervakning inom landet.

Globala investerare ifrågasätter avkastningen på de massiva techutgifterna inom artificiell intelligens. Christopher Wood från Jefferies pekar ut Anthropic som en utstickare i det växande AI-landskapet. AI-boomen har lyft USA-aktier, men oro växer kring dess hållbarhet.

Rapporterad av AI

Anthropics senaste uppdatering av sin CoWork-plattform har lett till betydande marknadsmässiga reaktioner i mjukvaruindustrin. USA:s mjukvarusektor utsattes för en omfattande säljoffensiv och förlorade över 1 biljon dollar i värde, enligt Fortune. Denna utveckling belyser osäkerheten bland investerare kring AI-native arbetsflöden och deras inverkan på SaaS-aktier.

Anthropics Claude AI-app har nått förstaplatsen på Apples App Store gratisappar-lista och passerat ChatGPT och Gemini, driven av folkligt stöd efter president Trumps federala förbud mot verktyget på grund av Anthropics vägran kring AI-säkerhet.

Rapporterad av AI

Anthropic's Claude Cowork AI tool has caused a sharp decline in stocks of Infosys, TCS, and other SaaS companies. These firms lost hundreds of billions of dollars in market value. The trigger is the rise of AI.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj