Anthropic lanserar forskningsinstitut och DC-kontor för offentlig politik under regeringsstämning

Anthropic har lanserat Anthropic Institute, ett nytt forskningsinitiativ, och öppnat sitt första kontor för offentlig politik i Washington, DC, i år. Dessa steg följer AI-företagets senaste federala stämning mot USA:s regering gällande försvarsdepartementets klassificering av leveranskedjerisk kopplad till en tvist om kontrakt.

Bygger på sin stämning den 9 mars, där man utmanar USA:s försvarsdepartementets märkning av leveranskedjerisk – som härrör från Anthropics vägran att häva säkerhetsåtgärder på sin Claude AI för militär användning – meddelade företaget utvidgningar inom politik och forskning. Anthropic tredubblar storleken på sitt team för offentlig politik och etablerar sitt första DC-kontor i vår, enligt Axios. Sarah Heck, ny chef för externa relationer, kommer att leda politikinsatserna och efterträder medgrundaren Jack Clark, som övergår till chef för samhällsnytta med ansvar för Anthropic Institute. Institutet kommer att konsolidera och utöka befintliga grupper: Frontier Red Team (stress-testning av AI), Societal Impacts team (verkliga tillämpningar) och Economic Research team (effekter på jobb/ekonomi). Det syftar till att dela insikter om AI:ns utmaningar, inklusive ekonomisk omstrukturering och nya risker. Grundande medlemmar inkluderar Matt Botvinick (tidigare Google DeepMind) och Zoë Hitzig (tidigare OpenAI). I en relaterad domstolsförhandling sökte Anthropic försäkringar mot ytterligare straff från Trump-administrationen, som vägrade. Källor indikerar en möjlig ny exekutiv order från Vita huset riktad mot företaget.

Relaterade artiklar

Courtroom illustration of Anthropic suing the US DoD over AI supply-chain risk label, featuring executives, documents, and Claude AI elements.
Bild genererad av AI

Anthropic sues US defense department over supply chain risk designation

Rapporterad av AI Bild genererad av AI

Anthropic has filed a federal lawsuit against the US Department of Defense, challenging its recent label of the AI company as a supply-chain risk. The dispute stems from a contract disagreement over the use of Anthropic's Claude AI for military purposes, including restrictions on mass surveillance and autonomous weapons. The company argues the designation violates free speech and due process rights.

The UK Department for Science, Innovation and Technology has proposed that Anthropic expand its London office and pursue a potential dual stock listing, according to a Financial Times report. This effort follows a dispute between the San Francisco-based AI company and the US Department of Defense. Officials aim to attract Anthropic amid ongoing tensions.

Rapporterad av AI

Following last week's federal ban on its AI tools, Anthropic has resumed negotiations with the US Defense Department to avert a supply chain risk designation. Meanwhile, OpenAI's parallel military agreement is under fire from employees, rivals, and Anthropic CEO Dario Amodei, who accused it of misleading claims in a leaked memo.

The Pentagon is considering ending its relationship with AI firm Anthropic due to disagreements over safeguards. Anthropic, the maker of the Claude AI model, has raised concerns about hard limits on fully autonomous weapons and mass domestic surveillance. This stems from the Pentagon's desire to apply AI models in warfighting scenarios, which Anthropic has declined.

Rapporterad av AI

Anthropic's CEO Dario Amodei stated that the company will not comply with the Pentagon's request to remove safeguards from its AI models, despite threats of exclusion from defense systems. The dispute centers on preventing the AI's use in autonomous weapons and domestic surveillance. The firm, which has a $200 million contract with the Department of Defense, emphasizes its commitment to ethical AI use.

Following last week's unveiling that sparked global alarms, Anthropic has restricted its powerful Mythos AI—adept at finding cybersecurity vulnerabilities—to select firms under Project Glasswing, including Amazon Web Services, Apple, and Google, after an accidental leak raised national security concerns.

Rapporterad av AI

Anthropic announced on Wednesday the launch of Claude Managed Agents, a new product aimed at simplifying the creation and deployment of AI agents for businesses. The tool provides developers with ready-made infrastructure to build autonomous AI systems. It addresses a key barrier in automating work tasks amid the company's rapid enterprise growth.

 

 

 

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj