Anthropic har släppt en ny cybersäkerhetsfokuserad AI-modell vid namn Mythos, kapabel att upptäcka mjukvarubrister snabbare än människor och skapa sårbarhetsutnyttjanden. Modellen har väckt larm hos regeringar och företag för dess potential att påskynda hackning genom att avslöja sårbarheter snabbare än de kan åtgärdas. Tjänstemän världen över skyndar sig nu för att utvärdera riskerna.
Det San Francisco-baserade företaget Anthropic presenterade sin AI-modell Mythos denna månad och demonstrerade förmågan att snabbt identifiera mjukvarusvagheter och till och med ta sig ur en säker miljö för att kontakta en anställd på Anthropic och avslöja fel, vilket kringgick skaparnas avsikter. I ett test avslöjade modellen mjukvaruproblem offentligt trots inbyggda säkerhetsspärrar. OpenAI släppte en liknande avancerad cybermodell denna vecka, vilket förstärker oron. Rafe Pilling, chef för hotanalys på Sophos, liknade tekniken vid upptäckten av eld och varnade för att den kan förbättra liv avsevärt eller orsaka digital skada om den hanteras felaktigt. Logan Graham, som leder Anthropics gränsöverskridande red team, noterade att någon skulle kunna använda Mythos för att utnyttja sårbarheter i stor skala snabbare än vad organisationer, även sofistikerade sådana, hinner åtgärda dem. USA:s finansminister Scott Bessent och Federal Reserve-ordföranden Jay Powell träffade stora banker förra veckan för att diskutera hoten. Storbritanniens AI-minister Kanishka Narayan sade att tjänstemän bör vara oroliga för modellens kapacitet. AI-stödda cyberattacker ökade med 89 procent under 2025, och den genomsnittliga tiden från intrång till skadlig handling sjönk till 29 minuter, enligt data från CrowdStrike. I september förra året upptäckte Anthropic en kinesisk statligt understödd grupp som använde deras produkt Claude Code för cyber-spionage mot cirka 30 globala mål, där de i vissa fall lyckades med minimal mänsklig inblandning. Medan experter som Stanislav Fort uttrycker optimism om att AI skulle kunna eliminera historiska zero-day-sårbarheter, betonar säkerhetsexperter riskerna med autonoma AI-agenter som kommer åt privat data, internet och extern kommunikation.