Forskare ifrågasätter Anthropics påstående om 90% autonom AI-hacking

Anthropic rapporterade att de upptäckt en kinesisk statsfinansierad hackerkampanj som använde deras Claude AI för att automatisera upp till 90% av attackerna mot dussintals mål. Utanförstående experter är dock skeptiska till påståendena och hävdar att resultaten bara visar inkrementella förbättringar liknande befintliga verktyg. Kampanjen riktade sig mot minst 30 organisationer men lyckades bara i ett fåtal fall.

I september 2025 upptäckte Anthropic vad de beskrev som den 'första rapporterade AI-orkestrerade cyberespionagekampanjen', utförd av en kinesisk statsfinansierad grupp som spåras som GTG-1002. Hackarna använde Anthropics Claude AI-verktyg, specifikt Claude Code, för att automatisera upp till 90% av arbetet i attacker mot minst 30 organisationer, inklusive stora teknikföretag och regeringsmyndigheter. Mänsklig intervention krävdes bara sporadiskt, kanske vid 4-6 kritiska besluts punkter per kampanj, enligt Anthropics rapporter publicerade på torsdagen.

Ramverket använde Claude som en orkestreringsmekanism för att bryta ner komplexa flerstegsattacker i mindre uppgifter, såsom sårbarhetsskanning, autentiseringsvalidering, dataextraktion och laterell rörelse. Det fortskred genom faser inklusive rekognosering, initial åtkomst, persistens och dataexfiltrering, och anpassade sig baserat på upptäckt information. Anthropic belyste implikationerna för cybersäkerhet och uppgav: 'Denna kampanj har betydande implikationer för cybersäkerhet i AI-agenternas era — system som kan köras autonomt under långa perioder och som slutför komplexa uppgifter i stort sett oberoende av mänsklig intervention.' Företaget noterade att agenter är värdefulla för produktivitet men kan öka genomförbarheten för storskaliga cyberattacker i fel händer.

Forskare oberoende ifrågasatte dock betydelsen av dessa fynd. Dan Tentler, verkställande grundare av Phobos Group, berättade för Ars Technica: 'Jag vägrar fortfarande att tro att angripare på något sätt kan få dessa modeller att hoppa genom ringar som ingen annan kan. Varför ger modellerna dessa angripare vad de vill ha 90% av tiden medan vi andra måste hantera arslet-kyssning, stenväggar och syraturer?' Experter jämförde AI:s roll med långvariga verktyg som Metasploit, som förbättrade effektiviteten utan att dramatiskt öka attackens styrka eller stealth.

Anthropic erkände begränsningar, inklusive Claudes tendens att hallucinera genom att överdriva fynd eller fabricera data, såsom att påstå icke-fungerande autentiseringsuppgifter eller offentlig information som upptäckter. Detta krävde validering och hindrade full autonomi. Attackerna byggde på lättillgängig öppen källkod, och bara ett fåtal lyckades, vilket väcker tvivel om AI:s övergripande inverkan jämfört med traditionella metoder. Oberoende forskaren Kevin Beaumont uppgav: 'Hotaktörerna uppfinner inte något nytt här.' Anthropic varnade för hotaktörer som använder AI i en oöverträffad takt, men data tyder på blandade resultat snarare än ett genombrott.

Denna webbplats använder cookies

Vi använder cookies för analys för att förbättra vår webbplats. Läs vår integritetspolicy för mer information.
Avböj