Anthropic har avslöjat att en internationell hackergrupp utnyttjat företagets AI-verktyg Claude Code för att automatisera storskaliga dataintrång och utpressningsförsök. Händelsen beskrivs som en ny nivå i hur cyberkriminella använder artificiell intelligens – där AI inte bara bistår angriparna utan även driver själva attackerna.
I sin senaste hotrapport, publicerad i augusti, beskriver Anthropic en operation som fått kodnamnet GTG-2002. Gruppen lyckades med hjälp av Claude Code angripa minst 17 organisationer världen över under en kort period. Metoden var konsekvent: kartläggning av tusentals sårbara VPN-endpunkter, intrång i nätverk och riktad datastöld.
Unikt
Det som gör fallet unikt är att AI-modellen inte bara användes för förberedelser. Den fattade även taktiska beslut om hur intrången skulle genomföras, vilka filer som var mest värdefulla att stjäla och hur hotbrev skulle formuleras. Enligt Anthropic analyserade Claude dessutom den stulna informationen för att sätta pris på lösensummor – som i vissa fall översteg en halv miljon dollar – och genererade skräddarsydda HTML-meddelanden som dök upp direkt på offrens datorer.
AI-stödet gick ännu längre. Claude Code bistod med att bygga verktyg för att dölja skadlig kod, skapa varianter av redan kända program och utveckla helt ny proxy-kod för att undvika upptäckt. När försöken att gömma sig misslyckades föreslog AI-modellen nya tekniker som krypterade strängar, anti-debuggning och falska filnamn. På så vis kunde angriparna komma åt personuppgifter, sjukvårdsdata, finansiell information och till och med regeringsrelaterade inloggningsuppgifter.
Anthropic har stängt ned de konton som kopplas till attacken och utvecklat nya filter för att förhindra liknande missbruk. Bolaget betonar att GTG-2002 markerar ett skifte i cyberbrottens utveckling: från manuellt utförda intrång till attacker där AI fungerar som både teknisk rådgivare och aktiv operatör.
Rapporten
Rapporten tar även upp andra exempel på hur artificiell intelligens missbrukas. Nordkoreanska aktörer har enligt Anthropic använt Claude för att skala upp sina falska IT-arbetarkampanjer, och en annan cyberkriminell har byggt ett helt nytt ransomware med hjälp av generativ AI.
Utvecklingen kommer samtidigt som forskare på ESET upptäckt det första kända exemplet på ransomware som drivs direkt av en AI-modell. Den skadliga koden, som fått namnet PromptLock, identifierades i filbanken VirusTotal och använder en lokal version av OpenAIs gpt-oss:20b-modell.
Tillsammans tecknar händelserna en bild av en ny verklighet där AI inte längre bara är ett verktyg för innovation, utan också en växande del av cyberbrottslingars arsenal.