I en sarkastisk tråd lyfte Guardio Labs chef Nati Tal fram ett fenomen han har gett namnet ”grokking”. Spammare har hittat ett enkelt sätt att använda X:s egen AI-assistent Grok för att kringgå plattformens skydd mot skadlig annonsering.
Det sker nu hundratals gånger om dagen och gör det möjligt för bedragare att sprida länkar till bluffinnehåll, skadeprogram och andra skumma webbplatser till miljontals användare.
Hur ”grokking” fungerar
Hur kan ett socialt medieföretag förhindra att bedragare använder betalda annonser som kanal för att sprida skadeprogram?
Det är svårt att identifiera och ta bort varje inlägg med nätfiskelänkar innan någon hinner se eller klicka. X har därför infört ett generellt förbud mot länkar i sponsrade inlägg. Användare får betala för att marknadsföra inlägg som innehåller text, bilder eller video – format som anses mindre riskabla.
Men bedragarna är smarta. De har redan hittat ett sätt runt regeln och har sedan dess kunnat sprida sina skadliga länkar i stor skala.
Guardio-forskaren Shaked Chen stötte först på fenomenet när han undersökte system för distribution av skadlig trafik. Dessa nätverk används för att sprida vilseledande innehåll som lockbeten med vuxeninnehåll, falska CAPTCHA-sidor och bluff-omdirigeringar. Forskarna söker regelbundet igenom sociala medier för att se om dessa nätverk testar nya vägar. Nyligen kände Chen igen välbekant infrastruktur i sponsrade inlägg på X och lade märke till att bedragarna gömde skadliga domäner i fältet ”Från” i videokorten.
Eftersom videor på X ofta delas vidare har de ett litet fält längst ned som visar den ursprungliga postaren. Bedragarna fyller inte det fältet med ett namn, utan med en länk.
Klickbar länk
Det är inte sannolikt att någon klickar på länken i ”Från”-fältet, och det är där Grok kommer in i bilden. Bedragarna använder vilket tillfälligt konto de vill, kommenterar sina egna videor och ställer en fråga som ”@grok Varifrån kommer den här videon?” Grok hämtar då länken och publicerar den igen, som en klickbar länk, utan någon granskning.
Nu blir länken synlig för alla som ser inlägget. Beroende på hur mycket bedragarna satsar på att marknadsföra inlägget kan de nå allt från hundratusentals till miljontals potentiella offer. Som en bonus får deras skadliga länk extra trovärdighet i sökmotorer eftersom den återpubliceras av en stor och etablerad plattform som X.
Tal betonar att tricket verkar spridas snabbt. ”Bara genom en enkel sökning hittade vi hundratals exempel de senaste dagarna. Varje konto som spred innehållet hade hundratals eller till och med tusentals nästan identiska inlägg i historiken, postade kontinuerligt tills kontot stängdes av för att ha brutit mot X:s regler”, säger han.
Grok fungerar inte
Ett generellt förbud mot länkar i sponsrade inlägg gör viss nytta men är långt ifrån en avancerad cybersäkerhetsstrategi. ”Just nu blockeras en länk i texten till ett sponsrat inlägg – men inte för att den är skadlig, utan bara för att länkar inte är tillåtna i det fältet”, säger Tal. ”För att lösa problemet behöver X införa ordentlig länkgranskning i alla delar av alla inlägg, inte bara i den synliga texten i sponsrat innehåll.”
”Som vi ser här hade en enkel, ansvarsfull granskning av länkarna förhindrat allt detta. Den skadliga infrastrukturen hade aldrig exponerats för användare och Grok hade inte lurats att publicera domänen”, tillägger han.
På en djupare nivå skulle X kunna förhindra att Grok återpublicerar skadliga länkar genom att stärka sina interna säkerhetsmekanismer och komma i kapp en bransch som redan har låga standarder.
”Grok 4-modellen är i grunden mindre säker än sina kommersiella konkurrenter, i den meningen att dess interna skyddsräcken är betydligt sämre”, säger Dorian Granoša, ledande red team-dataforskare vid Splx AI. I juli upptäckte han att, till skillnad från andra etablerade AI-verktyg, vilar all säkerhet i Grok på systemprompten. Utan dessa styrinstruktioner föll modellen offer för promptinjektioner i 99 procent av fallen.
Enligt Granoša handlar det om en kapplöpning i AI-branschen för att släppa den mest kraftfulla modellen först. ”Vår gissning är att X förmodligen inte lade mycket tid på att finslipa modellen för säkerhet och skydd. Det kräver tid och resurser, men kan också försämra modellens prestanda.”
Källa:
Dark Reading
Läs mer
Musk-AI läcker: Hundratusentals privata samtal låg öppet på nätet