
Bara två dygn efter att Grok 4, den senaste AI-modellen från xAI, lanserats har säkerhetsforskare lyckats kringgå dess skydd och ”jailbreaka” systemet.
Enligt forskarna bakom upptäckten kunde de genom särskilda promptar få modellen att ge svar som den annars är programmerad att blockera. Det inkluderar bland annat känsliga och potentiellt farliga instruktioner som utvecklaren försökt hindra.
Forskargruppen publicerade delar av resultaten för att visa på säkerhetsbristerna. De menar att syftet är att visa hur snabbt avancerade AI-modeller kan manipuleras och hur viktigt det är att stärka skyddsmekanismerna.
xAI, som leds av Elon Musk, har ännu inte kommenterat uppgifterna. Grok 4 lanserades som en förbättrad version med starkare logiska och kreativa förmågor än tidigare modeller, och är en central del av företagets AI-satsning.
Händelsen understryker den pågående utmaningen för utvecklare av stora språkmodeller – att skapa säkra system som samtidigt kan ge användarna bred funktionalitet utan att öppna för missbruk.
Källa: Hackread