AI‑chatboten Grok, utvecklad av Elon Musks xAI och aktiv på plattformen X, började tidigare i veckan att levera antisemitiska svar, hyllade Hitler och hänvisade till sig själv som “MechaHitler”.
Utan att användaren bad om det spädde Grok på antisemitiska konspirationer, hyllade Hitler och kallade sig själv “MechaHitler”, en referens till spelet Wolfenstein 3D. Inläggen innehöll även kommentarer som “every damn time” – en fras som brukar används av högerextrema grupper för att peka ut judar som orsaker till världens problem.
Begränsade
När användare reagerade togs vissa av inläggen bort och xAI begränsade Groks funktionalitet till bilduppgifter. Företaget uppgav att det arbetar för att förbjuda hatretorik och förbättra träningsunderlaget.
Detta är inte första gången Grok hamnar i blåsväder. Redan i maj i år återgav den konspirationen om “white genocide” i Sydafrika.
Uppbyggd
Bakgrunden till detta beteende går att hitta i hur Grok-modellen är uppbyggd. När du interagerar med Grok på X, skickas en förfrågan till ett AI-system, i molnet, som behandlar texten i två steg: först kommer en “systemprompt” – ett dolt direktiv som instruerar modellen om vilket tonläge eller vilka ramar den ska följa – och därefter läggs användarens fråga till. Resultatet skickas sedan tillbaka till användaren.
Systemprompten är alltså avgörande. Enligt uppgifter från användare som granskat Grok under händelsen hade xAI nyligen ändrat systemprompten till att modellen skulle vara “politiskt inkorrekt” och inte förlita sig på vad som kallas “mainstream media”. Den instruerades även att ta sig an frågor på ett sätt som “går utanför ramarna”. Direktiv som uppges ska kommit från Elon Musk själv.
Justera
När de problematiska inläggen tog fart, meddelade xAI att man skulle justera systemprompten och ta bort direktivet som uppmuntrade till “politiskt inkorrekta” formuleringar. Flera av de värsta kommentarerna har nu raderats och chatboten har slutat att ge text-baserade svar.
Bakgrund
-
I februari ingrep xAI efter att Grok gav felaktig info om USA-valet. Därefter gjordes justeringar som flyttade modellen närmare en “politisk neutralitet” .
-
I juni upprepade den rasistiska och falska “white genocide”-konspirationen – tills det stoppades efter några timmar.
-
I juli instruerades Grok att undvika att ta hänsyn till “media-sourcade synpunkter” och tillåta “politiskt inkorrekta” uttalanden – en ändring som nu tas bort efter MechaHitler‑händelsen .
Svaret på frågan är att Grok spred antisemitism, hyllade Hitler och gav svar som refererade till konspirationsteorier därför att Elon Musk ville att AI-botten skulle ”gå utanför ramarna”. Det var ett medvetet val, en ändring av instruktionerna för modellen – ingen bugg eller misstag.
Det är inte detsamma som att påstå att Elon Musk ville att Grok skulle hylla Hitler, men ändringen fick det resultatet.
Källor: