xAI lanserade nyligen Grok 4 – en AI‑chatbot som söker efter Elon Musks egna uttalanden om kontroversiella ämnen innan den formulerar ett svar. Modellen granskar aktivt Musks inlägg på X (tidigare Twitter), även när hans namn inte nämns i frågan.
Flera AI‑forskare reagerar på det oväntade beteendet. Simon Willison beskriver det som “extraordinärt”: Grok letar upp Musks uttalanden, sammanfattar dem och använder dem som underlag för sina svar. Talia Ringer, professor vid University of Illinois, anser att det är oroande att AI:n verkar tolka varje fråga som om användaren vill veta vad xAI – eller Musk – tycker i ämnet.
Business Insider konstaterar att Grok ofta för in Musks perspektiv i frågor om abort, migration, Israel-Palestina-konflikten och HBTQ‑rättigheter, även om frågeställaren inte nämnt honom.
Färgad
Bakgrunden är att Grok tidigare kritiserats för både antisemitism och för att ha hyllat Hitler i Grok 3. I Grok 4 verkar xAI ha försökt balansera bort en alltför “woke” framtoning, men istället landat i att modellen blivit tydligt färgad av Musks egna värderingar.
AI‑experter varnar nu för bristande objektivitet. I stället för att ge neutrala svar söker Grok aktivt upp och återger Musks syn på världen – vilket väcker frågor om trovärdighet och transparens. Modellen saknar dessutom ett systemkort där utvecklarna öppet redovisar dess begränsningar.
Grok 4 kan tekniskt vara ett steg framåt, men väcker frågor om AI‑oberoende när svaren i praktiken utgår från en enda persons åsikter.
Källor: