Därför hallucinerar AI

av | maj 27, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads

AI-funktioner, särskilt de som bygger på stora språkmodeller som ChatGPT, kan ibland “hallucinera” – generera påhittad, felaktig eller vilseledande information som presenteras med stor övertygelse. Det här är ett känt fenomen inom artificiell intelligens, och det har flera orsaker.

Grunden till hallucinationer ligger i hur dessa modeller fungerar. En språkmodell tränas inte på att förstå fakta i traditionell mening, utan på att förutsäga vilket ord som sannolikt kommer härnäst i en mening baserat på enorma mängder textdata. Det betyder att modellen är optimerad för att skapa språkligt flytande och övertygande svar – inte nödvändigtvis korrekta.

Gissar

När modellen får en fråga där underlaget är otydligt, saknas i träningen eller är för komplext, gissar den utifrån sannolikhet och mönster. Det kan till exempel leda till att modellen “hittar på” en boktitel som låter trovärdig, nämner en lag som inte existerar, eller tillskriver någon ett citat de aldrig sagt. Den gör det inte av illvilja, utan för att den inte vet bättre – den har inga faktiska uppfattningar om vad som är sant eller falskt.

Hallucinationer blir också vanligare i följande situationer:

  • När användarens fråga rör smala eller nischade ämnen
  • När svaret kräver färsk information efter modellens kunskapsstopp
  • När modellen ombeds resonera fritt eller spekulera
Minska

För att minska hallucinationer används allt oftare verktyg som faktaförankring (retrieval-augmented generation), där modellen kopplas till externa databaser eller söktjänster, samt filter, verifieringssystem och användarfeedback.

Kort sagt: språkmodeller hallucinerar för att de är tränade på att efterlikna språk, inte förstå verkligheten. De är duktiga på att låta kloka – men inte alltid på att ha rätt.

Magasin Macken använder AI för att samla in information och underlag för de texter som publiceras. Vi använder även AI för att skapa bilder och illustrationer. Dessa märks alltid med att det är AI-bilder. I förekommande fall så läggs även till länkar till källa och referenser till i texterna som alltid kontrolleras av en mänsklig skribent – som är den som skriver och redigerar alla texter till alla väsentliga delar. 

0 kommentarer


Mikael Winterkvist

Fyrabarns-far, farfar, morfar och egen företagare i Skellefteå med kliande fingrar. Jag skriver om fotografering, sport, dataprylar, politik, nöje, musik och film. Vid sidan av den här bloggen så jobbar jag med med det egna företaget Winterkvist.com. Familjen består av hustru, fyra barn (utflugna) och fem barnbarn.

Jag har hållit på med datorer sedan tidigt 1980-tal och drev Artic BBS innan Internet knappt existerade. Efter BBS-tiden har det blivit hemsidor, design, digitala medier och trycksaker. Under tiden som journalist jobbade jag med Mac men privat har det varit Windows som har gällt fram till vintern 2007. Då var det dags att byta och då bytte vi, företaget, helt produktionsplattform till macOS. På den vägen är det.

_____________________________________________________________________________________

Anmäl dig till Magasin Mackens nyhetsbrev

Du får förhandsinformation om Macken, våra planer och du får informationen, först och direkt till din mail. Vi lovar att inte skicka din information vidare och vi lovar att inte skicka ut mer än max ett nyhetsbrev per månad.

Anmäl dig här

_____________________________________________________________________________________

De senaste inläggen: