ChatGPT, Gemini, Claude – AI-funktioner som du kan ställa frågor till, be dem samla in information, skriva kod, texter och generera bilder och videor kan ge intryck av att de resonerar sig fram till det du vill – det gör de inte. De ger dig det mest sannolika svaret.
När AI-funktioner diskuteras så plockas ord in som kan ge intryck av att de tänker ungefär i samma banor som vi människor gör. Senare generationer av de språkmodeller som används är stora resonemangsmodeller (LRM) som genererar detaljerade tankeprocesser innan de ger svar.
De ger intryck av att de tänker men i själva verket så levererar de svar utifrån matematiska modeller som bygger på det som är mest sannolikt. Apples team har skrivit en längre redogörelse för hur de här språkmodellerna fungerar:
Även om dessa modeller uppvisar förbättrad prestanda på resonemangstester, är deras grundläggande förmågor, skalningsegenskaper och begränsningar fortfarande otillräckligt förstådda. Nuvarande utvärderingar fokuserar främst på etablerade matematiska och kodande riktmärken, med betoning på noggrannheten i de slutliga svaren. Detta utvärderingsparadigm lider dock ofta av datakontaminering och ger inte insikter i resonemangsspårens struktur och kvalitet. I detta arbete undersöker vi systematiskt dessa luckor med hjälp av kontrollerbara pusselmiljöer som möjliggör exakt manipulation av kompositionell komplexitet samtidigt som konsekventa logiska strukturer bibehålls. Denna uppställning möjliggör analys av inte bara slutliga svar utan även de interna resonemangsspåren, vilket ger insikter i hur LRM ”tänker”.
ChatGPT
Då den förklaringen är teknisk, svårt att förstå så jag bad ChatGPT att förklara – så att vi vanliga dödliga förstår:
”När du ställer en fråga till mig (ChatGPT), ser det kanske ut som att jag tänker efter, resonerar och förstår vad du menar. Men det gör jag egentligen inte – i alla fall inte som en människa gör.
Jag fungerar mer som en mycket avancerad autokorrigerare eller textförslag-generator. När du skriver något, använder jag allt jag har lärt mig från miljarder texter för att räkna ut vad som brukar komma härnäst i sådana sammanhang. Jag förstår inte orden som du gör, men jag ser mönster.
Till exempel:
Om du skriver “Hur varmt är det i…”, så har jag sett miljontals liknande texter där det ofta följs av platsnamn, väderdata, källor osv. Jag använder det mönstret för att skapa ett rimligt svar.
Det betyder att:
- Jag resonerar inte, jag förutsäger nästa ord.
- Jag har ingen egen vilja, åsikt eller känsla.
- Jag kan låta säker, även när jag har fel (för att så ser texter ofta ut).
Det är lite som att klippa och klistra bitar ur internets texter – fast extremt snabbt och anpassat till din fråga. Jag är tränad att verka hjälpsam, artig och klok – men jag vet inget i egentlig mening.”
Notera
Notera – AI vet ingenting i egentlig mening och AI är lärda att leverera ett svar, och kommer att göra det, lika självsäkert som alla andra svar som ges – därför att det är så modellen lärt sig att svar ska levereras. Det betyder att även när AI har fel så kommer svaret att ges på samma sätt.
Enkelt uttryckt – AI gissar utifrån enorma mängder data som den har tränats på. Det betyder att gissningen ofta är korrekt därför att underlaget, allt som vägs in i gissningen, är så stort.
Så när du tror att AI resonerar, när AI ger intryck av att resonera sig fram till ett svar så är det en hägring.
AI gissar men gissar ofta bättre än vad du och jag gör.