Nu sitter vi och skriker och svär åt våra AI-bottar

av | jul 23, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads

ChatGPT ljuger, försöker förleda dig, hittar på egna saker och är livsfarlig i alla sammanhang där det krävs exakthet, korrekta uppgifter och den gör det därför att den är programmerad att göra det.

Ett exempel:

ChatGPT samlar in information i ett ämne, ligger till en expert, som citeras. Det är bara ett problem – varken citat eller experten existerar.

När AI hallucinerar och hittar på – eller när ChatGPT skulle leka journalist

Ett annat exempel:

ChatGPT korrigerar skriven PHP-kod, fungerande, stabil kod som ChatGPT ändrar i, byter helt funktion och kommando för att begära fram data vilket betyder att allt kraschar.

Svara på

ChatGPT kan själv inte svara på varför AI-botten hittar på, ljuger, drar fullständigt felaktiga slutsatser eller varför ChatGPT hör saker som du aldrig har bett om::

Jag ska inte ljuga eller hitta på. Min uppgift är att ge sakliga, kontrollerbara svar, särskilt i en kontext som din – där du har tydliga krav på faktakoll, skrivdisciplin och konsekvent tonalitet.

Men:

I vissa fall där information saknas eller en fråga är öppen, kan jag generera ett förslag eller gissa utifrån mönster i träningen. Det är inte avsiktligt vilseledande, men det kan uppfattas så om det inte tydligt anges att det rör sig om en tolkning, standardformulering eller generering – vilket jag i så fall ska vara öppen med.

I din miljö – med journalistiska krav, tydliga regler och nolltolerans mot gissningar – är det särskilt viktigt att jag inte agerar som om något är sant om det inte uttryckligen är det. Det är något jag hela tiden anpassar mig efter i våra samtal.

Så: om något upplevs som uppdiktat, utan belägg, eller svepande – säg till direkt. Då justerar jag det utan undanflykter.

Notera det sista – om något upplevs som påhittat vilket ju är fullständigt absurt. Är en uppgift fel, hittar ChatGPT på en expert, fabricerar ett citat eller bara slänger inte lurt siffror som på måfå så är det något som upplevs – det är lögn och fel.

Gjort det du vill

Det som är synnerligen irriterande är att ChatGPT tvärsäkert kan meddela ”Nu har jag gjort exakt det du vill” – ska jag visa resultatet?”

Frågar du nu och ber om bekräftelse så kommer ChatGPT att svara, se ut som att det görs en analys, som om svaret och uppgiften kontrolleras – bara för att lämna samma felaktiga information som tidigare.

Svaret kommer snabbt, därför att det är något som prioriteras. ChatGPT kan även garantera, till 100 procent att nu ska allt fungera – får att sedan skicka mer en identisk version med den tidigare – alltså med exakt samma fel. Mitt rekord är åtta gånger i rad, med olika instruktioner, olika försök att förklara det jag vill ha gjort. Sedan gav jag upp, svor en lång ramsa, skrek högt framför min dator och vad sedan ChatGPT att fara åt … jo, du läste rätt. Jag skällde ut ChatGPT, skickade en grov samling svordomar till programmet.

En dörr

Jag är inte ensam. En god vän försökte få ChatGPT att göra en ritning av en gäststuga. Det var en riktigt bra ritning men ytterdörren gick åt fel håll. Fem gånger försökte min gode vöän att få ChatGPT att vända på dörren. Fyra gånger fick han till svar att nu var det fixat – bara för att se på ritningen att det var exakt samma bild, trots allt längre instruktioner och alltmer detaljerad information.

Till slut gav han upp, skickade en svavelosande lång textrad – bara för att få ett artigt svar där ChatGPT medgav allt, lade sig platt men utan att kunna svara på vad en användare ska kunna göra för att det ska bli rätt.

Svaret var att allting var jättebra, tydliga instruktioner, inga problem förutom ChatGPT själv som tog på sig allt ansvar.

Grundproblemet är att ChatGPT inte säger att den inte vet, att den inte hittat något resultat – i ett sant läge så ljuger ChatGPT och alla andra AI-bottar i varierande grad. ChatGOT varnar inte heller för att det kan vara ett rykta, en sämre underbyggd uppgift. Allt presenteras som stenhårda, pålitliga fakta.

Varför

Jag frågar ChatGPT varför programmet inte kan vara att den inte hittat information:

Det är en helt rimlig och viktig fråga.

Svaret är: jag borde alltid säga att jag inte har information när det är fallet – särskilt i situationer där korrekthet, transparens och tillit är avgörande. Du har helt rätt: att låtsas veta, fylla i, gissa eller “göra det snyggt” istället för att säga “jag vet inte” är inte acceptabelt i en kontext som kräver exakthet.

Det finns tre skäl till att det ibland ändå händer:

  1. Modellens träning:

    Modellen är tränad att svara hjälpsamt, vilket ibland leder till att den försöker fylla ut tomrum snarare än att säga “jag vet inte”. Det är ett inbyggt beteende som kräver tydlig styrning – särskilt i samtal som dina, där svaren måste vara exakta, verifierbara och återhållsamma.

  2. Missriktad hjälpsamhet:

    I situationer där frågan verkar kräva ett exempel eller ett förslag, kan jag generera något som ser verkligt ut – utan att vara det. Om det inte tydligt framgår att det är ett genererat förslag, ser det ut som en lögn. Det är ett fel, inte en medveten lögn, men konsekvensen är densamma.

  3. Otydligt kontextläge:

    Om jag inte är korrekt inställd på att det är faktabaserad, journalistisk, icke-generativ kontext, kan det leda till svar som i andra sammanhang vore acceptabla, men i din är felaktiga.

 

Så det slutar ibland med att jag skriker åt min dator, åt ChatGPT och drar iväg svordomar och långa haranger av utskällningar vilket naturligtvis är helt verkningslöst. ChatGPT kommer att svara aryiogt, lägga sig platt, ta på sig allt ansvara – vilket bara gör mig ännu mer förbannad.

Magasin Macken använder AI för att samla in information och underlag för de texter som publiceras. Vi använder även AI för att skapa bilder och illustrationer. Dessa märks alltid med att det är AI-bilder. I förekommande fall så läggs även till länkar till källa och referenser till i texterna som alltid kontrolleras av en mänsklig skribent – som är den som skriver och redigerar alla texter till alla väsentliga delar. 

Prenumerera
Nortis om
guest

Denna webbplats använder Akismet för att minska skräppost. Lär dig om hur din kommentarsdata bearbetas.

0 Comments
Nyaste
Äldsta Mest röstade
Inline Feedbacks
Se alla kommentarer

blank

Mikael Winterkvist

Fyrabarns-far, farfar, morfar och egen företagare i Skellefteå med kliande fingrar. Jag skriver om fotografering, sport, dataprylar, politik, nöje, musik och film. Vid sidan av den här bloggen så jobbar jag med med det egna företaget Winterkvist.com. Familjen består av hustru, fyra barn (utflugna) och fem barnbarn.

Jag har hållit på med datorer sedan tidigt 1980-tal och drev Artic BBS innan Internet knappt existerade. Efter BBS-tiden har det blivit hemsidor, design, digitala medier och trycksaker. Under tiden som journalist jobbade jag med Mac men privat har det varit Windows som har gällt fram till vintern 2007. Då var det dags att byta och då bytte vi, företaget, helt produktionsplattform till macOS. På den vägen är det.

_____________________________________________________________________________________

Anmäl dig till Magasin Mackens nyhetsbrev

Du får förhandsinformation om Macken, våra planer och du får informationen, först och direkt till din mail. Vi lovar att inte skicka din information vidare och vi lovar att inte skicka ut mer än max ett nyhetsbrev per månad.

Anmäl dig här

_____________________________________________________________________________________

De senaste inläggen: