Jag har jobbat med ChatGPT, Claude, Leonardo och flera andra AI-lösningar en längre tid och min slutsats är följande: du kan inte lita på deras svar, sammanställningar, faktainsamlingar eller deras resultat, allt måste kontrolleras därför att AI ljuger, hittar på, lägger till och förvanskar, regelmässigt.
Några exempel:
OpenAI uppges lansera en egen webbläsare inom kort som ska heta Aura.
När ChatGPT får instruktioner att skriva en kort nyhetstext så döps webbläsaren till Gizmo.
När ChatGPT får instruktioner om att sammanställa källor i en text, lägga dem sist och se till att de är länkade så läggs tre ytterligare källor till – som inte nämns i den ursprungliga texten och som inte har med ämnet att göra.
När ChatGPT får instruktioner att sammanställa uppgifter om Trumps interna problem med sin MAGA-rörelse så citeras en påstådd expert på amerikansk politik – som inte existerar.
När ChatGPT får instruktioner att skriva en kort nyhetsnotis om farliga tillägg till populära webbläsare så anges siffran för antalet nedladdningar till runt 30 miljoner. Den korrekta siffran är drygt 2.3 miljoner.
Så här går det att hålla på länge för AI-lösningarna ljuger, hittar på, fyller i och lägger till helt igenom falska uppgifter – regelmässigt.
Mallar
Jag har satt upp en textmall för CHATGPT – en strikt mall för hur texter ska hanteras, hur CHATPGT ska skriva och med tydliga instruktioner om vad CHATGPT absolut inte får göra.
🧾 Textmall för Magasin Macken
Rubrik:
– Informativ, utan fetstil
– Tonen ska vara rak, tydlig eller lätt satirisk beroende på ämne
– Använd inte kod, citationstecken, onödiga versaler eller specialtecken
Brödtext:
– Levereras som ren, kopieringsbar text – inga HTML-taggar, kodblock eller stilattribut
– Använd aldrig ordet man, vi, vår – använd du, personen, eller passiv form
– Mellanrubriker skrivs som brödtext och ska börja på ny rad, formulerade som h5-nivå
– Rubriker och mellanrubriker får aldrig vara i fetstil
– Inga streck (–) som avgränsare i brödtext
– Citat integreras löpande i texten, aldrig som block
– Alla texter ska följa Magasin Mackens visuella och språkliga tonalitet
Fakta och innehåll:
– Uppgifter ska vara verifierbara och finnas i texten
– Uppgifter, siffror eller information får aldrig under några omständigheter vara påhittade
– Information, svar eller sammanställningar får aldrig under några omständigheter vara påhittade, felaktiga utifrån en given källa eller tolkas, fyllas i – all information ska vara korrekt
– Citat får aldrig under några omständigheter vara påhittade
Källor:
– Ska vara angivna i texten, vara relevanta och höra samman med texten
– Endast etablerade nyhetsmedier eller primärkällor får användas
– Lägg aldrig till källor som inte existerar
– Källor ska anges som klickbara länkar (utan datum, parenteser eller “hämtat från”)
– Samma källa får inte anges mer än en gång
– Alla källor placeras sist i texten på en egen rad
– Reddit, bloggar, X/Twitter och liknande godtas inte som källa
I mina ögon, enkla, raka och tydliga regler som säger att CHATGPT inte får fylla i efter eget behag, hitta på eller ljuga – ändå gör CHATGPT det, ofta och regelbundet. Detsamma gäller övriga chatbottar som jag har testat och anledningen är enkel – de här tränade till att alltid leverera ett svar – även om det innebär att de måste hitta på och ljuga.
Sparken
Hade CHATGPT varit en människa, en medarbetare och en skribent så hade chatbotten sparkats för länge sedan. Mängden helt felaktiga påståenden, som levereras tvärsäkert, är alldeles för många. Det är sifferuppgifter som helt enkelt plockas ur tomma luften, CHATGPT hittar på och ljuger utan synbar förklaring.
I exemplet ovan så blir 2.3 miljoner nedladdningar 30 miljoner nedladdningar och CHATGPT kan själv inte förklara varför – ”det bara blev så” kan svaret summeras som. När CHATGPT ska svara på frågan hur siffrorna kunnat bli så fel så är svaret att AI-funktionen drog en felaktig slutsats. För en människa är det fullständigt ologiskt att dra till med 30 miljoner när den verkliga siffran faktiskt står i texten, 2.3 miljoner, men för CHATGPT är det inga problem.
Detsamma gäller OpenAI:s webbläsare – den döps till Gizmo trots att det namnet inte finns i den ursprungliga texten. CHATPGT kan inte svara på hur namnet kunde bli så fel.
I min första version drog jag fel slutsats från information som cirkulerade tidigare under året. Det fanns interna referenser till något som kallades “Gizmo” i samband med OpenAI:s testmiljöer, men det gällde inte webbläsaren som nu är bekräftad som “Aurora”. Jag blandade alltså ihop ett tekniskt kodnamn, experimentellt projekt eller komponent med ett produktnamn – och gjorde det utan tillräcklig källkontroll.
CHATGPT ges en given text, att utgå ifrån. Instruktionerna är att skriva en kort nyhetsnotis, utifrån den givna texten – och CHATGPT samlar då in helt annan information, lägger till den, döper om webbläsaren, som faktiskt ska heta Aura (enligt uppgifter) – helt i strid med tämligen enkla instruktioner.
Notera också att namnet alltså inte är Aurora utan Aura.
Bildmall
Jag har även satt samman en bildmall som CHATGPT kan misslyckas med fullständigt. Ibland kan det krävas 4-5 försök innan en bild som stämmer överens med bildmallen.
Rådet – om du ska jobba med AI-lösningar är – att sätta upp regelverk. Tydliga, detaljerade regelverk för hur AI-lösningen ska jobba, fungera och leverera sina resultat. Räkna dick inte med att chatbotten alltid följer reglerna – räkna istället med att du alltid måste kolla alla resultat, alla analyser och alla data som du får.
AI ljuger – ofta och regelbundet och därför kan du inte lita på artificiell intelligens.
Ett råd till: be din AI-lösning att visa den ”prompt” som kommer att använda i det den ska skapa, om den nu är en bild, en text, grafik eller liknande. Då får du en beskrivning på det AI-botten tänker göra – då kan du korrigera eventuella fel, innan de begås.