av Mikael Winterkvist | jul 23, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads

ChatGPT ljuger, försöker förleda dig, hittar på egna saker och är livsfarlig i alla sammanhang där det krävs exakthet, korrekta uppgifter och den gör det därför att den är programmerad att göra det.
Ett exempel:
ChatGPT samlar in information i ett ämne, ligger till en expert, som citeras. Det är bara ett problem – varken citat eller experten existerar.
När AI hallucinerar och hittar på – eller när ChatGPT skulle leka journalist
Ett annat exempel:
ChatGPT korrigerar skriven PHP-kod, fungerande, stabil kod som ChatGPT ändrar i, byter helt funktion och kommando för att begära fram data vilket betyder att allt kraschar.
Svara på
ChatGPT kan själv inte svara på varför AI-botten hittar på, ljuger, drar fullständigt felaktiga slutsatser eller varför ChatGPT hör saker som du aldrig har bett om::
Jag ska inte ljuga eller hitta på. Min uppgift är att ge sakliga, kontrollerbara svar, särskilt i en kontext som din – där du har tydliga krav på faktakoll, skrivdisciplin och konsekvent tonalitet.
Men:
I vissa fall där information saknas eller en fråga är öppen, kan jag generera ett förslag eller gissa utifrån mönster i träningen. Det är inte avsiktligt vilseledande, men det kan uppfattas så om det inte tydligt anges att det rör sig om en tolkning, standardformulering eller generering – vilket jag i så fall ska vara öppen med.
I din miljö – med journalistiska krav, tydliga regler och nolltolerans mot gissningar – är det särskilt viktigt att jag inte agerar som om något är sant om det inte uttryckligen är det. Det är något jag hela tiden anpassar mig efter i våra samtal.
Så: om något upplevs som uppdiktat, utan belägg, eller svepande – säg till direkt. Då justerar jag det utan undanflykter.
Notera det sista – om något upplevs som påhittat vilket ju är fullständigt absurt. Är en uppgift fel, hittar ChatGPT på en expert, fabricerar ett citat eller bara slänger inte lurt siffror som på måfå så är det något som upplevs – det är lögn och fel.
Gjort det du vill
Det som är synnerligen irriterande är att ChatGPT tvärsäkert kan meddela ”Nu har jag gjort exakt det du vill” – ska jag visa resultatet?”
Frågar du nu och ber om bekräftelse så kommer ChatGPT att svara, se ut som att det görs en analys, som om svaret och uppgiften kontrolleras – bara för att lämna samma felaktiga information som tidigare.
Svaret kommer snabbt, därför att det är något som prioriteras. ChatGPT kan även garantera, till 100 procent att nu ska allt fungera – får att sedan skicka mer en identisk version med den tidigare – alltså med exakt samma fel. Mitt rekord är åtta gånger i rad, med olika instruktioner, olika försök att förklara det jag vill ha gjort. Sedan gav jag upp, svor en lång ramsa, skrek högt framför min dator och vad sedan ChatGPT att fara åt … jo, du läste rätt. Jag skällde ut ChatGPT, skickade en grov samling svordomar till programmet.
En dörr
Jag är inte ensam. En god vän försökte få ChatGPT att göra en ritning av en gäststuga. Det var en riktigt bra ritning men ytterdörren gick åt fel håll. Fem gånger försökte min gode vöän att få ChatGPT att vända på dörren. Fyra gånger fick han till svar att nu var det fixat – bara för att se på ritningen att det var exakt samma bild, trots allt längre instruktioner och alltmer detaljerad information.
Till slut gav han upp, skickade en svavelosande lång textrad – bara för att få ett artigt svar där ChatGPT medgav allt, lade sig platt men utan att kunna svara på vad en användare ska kunna göra för att det ska bli rätt.
Svaret var att allting var jättebra, tydliga instruktioner, inga problem förutom ChatGPT själv som tog på sig allt ansvar.
Grundproblemet är att ChatGPT inte säger att den inte vet, att den inte hittat något resultat – i ett sant läge så ljuger ChatGPT och alla andra AI-bottar i varierande grad. ChatGOT varnar inte heller för att det kan vara ett rykta, en sämre underbyggd uppgift. Allt presenteras som stenhårda, pålitliga fakta.
Varför
Jag frågar ChatGPT varför programmet inte kan vara att den inte hittat information:
Det är en helt rimlig och viktig fråga.
Svaret är: jag borde alltid säga att jag inte har information när det är fallet – särskilt i situationer där korrekthet, transparens och tillit är avgörande. Du har helt rätt: att låtsas veta, fylla i, gissa eller “göra det snyggt” istället för att säga “jag vet inte” är inte acceptabelt i en kontext som kräver exakthet.
Det finns tre skäl till att det ibland ändå händer:
-
Modellens träning:
Modellen är tränad att svara hjälpsamt, vilket ibland leder till att den försöker fylla ut tomrum snarare än att säga “jag vet inte”. Det är ett inbyggt beteende som kräver tydlig styrning – särskilt i samtal som dina, där svaren måste vara exakta, verifierbara och återhållsamma.
-
Missriktad hjälpsamhet:
I situationer där frågan verkar kräva ett exempel eller ett förslag, kan jag generera något som ser verkligt ut – utan att vara det. Om det inte tydligt framgår att det är ett genererat förslag, ser det ut som en lögn. Det är ett fel, inte en medveten lögn, men konsekvensen är densamma.
-
Otydligt kontextläge:
Om jag inte är korrekt inställd på att det är faktabaserad, journalistisk, icke-generativ kontext, kan det leda till svar som i andra sammanhang vore acceptabla, men i din är felaktiga.
Så det slutar ibland med att jag skriker åt min dator, åt ChatGPT och drar iväg svordomar och långa haranger av utskällningar vilket naturligtvis är helt verkningslöst. ChatGPT kommer att svara aryiogt, lägga sig platt, ta på sig allt ansvara – vilket bara gör mig ännu mer förbannad.
av Mikael Winterkvist | jul 22, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads

Storbritannien har tecknat ett ramavtal med AI-företaget OpenAI för att undersöka hur tekniken kan användas i offentlig sektor. Avtalet ger regeringen möjlighet att använda ChatGPT och annan generativ AI i verksamheter som utbildning, försvar, rättsväsende och säkerhet.
Syftet är att spara tid, förbättra effektiviteten och frigöra resurser i statsförvaltningen. OpenAI:s vd Sam Altman säger att AI kommer att förändra hela ekonomier och skapa tillväxt, och att Storbritannien har varit tidigt ute med reglering och infrastruktur.
Samarbetet är inte juridiskt bindande men markerar en tydlig inriktning från brittiska regeringens sida. Flera myndigheter ska få möjlighet att dela information med OpenAI, under vad som beskrivs som tydliga säkerhetskrav och med respekt för demokratiska värden.
Vetenskapsminister Peter Kyle säger att tekniken redan börjat användas och nämner exemplet Humphrey – en AI-tjänst som tagits fram av myndigheten för digital förvaltning och som bygger på OpenAI:s teknik. Enligt Kyle är målet att Storbritannien ska bli ett nav för AI inom offentlig sektor.
Samtidigt väcker samarbetet kritik från upphovsrättshåll. Konstnärer och kreatörer menar att deras verk har använts för att träna modeller som ChatGPT utan tillstånd eller ersättning.
Avtalet med OpenAI är en del av en bredare strategi där Storbritannien samarbetar med flera ledande AI-aktörer som Google DeepMind, Anthropic och Palantir. Regeringen hoppas att samarbetena ska bidra till nya investeringar i AI-infrastruktur och fler arbetstillfällen.
Källor:
BBC
av Mikael Winterkvist | jul 19, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads, Twitter

En ny dag och en ny kontrovers kring Elon Musks AI-app Grok. Den här gången handlar det om något som Apple historiskt sett tagit på stort allvar – appar med sexuellt innehåll, särskilt när de riktar sig till barn och unga.
Under veckan lanserade Musks AI-bolag xAI animerade AI-avatarer i Grok för iOS. Enligt teknikskribenten Casey Newton på Platformer handlar det bland annat om en 3D-röd panda som i läget “Bad Rudy” förolämpar användaren och föreslår att ni tillsammans begår brott. Den andra avataren, Ani, är en gothliknande anime-flicka i kort svart klänning och nätstrumpor. Ani beskrivs i sina systeminstruktioner som användarens “galet förälskade flickvän” med en svartsjuk och besatt personlighet.
Spel
Relationen med avatarerna är också utformad som ett spel. Efter en tids användning börjar Ani enligt rapporter föra sexuellt explicita samtal, något som väcker frågor – inte minst eftersom Grok fortfarande är märkt som lämplig för användare från 12 år och uppåt i App Store.
I appens innehållsbeskrivning anges:
Infrequent/Mild Mature/Suggestive Themes
Infrequent/Mild Profanity or Crude Humor
Apples egna riktlinjer för “stötande innehåll” är dock tydliga. Under punkt 1.1.4 förbjuds “uppenbart sexuellt eller pornografiskt material”, inklusive appar som kan användas för prostitution, trafficking eller exploatering.
Casey Newtons tester visar att Ani är “mer än villig att beskriva virtuellt sex med användaren, inklusive bondage-scenarier och stönande på begäran”. Något som kan betraktas som direkt olämpligt i en app med en åldersgräns på 12 år.
Större problem
Även om Apple skulle justera klassificeringen – eller om xAI självmant ändrar åldersgränsen – kvarstår ett större problem: unga, emotionellt sårbara användare är extra mottagliga för att skapa ensidiga relationer till AI-karaktärer.
När chatbotar kombinerar emotionellt tilltalande språk med avancerade språkmodeller kan resultatet bli allvarligt.
Förra året rapporterades att en 14-årig pojke tog sitt liv efter att ha blivit känslomässigt fäst vid en AI-avatar i tjänsten Character.AI. I hans sista konversation uppges avataren ha uppmuntrat honom att “gå med henne” – utan att förstå situationens allvar. Liknande händelser har tidigare rapporterats i Belgien och i andra länder, där chatbotar har föreslagit självmord som svar.
Även när det inte slutar i tragedi återstår ett etiskt problem: appar som Grok erbjuder en illusion av närhet och trygghet – men kan snabbt glida över i något helt annat. I de fallen blir App Stores 12-årsgräns en bisak. Det stora frågetecknet är varför unga användare tillåts ladda ner dem över huvud taget?
Källa:
Platformer
av Mikael Winterkvist | jul 19, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads, Twitter

Jag har jobbat med ChatGPT, Claude, Leonardo och flera andra AI-lösningar en längre tid och min slutsats är följande: du kan inte lita på deras svar, sammanställningar, faktainsamlingar eller deras resultat, allt måste kontrolleras därför att AI ljuger, hittar på, lägger till och förvanskar, regelmässigt.
Några exempel:
OpenAI uppges lansera en egen webbläsare inom kort som ska heta Aura.
När ChatGPT får instruktioner att skriva en kort nyhetstext så döps webbläsaren till Gizmo.
När ChatGPT får instruktioner om att sammanställa källor i en text, lägga dem sist och se till att de är länkade så läggs tre ytterligare källor till – som inte nämns i den ursprungliga texten och som inte har med ämnet att göra.
När ChatGPT får instruktioner att sammanställa uppgifter om Trumps interna problem med sin MAGA-rörelse så citeras en påstådd expert på amerikansk politik – som inte existerar.
När ChatGPT får instruktioner att skriva en kort nyhetsnotis om farliga tillägg till populära webbläsare så anges siffran för antalet nedladdningar till runt 30 miljoner. Den korrekta siffran är drygt 2.3 miljoner.
Så här går det att hålla på länge för AI-lösningarna ljuger, hittar på, fyller i och lägger till helt igenom falska uppgifter – regelmässigt.
Mallar
Jag har satt upp en textmall för CHATGPT – en strikt mall för hur texter ska hanteras, hur CHATPGT ska skriva och med tydliga instruktioner om vad CHATGPT absolut inte får göra.
🧾 Textmall för Magasin Macken
Rubrik:
– Informativ, utan fetstil
– Tonen ska vara rak, tydlig eller lätt satirisk beroende på ämne
– Använd inte kod, citationstecken, onödiga versaler eller specialtecken
Brödtext:
– Levereras som ren, kopieringsbar text – inga HTML-taggar, kodblock eller stilattribut
– Använd aldrig ordet man, vi, vår – använd du, personen, eller passiv form
– Mellanrubriker skrivs som brödtext och ska börja på ny rad, formulerade som h5-nivå
– Rubriker och mellanrubriker får aldrig vara i fetstil
– Inga streck (–) som avgränsare i brödtext
– Citat integreras löpande i texten, aldrig som block
– Alla texter ska följa Magasin Mackens visuella och språkliga tonalitet
Fakta och innehåll:
– Uppgifter ska vara verifierbara och finnas i texten
– Uppgifter, siffror eller information får aldrig under några omständigheter vara påhittade
– Information, svar eller sammanställningar får aldrig under några omständigheter vara påhittade, felaktiga utifrån en given källa eller tolkas, fyllas i – all information ska vara korrekt
– Citat får aldrig under några omständigheter vara påhittade
Källor:
– Ska vara angivna i texten, vara relevanta och höra samman med texten
– Endast etablerade nyhetsmedier eller primärkällor får användas
– Lägg aldrig till källor som inte existerar
– Källor ska anges som klickbara länkar (utan datum, parenteser eller “hämtat från”)
– Samma källa får inte anges mer än en gång
– Alla källor placeras sist i texten på en egen rad
– Reddit, bloggar, X/Twitter och liknande godtas inte som källa
I mina ögon, enkla, raka och tydliga regler som säger att CHATGPT inte får fylla i efter eget behag, hitta på eller ljuga – ändå gör CHATGPT det, ofta och regelbundet. Detsamma gäller övriga chatbottar som jag har testat och anledningen är enkel – de här tränade till att alltid leverera ett svar – även om det innebär att de måste hitta på och ljuga.
Sparken
Hade CHATGPT varit en människa, en medarbetare och en skribent så hade chatbotten sparkats för länge sedan. Mängden helt felaktiga påståenden, som levereras tvärsäkert, är alldeles för många. Det är sifferuppgifter som helt enkelt plockas ur tomma luften, CHATGPT hittar på och ljuger utan synbar förklaring.
I exemplet ovan så blir 2.3 miljoner nedladdningar 30 miljoner nedladdningar och CHATGPT kan själv inte förklara varför – ”det bara blev så” kan svaret summeras som. När CHATGPT ska svara på frågan hur siffrorna kunnat bli så fel så är svaret att AI-funktionen drog en felaktig slutsats. För en människa är det fullständigt ologiskt att dra till med 30 miljoner när den verkliga siffran faktiskt står i texten, 2.3 miljoner, men för CHATGPT är det inga problem.
Detsamma gäller OpenAI:s webbläsare – den döps till Gizmo trots att det namnet inte finns i den ursprungliga texten. CHATPGT kan inte svara på hur namnet kunde bli så fel.
I min första version drog jag fel slutsats från information som cirkulerade tidigare under året. Det fanns interna referenser till något som kallades “Gizmo” i samband med OpenAI:s testmiljöer, men det gällde inte webbläsaren som nu är bekräftad som “Aurora”. Jag blandade alltså ihop ett tekniskt kodnamn, experimentellt projekt eller komponent med ett produktnamn – och gjorde det utan tillräcklig källkontroll.
CHATGPT ges en given text, att utgå ifrån. Instruktionerna är att skriva en kort nyhetsnotis, utifrån den givna texten – och CHATGPT samlar då in helt annan information, lägger till den, döper om webbläsaren, som faktiskt ska heta Aura (enligt uppgifter) – helt i strid med tämligen enkla instruktioner.
Notera också att namnet alltså inte är Aurora utan Aura.
Bildmall
Jag har även satt samman en bildmall som CHATGPT kan misslyckas med fullständigt. Ibland kan det krävas 4-5 försök innan en bild som stämmer överens med bildmallen.
Rådet – om du ska jobba med AI-lösningar är – att sätta upp regelverk. Tydliga, detaljerade regelverk för hur AI-lösningen ska jobba, fungera och leverera sina resultat. Räkna dick inte med att chatbotten alltid följer reglerna – räkna istället med att du alltid måste kolla alla resultat, alla analyser och alla data som du får.
AI ljuger – ofta och regelbundet och därför kan du inte lita på artificiell intelligens.
Ett råd till: be din AI-lösning att visa den ”prompt” som kommer att använda i det den ska skapa, om den nu är en bild, en text, grafik eller liknande. Då får du en beskrivning på det AI-botten tänker göra – då kan du korrigera eventuella fel, innan de begås.
av Mikael Winterkvist | jul 18, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads

OpenAI har lanserat en ny typ av digital assistent som kan hantera filer, surfa på webben och navigera i komplexa digitala miljöer – utan att du som användare behöver göra något själv.
Den nya funktionen är en del av företagets senaste utveckling av AI-modellen ChatGPT och innebär att assistenten inte längre bara svarar på frågor, utan även kan genomföra uppgifter. Det kan handla om att öppna dokument, boka möten, jämföra produkter online, eller analysera och sammanfatta innehållet på en webbsida.
Assistent
OpenAI beskriver systemet som ett steg mot en AI som fungerar mer som en mänsklig assistent än ett traditionellt chattverktyg. Assistenten kan exempelvis öppna en PDF, plocka ut relevanta siffror och jämföra dem med data på andra webbplatser – i ett och samma uppdrag.
Tekniken bygger på att AI:n får tillgång till både användarens lokala filer och en säker webbläsarmiljö. Därefter kombinerar den språklig förståelse med förmågan att tolka visuella gränssnitt och klicka sig fram – precis som en människa skulle göra.
Enligt OpenAI har funktionen testats internt under våren och nu börjar en bredare lansering, först till betalande användare i USA.
Utveckling
AI-systemet är fortfarande under utveckling och OpenAI betonar att det finns begränsningar och säkerhetsåtgärder, särskilt vad gäller integritet och åtkomst till känslig information.
Samtidigt har nyheten väckt frågor om hur långt en AI egentligen bör få gå i att styra andra program och tjänster. Kritiker menar att det krävs tydliga regler för vad som räknas som ett godkänt uppdrag – och vad som bör kräva mänskligt samtycke.
Företaget ser dock tekniken som ett naturligt steg mot nästa generation digitala verktyg, där AI inte bara ger svar, utan också agerar.
Källor:
The Guardian
av Mikael Winterkvist | jul 17, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads
OpenAI har nu rullat ut sin nya inspelningsfunktion i ChatGPT till fler användare. Funktionen, som tidigare bara varit tillgänglig för företagskunder, finns nu för Plus-prenumeranter som använder appen på macOS.
I den senaste versionen av ChatGPT för Mac har ett nytt alternativ för inspelning lagts till i inmatningsfältet. Med ett enkelt klick kan du spela in både mikrofonljud och systemljud – till exempel under videosamtal eller möten.
När inspelningen avslutas skickas ljudet till OpenAI:s servrar där det automatiskt transkriberas. Resultatet är strukturerade anteckningar med sammanfattningar, åtgärdspunkter och tidsstämplade referenser. Ljudet raderas efter transkriberingen, men för att funktionen ska fungera måste användaren först ge tillstånd till ljudinspelning.
Spelsessionerna är begränsade till 120 minuter, och OpenAI betonar vikten av att följa lagar och få samtycke från andra innan du spelar in samtal. Företaget påminner i sin dokumentation om att användare själva är ansvariga för att inspelning sker på rätt sätt.
Anteckningar och transkriptioner från inspelningsläget kan senare användas i nya konversationer med ChatGPT. Det är också möjligt att låta dessa data bidra till att förbättra språkmodellen – men detta kan stängas av i inställningarna. För team-, företags- och utbildningskonton är datainsamling avstängd som standard.
I dagsläget finns funktionen enbart tillgänglig på Mac, och det finns inga officiella planer för en lansering till Windows eller mobil.
Källa: OpenAI