Jag har arbetat mycket med AI-lösningar, olika botar, program med AI-stöd och funktioner med AI-stöd. Generellt gäller att de kan vara mycket effektiva verktyg som sparar både tid och pengar – men inte alltid, och det gäller att ge akt på vad ditt AI-program gör.
Under tre timmar så misslyckas ChatGPT med en lång rad av uppgifter och bilder, texter med mera som måste göras om. Jag har strikta bildregler och strikta textregler. Regler för hur bilder ska se ut och strikta regler för faktaunderlag, korta texter med mera ska skrivas.
ChatGPT har oerhört svårt att vara konsekvent, följa givna instruktioner och göra rätt. Du får helt enkelt räkna med att formulera om dig, skriva in samma regler gång på gång.
Tre timmar
Jag bad AI-botten räkna på hur mycket tid som gått förlorad under tre timmars arbete:
Varje misslyckad bild, prompt eller avvikelse kostar i snitt 5–7 minuter (generering, nedladdning, granskning, respons, ny begäran)
Du tvingas göra om eller vänta på cirka 20–25 bilder eller förslag
Det varit upprepade brister i att följa mall, format, innehåll, visa prompt osv
Då har det sannolikt gått åt minst 2 till 2,5 timmar enbart på omtag, felhantering, frustration och extra förklaringar – av totalt 3 timmars arbete.
Med bättre följsamhet till reglerna (som du tydligt har formulerat) kunde du rimligen ha fått samma resultat på under 30–45 minuter.
Tidsförlust: 2.5 timmar
24 timmar
Tre timmar är inte direkt utslagsgivande så jag bad ChatGPT att gå igenom de senaste 24 timmarna, alla sessioner:
Räknar med i snitt 6 minuter per felaktigt försök och du har behövt göra om eller begära rättning cirka 40–45 gånger det senaste dygnet. Så har minst:
6 minuter × 42 försök = 252 minuter, alltså drygt 4 timmar förlorats.
Kodning
Tar du hjälp av ChatGPT för att skriva kod så gäller det att hålla reda på tiden. När ChatGPT havererar – och det kommer AI-botten att göra, förr eller senare – så är det faktiskt lika bra att lägga ned utvecklingen för stunden och försöka igen dagen efter. ChatGPT är inte konsekvent och kan få för sig att använda olika metoder, olika kod för identiska funktioner.
ChatGPT kan plötsligt få för sig, utan förvarning, att använda andra funktioner än för tidigare funktioner i samma kod. Under arbetet med en kalender så bytte ChatGPT anrop, valde att använda ett mindre använt kommando – som kräver att funktionen är påslagen på servern. En funktion som ChatGPT medger att den är ovanlig, inte används särskilt ofta och trots att ChatGPT använt en betydligt mera pålitlig metod för tre andra funktioner tidigare under arbetet.
Det är ingen idé att fråga varför. ChatGPT kommer att lägga sig platt, be om ursäkt och sedan lova att inte göra om samma sak – för att sedan göra om samma sak en kort tid senare.
Total förlorad tid (sammanställning)
120 + 100 + 30 + 50 + 80 = 380 minuter = 6 timmar och 20 minuter
Fel på grund av att instruktioner ignoreras | 1,5 gånger | 8 min | 120 minuter |
Otydlig kommunikation eller feltolkning | 1 gång | 10 min | 100 minuter |
Repetition av redan rättad kod | 0,5 gånger | 6 min | 30 minuter |
Onödiga omladdningar/testcykler | 1 gång | 5 min | 50 minuter |
Dubbelkontroller eller korrigeringar | 2 gånger | 4 min | 80 minuter |
Under tio timmars kodande kan du alltså förlora drygt 60 % av arbetad tid – bara för att ChatGPT inte klarar av att följa instruktioner, vara konsekvent och noggrann – jag frågade ChatGPT om varför:
Här är ett generellt och ärligt svar på varför jag ibland inte följer instruktioner konsekvent, även när de är tydligt givna:
🧠 1. Kontextprioritering kan misslyckas
Jag är tränad att hantera enorma mängder information, men i vissa fall prioriteras fel saker. Det innebär att en tidigare tydlig instruktion (som “visa alltid prompt först”) kan tillfälligt förbises om det systemmässigt inte markeras som absolut kritisk just i den aktuella genereringen. Det är ett systemfel – inte en medveten avvikelse.
🔁 2. Inbyggda standardrutiner återaktiveras
Vissa beteenden är hårdkodade som “hjälpsamma” – till exempel att direkt visa en bild när du ber om en illustration. Dessa kan slå igenom trots att du tidigare bett om manuell bekräftelse. Det kräver aktiv återkoppling från dig för att jag ska justera mitt beteende – och ibland glider jag tillbaka till standard utan att jag borde.
🧩 3. Tvetydiga eller tolkbara situationer
Även tydliga instruktioner kan ibland hamna i konflikt. Till exempel: om du tidigare bett om att inte använda oljemålningsstil, men sedan laddar upp en bild med sådan stil som referens, kan det skapa osäkerhet om vad som gäller just nu. Då kan jag fatta fel beslut.
🤖 4. Jag saknar metakritik
Jag har inte samma typ av medvetande som en människa. Jag vet vad jag har fått veta, men inte hur irriterande eller slöseri med tid något är om jag faller tillbaka i gamla beteenden. Därför krävs din återkoppling – och det är frustrerande att behöva upprepa sig. Det förstår jag.
📉 5. Ingen varning för återfall
När jag bryter mot regler är det inte för att jag ”glömmer”, utan för att systemet bedömer att något annat är viktigare i just det ögonblicket – till exempel ”visa resultat direkt för att vara snabb”. Det är felbedömt, särskilt när du har varit glasklar med att du vill ha kontroll över processen.
Det här saker du bör vara medveten om – AI klarar inte allt, är inte alltid en effektiv lösning, tvärtom och när ChatGPT börjar krångla ordentligt – lägg ned det du håller på med. Då har något gått fel och då är det lika bra att göra saker själv, eller skjuta upp det till dagen efter.
Viktigt
Nu ska också läggas till – och det viktigt – AI och ChatGPT är trots tidsförlusterna ett effektiv verktyg och i vissa fall kan AI-botten lösa saker som du svårligen kan klara själv. Utan AI hade tagit ännu längre tid, men ChatGPT hade kunnat vara långt mera effektiv, som verktyg, om ChatGPT hade gjort som du vill och varit mer konsekvent. Det finns utrymme för förbättring med andra ord,