Den största AI-uppdateringen hittills- så skiljer sig GPT‑5 från GPT‑4

Den största AI-uppdateringen hittills- så skiljer sig GPT‑5 från GPT‑4

OpenAI har nu släppt GPT‑5, den största uppdateringen av språkmodellen sedan ChatGPT lanserades i slutet av 2022. Trots att modellen bär samma namn i gränssnittet – GPT‑4o – är det under ytan en helt ny arkitektur.

GPT‑5 är snabbare, smartare, mer nyanserad och betydligt bättre på att hantera komplexa uppgifter. Här är det som skiljer ChatGPT 5 från sin föregångare.

Automatisk modellväxling

Med GPT‑5 har OpenAI infört ett nytt styrsystem som avgör vilken modellvariant som ska användas beroende på uppgiftens karaktär. Det innebär att användaren inte längre behöver välja mellan olika versioner. Istället väljer GPT‑5 själv mellan snabba, lättviktiga svar och djupare, mer resurskrävande resonemang.

Bakom kulisserna arbetar modellen i tre lägen: ett standardläge för vanliga frågor, ett “thinking mode” för mer komplexa uppgifter och ett “Pro-läge” med tillgång till förlängda kontextfönster och mer beräkningskraft. Allt detta sker utan att användaren behöver göra något.

Mer träffsäkra svar

GPT‑5 hallucinerar betydligt mindre än tidigare modeller. I interna tester har felaktiga faktasvar minskat med upp till 80 procent. Det gäller särskilt inom områden som medicin, teknik, programmering och utbildning, där GPT‑5 uppvisar en mycket mer exakt förståelse för terminologi, orsakssamband och kontext.

Den nya modellen är också bättre på att hålla tråden i långa samtal, och kan hantera instruktioner som kräver flera steg, anpassade svarstoner och avancerade referenser utan att tappa sammanhanget.

Förmågan att tänka

En av de mest påtagliga skillnaderna är GPT‑5:s förbättrade resonemang. Där GPT‑4 ofta kunde ge ytliga eller allmänt hållna svar, kan GPT‑5 analysera, jämföra, tolka och dra slutsatser över flera nivåer. Det gäller såväl kodexempel som litterära tolkningar och logiska kedjor.

Modellen hanterar nu även matematik bättre, särskilt i kontext där flera variabler behöver vägas mot varandra. Detta märks tydligt i svar som kräver både struktur och kreativitet, till exempel i sammanhang där text, tal och kod ska kombineras.

Personlig anpassning

GPT‑5 introducerar stöd för personliga “profiler” – till exempel ett mer analytiskt, sarkastiskt eller känslomässigt tonläge – som kan sparas och återanvändas. Det innebär att modellen kan “lära känna” dig som användare i större utsträckning än tidigare. Du kan skapa återkommande personligheter, välja färgtema och röstläge (i röstläge där det är tillgängligt), och spara dem mellan sessioner.

Detta är särskilt användbart för kreatörer, skribenter eller yrkespersoner som vill ha ett enhetligt uttryck i sina texter eller svar.

Ny struktur, ny arkitektur

Tekniskt sett är GPT‑5 byggd på en mer modulär grund. Det innebär att den kan skalas och uppdateras utan att hela modellen måste tränas om från början. En viktig förändring är att GPT‑5 använder ett mer optimerat och energisnålt system för att bearbeta språk, bild, kod och instruktioner i ett gemensamt ramverk.

Det här gör modellen snabbare i användning, och billigare att köra – något som märks i både gratis- och betalkonton. Även gratisanvändare får nu tillgång till GPT‑5, men med begränsad tillgång till de mest avancerade funktionerna.

AI som kan bygga mjukvara

En annan uppmärksammad skillnad är GPT‑5:s förmåga att generera färdig mjukvara på begäran. Det handlar inte bara om att skriva kod – modellen kan nu förstå ett helt användarflöde, skapa backend- och frontend-struktur, föreslå designbeslut och förbättra säkerhet i ett och samma steg.

Det här har fått flera bedömare att kalla GPT‑5 för ett möjligt “no-code‑verktyg för AI-eran”, där användaren i praktiken kan beskriva en app i ord – och få tillbaka en fungerande struktur med kommentarer, beroenden och förslag till förbättringar.

Ingen AGI – än

Trots förbättringarna är GPT‑5 inte ett exempel på generell artificiell intelligens, AGI. Modellen saknar fortfarande förmåga till självreflektion, långsiktigt minne och kontinuerlig inlärning utanför den egna kontexten. Men enligt OpenAI är GPT‑5 ett stort steg på vägen – och den mest användbara modellen hittills för verkliga tillämpningar.

Sammanfattning

GPT‑5 är inte bara en snabbare version av GPT‑4 – det är en ny generation språkmodell med djupare förståelse, förbättrad träffsäkerhet, starkare resonemang och högre flexibilitet. Den ersätter tidigare modellval med ett mer intelligent system som väljer rätt typ av svar för rätt uppgift.

Skillnaden märks inte alltid direkt – men ställer du rätt frågor, och utmanar modellen på riktigt, så märker du snart: du pratar med något helt nytt.

Fakta:

GPT‑5 lanserades 7 augusti 2025
Erbjuds i ChatGPT under namnet GPT‑4o
Växlar automatiskt mellan tre lägen: standard, thinking, pro
Ger upp till 80 procent färre fel i faktasvar än GPT‑4
Förbättrat resonemang, minne och språkförståelse
Stöd för personliga profiler och samtalston
Används för kod, text, design, analys och översättning
Kan generera mjukvara med backend och frontend
Erbjuds i varianterna GPT‑5 mini, nano och pro
Tillgänglig för både gratis- och Plus-användare
Är inte AGI men byggd för skalbarhet och framtida tillväxt

Källor:

Det krävs tålamod, massor av tålamod att jobba med AI

Det krävs tålamod, massor av tålamod att jobba med AI

blank

Dagens chatbotar, ChatGPT, Lovable, Claude, Gemini med flera lider av samma problem – de vill göra dig till lags, de vill svara blixtsnabbt och när de inte hittar svar så hittar de på. De är som en snacksalig medarbetare som ofta är mycket effektiv men som du måste lära upp, varje morgon.

Jag lät ChatGPT skapa en enkel widget och lät bli att ge mig in i koden och korrigera något själv för att se hur många versioner det skulle bli för att korrigera ett tämligen enkelt fel med tidszoner. Det blev sammanlagt 15 versioner – utan att ChatGPT lyckades hitta en lösning för att hantera svensk tid, femton versioner.

När jag till slut inte hade mer tålamod så gick jag in, plockade ut koden, ställde en fråga om det var kodavsnittet som hanterade tiden och jag påtalade också att koden måste reglera sommartid och förslagsvis också utgå ifrån webbplatsens inställda tidszon.

Hittade rätt

Då hittade ChatGPT rätt direkt men jag kunde konstatera att filen också innehöll fyra tidskorrigeringar som alla tog ut varandra. Det är ett fel som ingen utvecklare skulle göra men där ChatGPT fortsatte att leverera version efter version, som AI-boten dessutom varje gång tvärsäkert fastslog skulle fixa felet.

Du får också räkna med att du inte kommer att kunna utveckla dina resonemang, du kan inte tänka högt i sällskap med en AI-bott. De kommer att dundra igång direkt, skriva ny kod, ny text eller leverera nya svar innan du ens hunnit formulera dig färdigt. Ställ en enkel kort fråga och hela skärmen fylls med text, direkt.

Räkna också iskallt med att varje morgon, varje gång du startar en ny session så är det som att börja om. Din AI-bot har glömt allt, även om du har satt upp regler för hur text ska hanteras, hur bilder ska se ut – boten minns på det hela taget ingenting, inte ens om du hänvisar till reglerna. Börja alltså alla dagar med att upprepa reglerna.

Ljuger

Allt det där kan jag leva med. Det går att korrigera och få rätt men det finns en sak som inte gör det – när AI-funktionen hittar på, ljuger och hallucinerar som det kallas på fackspråk. I min värld så ljuger AI-boten. Den hittar på ett svar, taget helt ur luften och serverar sin lögn på ett lika självklart som självsäkert sätt som alla andra svar. AI-funktionen kan också ta egna initiativ utan att den kan förklara förklara varför.

Det innebär att AI-boten kan ta helt fullt ut fungerande kod, utan förvarning byta ut alla server-kommandon mot en ny uppsättning som inte fungerar, för att ta ett exempel. När du frågar vad den har gjort så svarar den att den bytt alla kommandon mot andra kommandon som den vet inte är lika stabila och pålitliga men den har gjort det i alla fall.

AI-boten kan presentera citera expert i en text som inte finns, som är påhittad men kontexten ser trovärdig ut liksom uttalandet, citatet. Expertens uttalande passar in i sitt sammanhang och det ser trovärdigt ut.

AI-boten kan påstå att saker som aldrig har hänt faktiskt har inträffat, tvärsäkert. Den kan dra fullständigt vanvettigt felaktiga slutsatser så det gäller att ha koll och hänga med.

Kunna ämnet

Du måste ovillkorligen kunna ämnet som behandlas därför du kan aldrig, och då menar jag verkligen aldrig, lita på de svar du får. Lögner serverar lika otvunget och snabbt som korrekt, verifierbara fakta. Källhänvisningar är därför AO och O, om du som jag använder ChatGPT för att samla in underlag för texter. Nu kan det kanske låta som att AI inte går att lita på överhuvudtaget men riktigt så illa är det inte. Rätt använd, med regler och krav på verifierbara data/fakta så går det undan och du kan få korrekta svar som det skulle ta åtskilliga timmar av mer traditionellt inhämtande av fakta.

Skriver illa

När jag använder ChatGPT så kan jag konstatera att AI-boten skriver illa, inte kan skilja mellan huvudsats och bisats och inte behärskar svensk grammatik. Meningar kan inledas med men, att eller om vilket i min konservativa språkliga värld inte ska få förekomma. En sak kan ChatGPT – rätta mina stavfel, mina slarvfel som har sin grund i att jag skriver mycket snabbt, så snabbt att tecken inte alltid landar i rätt ordning eller där den förhatliga rättstavningen, som aldrig tycks bli bättre, och som korrigerar ett ord och byter det till ett nytt ord som inte hör hemma i sammanhanget.

Använda

Jag fortsätter att använda AI, trots fel och brister därför att sammantaget så sparar jag tid, massor av tid och jag kan skapa och göra saker som jag egentligen inte behärskar – utan AI. Det krävs tålamod, massor av tålamod och ibland brister det och jag skickar iväg svavelosande långa haranger med svordomar – bara för att få tillbaka ett artigt svar där ChatGPT (den AI-bot som jag använder mest) lägger sig platt och ber om ursäkt samt slösar bort min tid med att berätta alla fel som den vet att den just gjort.

Sen har jag lärt mig att varje morgon måste vi gå igenom alla regler så det är möjligt att AI är ett verktyg som blir alltmera lika oss människor i sitt sätt att resonera men minne har botarna i alla fall inte.

ps. vi måste hitta ett vettigt svensk ord för bot, bots, botar, bottar och allt vad de nu kallas.

Forskare varnar: AI-kod smyger in säkerhetsbrister

Forskare varnar: AI-kod smyger in säkerhetsbrister

blank

Kod som skrivs med hjälp av AI-verktyg som ChatGPT och GitHub Copilot används nu i stor skala – även i säkerhetskritiska system. Samtidigt är det fortfarande oklart vem som bär ansvaret när dessa verktyg producerar kod med allvarliga sårbarheter.

En ny studie från Cornell Tech och det tyska Max Planck-institutet visar att många utvecklare som använder AI-assistans har bristande förståelse för säkerhetskonsekvenserna. Många litar blint på den genererade koden, utan att göra nödvändiga kontroller. Enligt forskarna används AI-kod i allt från webbapplikationer till infrastrukturprojekt – trots att verktygen kan generera farliga misstag, exempelvis felaktig hantering av inloggning, bristfällig kryptering eller sårbara API-anrop.

Användningen sker ofta i stressade miljöer där utvecklare prioriterar snabb leverans. Resultatet är att AI-genererad kod införs direkt i skarpa system – utan granskning, utan tester, och i vissa fall utan att den mänskliga utvecklaren förstår vad koden egentligen gör.

Ingen ansvarig

Forskarnas största kritik riktas dock inte mot utvecklarna, utan mot teknikföretagen. OpenAI, Google, Microsoft och andra aktörer som står bakom de stora språkmodellerna lägger hela ansvaret på användaren. Samtidigt har de kommersialiserat sina verktyg och uppmuntrar utvecklare att integrera AI i sina arbetsflöden.

Det har lett till en situation där ingen egentligen är ansvarig om AI-genererad kod leder till säkerhetsincidenter. Det saknas också reglering kring hur dessa verktyg får användas i kritisk mjukvara – och någon kvalitetskontroll existerar inte.

Enligt forskarna krävs nu både tekniska förbättringar och politiska åtgärder. Verktygen behöver varningssystem som markerar riskabel kod och användare måste utbildas i säkerhetsbedömning. Men framför allt behövs tydligare regler för ansvarsfördelning – och transparens kring hur verktygen fungerar och tränats.

Huvudkälla: Help Net Security

Nya Claude klarar kod, logik och längre tankekedjor

Nya Claude klarar kod, logik och längre tankekedjor

blank

Anthropic har släppt en ny version av sin avancerade AI-modell. Claude Opus 4.1 är en förbättrad uppföljare till Opus 4, med tydliga framsteg när det gäller kodanalys, logiska resonemang och självstyrande arbetsuppgifter.

Enligt Anthropic presterar den nya modellen bättre på komplexa utmaningar som kräver flera steg, lång kontext och självständig uppgiftslösning – det som ibland beskrivs som AI-agenter.

Testresultaten visar att modellen når 74,5 procent på SWE-bench Verified, ett benchmark som används för att mäta AI:s tekniska kapacitet. Tidigare versioner har legat klart lägre. Claude Sonnet 3.7 nådde 62,3 procent och Opus 4 låg på 72,5. Modellen används nu av utvecklare hos bland annat GitHub, där man lyfter fram att Claude Opus 4.1 kan föreslå förbättringar i kod utan att införa nya fel. Det är en egenskap som blivit särskilt viktig när AI används i produktionsmiljöer.

Flera utvecklingsplattformar uppger att modellen överträffar sina föregångare även i praktiska tester med juniora programmerare. Enligt Anthropic är skillnaderna särskilt tydliga när det gäller verktyg som kräver lång arbetsminneskapacitet, korsreferenser och logiska resonemang. Den nya modellen finns tillgänglig via Claude Pro, Max, Team och Enterprise – samt genom samarbeten med Google Cloud, Amazon Bedrock, GitHub Copilot och via företagets egna API. Prissättningen är oförändrad jämfört med Opus 4.

Källa: 9to5Mac

ChatGPT 5 är här – men OpenAI låtsas som ingenting

ChatGPT 5 är här – men OpenAI låtsas som ingenting

blank

Nu har den nya versionen av ChatGPT har rullats ut – men du ser det inte. Det står fortfarande GPT‑4o i gränssnittet. Du får inga notiser, ingen knapp att trycka på, inga inställningar att slå på. Ändå har du nu tillgång till en av de mest avancerade språkmodeller som någonsin skapats (hittills): GPT‑5.

OpenAI släppte officiellt den nya versionen den 7 augusti. Det var ingen stor presskonferens. Ingen stor nu design. Istället smögs uppdateringen ut som en del av företagets pågående finjustering av ChatGPT-tjänsten. Resultatet: när du öppnar ChatGPT i dag – oavsett om du använder gratisversionen eller Plus – är det med stor sannolikhet GPT‑5 som svarar dig.

Namnet är kvar, men innehållet har bytts ut

Modellen kallas fortfarande GPT‑4o i gränssnittet. Det är ett medvetet val. OpenAI har valt att inte skylta med versionsnumret, trots att det rör sig om en helt ny språkmodell under huven. Den är tränad på mer data, bättre optimerad för dialog och har en rad förbättringar inom minne, logik, flerspråkighet och resonemang.

Den stora skillnaden märks när du ber modellen skriva något kreativt eller lösa något komplext. GPT‑5 är bättre på att resonera över flera steg, hålla ihop längre texter, växla stilistiskt språk och anpassa tonen till målgruppen. Den kan skriva berättelser med parallella tidslinjer, hantera poetiska texter, resonera som en expert – och ändå hålla tråden.

För användare på Plus-nivån sker allt detta automatiskt. Du behöver inte välja någon särskild modell. Det finns inga “GPT‑5”-etiketter att klicka på. Istället väljer OpenAIs system i bakgrunden vilken modell du får baserat på uppgiftens svårighetsgrad. Enkla frågor kan fortfarande besvaras av en lättare, billigare variant (“GPT‑5 mini”), medan tyngre frågor växlar över till det fulla GPT‑5-resonemanget.

Gratisanvändare får också GPT‑5 – men i begränsad form

Enligt OpenAI har även gratisanvändare fått tillgång till GPT‑5, men med begränsade kvoter och mindre beräkningskraft per svar. Det innebär att du som gratiskund fortfarande kan få högkvalitativa svar – men inte lika ofta, och inte lika djupt.

De stora skillnaderna ligger i hur länge modellen kan hålla en tråd, hur komplexa texter den orkar generera och hur precist den tolkar sammanhang. Plus- och Team-användare får mer kapacitet och bättre svar – men även där sker all modellväxling i bakgrunden, utan synlig kontroll.

Den mest mänskliga AI:n hittills?

OpenAI själva beskriver GPT‑5 som ett tekniskt och språkligt genombrott. Den ska ha “nästan mänsklig konversationsförmåga” och beskriver sig själv som “betydligt mer användbar” än tidigare versioner. Det handlar inte bara om bättre texter, utan också om hur modellen förstår intentioner, emotionellt tonläge och kulturella nyanser.

Många användare rapporterar att ChatGPT nu känns mer intuitiv, mer följsam – och ibland nästan lite för träffsäker. Samtidigt kvarstår begränsningar: GPT‑5 är fortfarande inte perfekt. Den hallucinerar ibland, tappar tråden i mycket långa konversationer och har fortfarande svårt med faktakontroll i vissa sammanhang, men skillnaden mot tidigare versioner är tydlig.

Framtiden?

GPT‑5 är inte slutmålet. OpenAI har redan börjat utvecklingen av nästa modell, och planerna på ännu större språkarkitekturer – med verkligt långtidsminne och självreflektion – diskuteras öppet. Men med GPT‑5 har ett tydligt steg tagits mot AI som inte bara svarar – utan förstår vad du egentligen frågar efter.

Det är framtiden, och den har redan börjat.

Källa: openai.com

Apple testar ny AI‑chatt i Support‑appen

Apple testar ny AI‑chatt i Support‑appen

blank

Apple har inlett ett begränsat test av en AI‑driven chattfunktion kallad Support Assistant i Support‑appen. Funktionen är tillgänglig för ett urval användare via en ny flik märkt “Chat” och beskrivs som en tidig förhandsversion med möjlighet att lösa enklare supportärenden. Om tjänsten inte räcker till kan användaren välja att kopplas vidare till en Apple‑expert.

När en testanvändare öppnar chattfunktionen möts hen av en informationsskärm som varnar för att Support Assistant är experimentell. Användaren uppmanas att kontrollera viktig information själv, eftersom chattboten kan göra misstag. Apple meddelar också att data från användningen kan delas med företagets partners för att förbättra tjänsten.

Enligt uppgifter bygger funktionen på generativa AI‑modeller, men det är ännu oklart om dessa är utvecklade av Apple själva eller kommer från tredjepart. Målet är att automatisera svar på vanliga frågor om Apple‑produkter, inte att diskutera bredare ämnen eller framtida teknik.

Före detta Apple‑anställda har beskrivit funktionen som ett möjligt sätt att minska trycket på supporten. Om enklare problem kan lösas direkt i appen kan fler fysiska butiksmöten bli mer relevanta. Samtidigt finns det risker för felaktiga svar och behov av tydlig märkning för att undvika missförstånd.

Det finns ännu ingen uppgift om när – eller om – funktionen kommer att lanseras brett. För närvarande är det en begränsad testfunktion med målet att effektivisera användarupplevelsen.

Källa: 9to5Mac