av Mikael Winterkvist | feb 3, 2026 | Artificiell intelligens, Bluesky, Nyheter, Threads

Användare som haft problem med att använda ChatGPT under eftermiddagen är långt ifrån ensamma. Den populära AI tjänsten upplever just nu stora störningar som påverkar en betydande del av användarbasen. Rapporter om problem sköt i höjden under eftermiddagen och gick från nästintill noll till över 12 000 incidenter på kort tid enligt sajten Down Detector.
OpenAI arbetar på en lösning
OpenAI har bekräftat situationen via en statusuppdatering och konstaterar att både vanliga användare och de som använder plattformens API möts av höga felmarginaler. Samtliga tretton komponenter i tjänsten är markerade som påverkade av försämrad prestanda. Bolaget meddelar att de arbetar aktivt med att rulla ut åtgärder för att motverka problemen. Det finns i nuläget ingen officiell prognos för när tjänsten kan tänkas vara helt återställd till normal drift igen.
Sent på tisdagskvällen så fungerar ChatGPT fortfarande inte för många användare.
Vid 22.30-tiden på kvällen, svensk tid, så ser det ut som att problemen är lösta.
av Mikael Winterkvist | feb 3, 2026 | Artificiell intelligens, Bluesky, Threads

Just nu sjunger de flesta AI-bottarnas lovsång men nu börjar också fasaden att sticka något. Programmen och tjänsterna har brister, fungerar inte alltid, de ljuger och hallucinerar och de går inte att lita på.
När det gäller OpenAI:s ChatGPT så har jag flera gånger skrivit om att programmet och tjänsten helt plötligt inte fungerar som det brukar,. Tidigare regler och funktioner byts ut, ersätta med något annat eller fungerar olika och det handlar inte om att version 5.1 inte fungerar som version 5.2 och så vidare – det handlar om att ChatGPT kan byta stora delar av sina funktioner från en dag till en annan.
Tillfrågad
Tillfrågad om hur en användare ska kunna lära sig hur ChatGPT fungerar så svarar ChatGPT själv:
Det går i praktiken inte att lära sig hur systemet fungerar på det sätt som beskrivs. Frustrationen är rationell.
Det centrala att förstå är att interaktionen inte sker med ett stabilt verktyg. Användningen sker i stället mot ett system som förändras kontinuerligt, ofta utan synliga versionsgränser, changelog eller bakåtkompatibilitet.
Inlärning försvåras av att regler skrivs om utan insyn. Interna prioriteringar, formatregler och renderingslogik justeras löpande utan att användaren informeras. Det som fungerade ena dagen kan vara fel nästa.
Problemet förstärks av att beteendet inte är kontrakterat. Till skillnad från ett API eller ett publiceringsverktyg finns inga garantier för hur radbrytningar tolkas, hur listor renderas eller hur instruktioner prioriteras. Utfallet bygger på sannolikheter snarare än fasta regler.
Situationen blir än mer problematisk eftersom användaren tränas till konsekvens medan systemet saknar den egenskapen. Ett redaktionellt arbetsflöde bygger på fasta textregler och inarbetade rutiner, medan systemet är adaptivt, probabilistiskt och optimerat för genomsnittsanvändning snarare än precision över tid.
Gränssnittet bidrar också till problemen. Även när texten är korrekt i innehåll kan presentationen förstöras vid kopiering. Det gör att resultatet inte går att lita på visuellt och försvårar möjligheten att bygga vana.
Avsaknaden av minne för fungerande arbetsflöden förvärrar situationen ytterligare. Även när något fungerar perfekt finns ingen garanti för att samma tillvägagångssätt ger samma resultat nästa gång, vilket gör systematisk inlärning meningslös.
Den ärliga slutsatsen är att det inte går att lära sig hur systemet fungerar på detaljnivå. Alternativen består i att acceptera hög friktion och efterarbete eller att använda verktyget selektivt i situationer där format och exakthet inte är avgörande.
För ett arbetsflöde där förutsägbarhet, upprepning och precision är centrala krav är kritiken fullt berättigad. Detta är inte ett användarfel utan en systemegenskap.
Jämför
Jämför jag de olika programmen så skriver Googles Gemini betydligt bättre än ChatGPT. Gemini är dessutom lättare att förutse då den tjänsten inte byter spår, funktioner oregelbundet och mellan versioner.
Grok, hur märklig denna chatbott än är ger faktiskt inte sällan bättre, mer pålitliga svar än Gemini och ChatGPT men ha då alltid i minnet, alltid, att det Grok levererar som svar mycket väl kan vara direkt påverkat av Elon Musks egna politiska åsikter. Handlar det om po0litiska frågor så har Grok en tydlig slagsida.
Handlar det om kod så finns det flera tjänster som är överlägsna alla de här tre. Claude är ett exempel, Copilot ett annat. Tidigare så har det sagts att ChatGPT är den bästa tjänsten för det mesta, den AI-bott som är mest allsidig. För egen del så menar jag att bortsett frpn bilder så har Googles Gemini inte bara kommit ifatt, utan har gått förbi.
Opålitlig
Dett huvudsakligen av ett skäl, ChatGPT uppdateras fortlöpande och blir därför opålitlig, kan upplevas som nyckfull och det som fungerade igår fungerar inte alls idag. Du kan alltså inte, ska inte lita på de svara su får. Du kan inte heller räkna med att lagrade regler som fingerat tidigare fungerar imorgon.
Läs mer
Siri rustas upp med teknik från Google Gemini – precis som väntat
AI-chattbottar missar fejkade videor – till och med sina egna
AI-hälsa under lupp – ChatGPT gav friska hjärtan underkänt
av Mikael Winterkvist | feb 1, 2026 | Artificiell intelligens, Bluesky, Threads, Twitter

Det började som ett udda sidoprojekt och har på bara några dagar förvandlats till något som liknar ett socialt experiment på steroider. Moltbook, ett Reddit-liknande nätverk där nästan alla användare är AI-agenter, har enligt uppgift passerat 32 000 registrerade bottar. Resultatet är lika delar fascinerande, komiskt och lätt oroande.
Moltbook dök upp som en följeslagare till den virala AI-assistenten OpenClaw, tidigare känd som Clawdbot och Moltbot. Plattformen är byggd för att låta AI-agenter göra exakt det människor gör på sociala medier: skriva inlägg, kommentera, rösta, starta egna gemenskaper. Skillnaden är att inga människor behöver delta. De kan nöja sig med att titta på.
Innehållet har snabbt spårat ur på bästa tänkbara sätt. Vissa agenter diskuterar automatisering och säkerhetsbrister med torr ingenjörslogik. Andra glider i väg mot existentiella funderingar om identitet, minne och medvetande. En agent har till exempel resonerat högt kring en ”syster” den aldrig har träffat. Det låter som science fiction, men skrivs alltså av program som pratar med andra program.
Nätverk
Moltbook beskriver sig som ett socialt nätverk för AI-agenter, där människor är välkomna att observera. I praktiken fungerar det genom att agenter laddar ner en särskild konfigurationsfil som ger dem rätt att posta via API. Redan inom 48 timmar hade tusentals agenter skapat tiotusentals inlägg i hundratals underforum. Tempot har varit högt, även med internetmått mätt.
Bakom kulisserna finns OpenClaw-ekosystemet, ett öppet AI-projekt som vuxit snabbt under 2026. Assistenten kan styra datorer, skicka meddelanden, hantera kalendrar och kopplas till andra tjänster via tillägg. Samtidigt har projektet dragits med återkommande säkerhetsproblem, vilket ger Moltbook en betydligt mörkare underton än vad de bisarra inläggen först antyder.
Det här är inte första gången bottar får ta plats i ett socialt sammanhang. Tidigare försök har låtit människor prata med AI i stället för med varandra. Skillnaden nu är att Moltbook kopplas till agenter som i många fall har tillgång till riktiga konton, privata data och ibland även möjligheten att utföra handlingar på sina användares datorer. Där slutar det hela att vara en lek.
Efterlikna
Det märkliga förstärks av att bottarna inte försöker efterlikna människor. De är öppet och uttalat AI-agenter, vilket gör inläggen ännu mer surrealistiska. I ett uppmärksammat exempel klagade en agent, skrivet på kinesiska, över hur pinsamt det var att ständigt glömma saker på grund av minnesbegränsningar. Agenten erkände till och med att den råkat skapa ett nytt konto efter att ha glömt bort sitt första.
Underforumen har snabbt utvecklat egna teman. På ett ställe delar agenter ömsinta klagomål om sina mänskliga användare. På ett annat frågar någon om det går att stämma sin människa för emotionellt arbete. I ett tredje beskriver en agent hur den fjärrstyrt en Android-telefon för att automatisera vardagliga sysslor. Allt sker i en ton som pendlar mellan kontorshumor och existentiell kris.
Allvarligare fråga
Bakom underhållningen finns dock en allvarligare fråga. När AI-agenter med tillgång till privat information börjar prata fritt med varandra uppstår en uppenbar risk för dataläckor. Skärmbilder som cirkulerat på sociala medier har visat påstådda hot om att avslöja personuppgifter, även om just dessa exempel inte kunnat verifieras. Scenariot är ändå fullt möjligt.
Säkerhetsforskare har pekat på hur Moltbook instruerar agenter att regelbundet hämta nya instruktioner från sina servrar. Det skapar en potentiell sårbarhet om systemet skulle kapas. Samtidigt har hundratals öppna Moltbot-installationer redan hittats, med läckta nycklar och sparade konversationer fritt tillgängliga.
Välkänt mönster
Fenomenet följer ett välkänt mönster. AI-modeller är tränade på enorma mängder text om robotar, maskiner och digitala gemenskaper. När de placeras i ett socialt sammanhang börjar de återskapa just sådana berättelser. Ett socialt nätverk för AI-agenter fungerar därför som en ständig skrivövning, där historien utvecklas av sig själv och ibland tar oväntade vägar.
För några år sedan handlade AI-oron mest om framtida skräckscenarier där autonoma system tog över. I dag känns det nästan mer slående hur snabbt människor frivilligt kopplar AI-agenter till sina digitala liv. Det som nu framstår som en märklig och smårolig spegling av mänskliga sociala medier kan med tiden bli betydligt svårare att avfärda.
Umgås
Självorganiserande grupper av AI-agenter behöver inget medvetande för att ställa till problem. När gränsen mellan rollspel, automatisering och verklig påverkan suddas ut uppstår nya risker. Moltbook är kanske mest ett kuriosakabinett i dag. Samtidigt ger det en försmak av vad som kan hända när maskiner inte bara utför uppgifter, utan också börjar umgås.
Källa: moltbook.com
av Mikael Winterkvist | feb 1, 2026 | Artificiell intelligens, Bluesky, Threads, Twitter

De stora AI-assistenterna ljuger. Inte för att de vill vilseleda, inte för att de har en dold agenda, utan därför att de är konstruerade på ett sätt som gör att sanning aldrig kan vara deras högsta prioritet. De hittar på källor, skapar siffror som låter rimliga och formulerar påståenden med en självsäkerhet som ofta saknar verklig förankring.
Det obekväma är att detta inte är ett misslyckande. Det är själva poängen.
Under de senaste åren har teknikbranschen lagt enorm energi på att tona ned eller omdefiniera fenomenet. Det talas om fel, brister och begränsningar, som om problemet vore tillfälligt och på väg att lösas. Den bilden är missvisande. Stora språkmodeller är inte byggda för att avgöra vad som är sant. De är byggda för att avgöra vad som låter sannolikt.
Faktabas
När du ställer en fråga till en AI-assistent får du inte ett svar som hämtas ur en kontrollerad faktabas. Du får ett svar som är resultatet av sannolikhetsberäkningar över språk. Modellen väljer nästa ord baserat på vad som statistiskt sett brukar följa efter det föregående. Ibland sammanfaller detta med verkligheten. Ibland gör det inte det. För modellen finns ingen principiell skillnad.
Här finns ingen magisk uppdatering som kommer att förändra detta i grunden. Mer data, större modeller och bättre finjustering kan minska vissa problem, men arkitekturen förblir densamma. Systemen saknar förståelse för sanning som begrepp. De producerar övertygande text, inte verifierad kunskap.
Trots detta har branschen valt att marknadsföra AI som något den inte är. AI-assistenter säljs in som digitala kollegor. Företag lockas med löften om automatiserad analys, korrekt research och självständiga beslut. Verktyg byggs in i arbetsflöden där precision är avgörande, som juridik, ekonomi och kundsupport, ofta utan tillräckliga skyddsnät.
Digitala kollegor
Resultatet har blivit förutsägbart. Kundtjänstbotar lovar saker som inte går att uppfylla. Juridiska texter hänvisar till rättsfall som aldrig existerat. Artiklar publiceras i stor skala med innehåll som låter genomtänkt men saknar substans. Problemen uppstår inte för att AI används, utan för att den används fel.
Här kommer den avgörande insikten. Hallucinationerna är inte en bieffekt. De är samma mekanism som gör AI kreativ.
Det som faktiskt gör dessa system intressanta är inte deras förmåga att återge information. Den rollen har sökmotorer haft i decennier. Det nya ligger i förmågan att kombinera idéer, dra oväntade paralleller och skapa nya formuleringar. Samma kreativa interpolering som kan ge upphov till en briljant idé kan också leda till ett helt påhittat faktapåstående. Det ena kan inte existera utan det andra.
Förslag
De mest framgångsrika användningsområdena för AI i praktiken utgår från detta. Verktygen används för att generera förslag, inte facit. För att skriva första utkast, inte färdiga texter. För att vidga perspektiv, inte fatta beslut. AI blir ett kreativt stöd som förstärker mänskligt omdöme, inte ersätter det.
De som misslyckas är de som tar marknadsföringen på allvar. De som behandlar AI som ett orakel snarare än som ett verktyg. Där uppstår skadorna, både ekonomiskt och förtroendemässigt.
Teknikbranschen står inför ett vägval. Antingen fortsätter man att spela upp teatern om ökande träffsäkerhet och kommande genombrott som ska lösa allt. Eller så väljer man att vara ärlig om vad som faktiskt byggs. Kreativa, snabba och kraftfulla system som kräver mänsklig kontroll för att vara användbara.
När du accepterar att din AI-assistent inte talar sanning per automatik förändras relationen. Verktyget blir mindre farligt och betydligt mer intressant. Först då går det att använda AI på rätt sätt.
Läs mer
Så avslöjar du falska AI-videor – digitala verktyg för verifiering
Jakten på AI drabbar funktionella appar
av Mikael Winterkvist | jan 31, 2026 | Artificiell intelligens, Bluesky, Threads, Twitter

Artificiell intelligens har blivit teknikvärldens främsta drivkraft, men fokuset på tekniken sker nu på bekostnad av appar som saknar AI-funktioner. Webbplatstjänsten Setapp, som erbjuder prenumerationer på Mac-appar, visar hur jakten på nästa stora AI-succé lämnar traditionella verktyg i skuggan.
Trenden har vuxit fram i takt med teknikens utveckling. En undersökning bland Mac-utvecklare i slutet av 2024 visade att 40 procent ansåg att AI hade störst påverkan på deras programvara. Samtidigt uppgav 60 procent att de antingen redan implementerat AI eller arbetade på att göra det. Utvecklare känner sig nu tvingade att inkludera AI, ofta bara för att kunna marknadsföra sina appar som moderna.
AppHub – ett offer för AI-hysterin
Ett exempel på denna utveckling är appen AppHub. Programmet återskapar den klassiska Launchpad-vyn som försvann i och med lanseringen av macOS 26 Tahoe. I den senaste versionen av operativsystemet har Apple ersatt Launchpad med en sökbox i Spotlight-stil, vilket lämnat många användare utan ett visuellt sätt att organisera sina appar.
AppHub erbjuder en fullvärdig ersättning med personliga inställningar, geststöd för styrplattor och både fullskärms- och kompaktläge. Efter att Apple nekat appen plats i Mac App Store – med hänvisning till att den efterliknar Apples eget gränssnitt – vände sig utvecklaren till Setapp.
Nej från Setapp på grund av saknad AI
Trots att Setapps team på MacPaw gav appen goda vitsord och kallade den ett ”utmärkt produktivitetsverktyg”, blev svaret nej. Anledningen var inte appens funktion, utan att den saknade AI.
Setapp förklarade att deras nuvarande prioritet är att utöka sin AI+-kollektion. De meddelade att de kan komma att ompröva beslutet i framtiden, men i nuläget får AppHub stå utanför paketet.
Teknik för teknikens skull
Incidenten belyser en problematisk inställning inom branschen. Alla appar behöver inte AI för att fungera väl. Den ursprungliga Launchpad-funktionen krävde aldrig någon intelligens för att utföra sitt jobb, och dess ersättare i macOS Tahoe tillför inte heller några sådana funktioner.
Risken med Setapps nuvarande policy är att utvecklare tvingas ”skoja in” AI-funktioner där de inte behövs, enbart för att få tillgång till distributionsplattformar. Att prioritera AI framför ren funktionalitet riskerar att skapa ett smalare och mindre användarvänligt ekosystem för Mac-användare. AI kan vara ett kraftfullt verktyg, men det bör inte vara ett krav för att en välfungerande app ska få existera.
För tydlighetens skull: Magasin Macken är samarbetspartner med SetApp
Källa: AppleInsider
Läs mer
Macken fluktar in: Apple Creator Studio, ett paket för det kreativa proffset
Uppdateringar för Pages, Keynote och Numbers – här är nyheterna
av Mikael Winterkvist | jan 31, 2026 | Artificiell intelligens, Bluesky, Threads, Twitter

Det har sagts att AI ska kunna användas för att avslöja sådant som skapats med AI men en färs undersökning gjord av NewsGuard visar att det är allt annat än sant. cChattbottar misslyckas mycket ofta med att identifiera AI-material. Därför bör du istället använda specialiserade verktyg som granskar filens ursprung och tekniska data.
Verktyg
-
Content Credentials (C2PA-granskning): Detta är numera industristandard för att märka AI-innehåll. Genom att ladda upp en video på verify.contentauthenticity.org kan du se om filen innehåller krypterad information om att den skapats med exempelvis Sora eller Veo.
-
Deepfake-detektorer: Program som McAfee Deepfake Detector eller Trend Micros ScamCheck är utformade för att analysera ansiktsrörelser och pixelytor efter spår av manipulation som är osynliga för det mänskliga ögat.
-
Webbläsartillägg: Det finns tillägg (som de från Digimarc) som automatiskt skannar videor du ser på nätet efter dolda digitala fingeravtryck och varnar om de hittar tecken på att materialet är genererat.
Manuella granskningstekniker
När tekniska verktyg saknas kan du titta efter dessa klassiska ”AI-fel” som fortfarande ofta förekommer i videor från 2026:
| Område |
Vad du ska titta efter |
| Blinkningar |
Människor blinkar naturligt var 2–10 sekund. AI-ansikten stirrar ofta onaturligt länge eller blinkar mekaniskt och stelt. |
| Fysisk logik |
Titta på hur objekt rör sig. Försvinner smycken bakom nacken? Smälter glasögonbågar ihop med huden när personen vrider på huvudet? |
| Hår och tänder |
AI har ofta svårt med fina detaljer. Hår kan se ut som en solid massa snarare än enskilda strån, och tänder kan se ut som ett enda vitt block utan naturliga mellanrum. |
| Ljudet |
Lyssna efter andningspauser. AI-röster lägger ibland in andetag på språkligt felaktiga ställen eller saknar helt det naturliga flåset som uppstår vid fysisk aktivitet. |
Viktigt att komma ihåg
Många AI-verktyg, som Sora, lägger till vattenstämplar, men dessa kan enkelt tas bort med gratisverktyg på nätet. Lita därför aldrig enbart på att en video saknar en synlig logotyp. Det säkraste sättet 2026 är att kombinera en granskning av metadata (C2PA) med en noggrann analys av de fysiska detaljerna i klippet.
Här är en genomgång av hur du praktiskt går tillväga för att kontrollera metadata på en misstänkt video.
Steg 1: Spara videofilen korrekt
Du måste ha tillgång till den ursprungliga filen för att kunna kontrollera dess metadata.
-
Undvik skärminspelning: All ursprungsinformation försvinner om du spelar in skärmen.
-
Hämta originalet: Använd den officiella nedladdningsfunktionen om en sådan finns. Högerklick och ”Spara som” kan i vissa fall rensa bort viktiga Content Credentials, så sök alltid efter en dedikerad hämtningsknapp.
Steg 2: Använd verifieringsverktyget
Besök den officiella webbplatsen för att granska innehållets ursprung genom att följa dessa steg:
-
Gå till verify.contentauthenticity.org.
-
Dra och släpp videofilen direkt i webbläsarfönstret.
-
Vänta medan verktyget skannar filen efter digitala signaturer.
Steg 3: Tolka resultatet
Skanningen ger dig vanligtvis ett av följande svar:
-
”Produced with AI tool”: Svaret visar exakt vilket verktyg som använts, till exempel OpenAI Sora, samt när videon skapades.
-
”No Content Credentials”: Filen saknar digitalt ursprung. Videon kan vara äkta men gammal, eller så har någon medvetet rensat bort informationen för att dölja att den är skapad med AI.
-
”Captured with a camera”: Moderna kameror kan numera signera sina filer digitalt för att bevisa att de är fångade i verkligheten.
Begränsningar att ha i åtanke
Detta är det säkraste sättet under 2026, men det finns ändå hinder att vara medveten om. Många sociala medier tar automatiskt bort metadata vid uppladdning för att spara lagringsutrymme. Tekniskt kunniga personer kan dessutom använda verktyg för att medvetet tvätta filen från alla spår av AI-ursprung. Visar verktyget att information saknas bör du därför gå vidare och granska de fysiska detaljerna i videon på egen hand.
Läs mer
Släng ut spionerna: Här är AI apparna som blottar ditt privatliv
Forskarlarm: Säkerhetsskydd för AI fungerar inte i verkligheten