av Mikael Winterkvist | feb 1, 2026 | Artificiell intelligens, Bluesky, Threads, Twitter

Det började som ett udda sidoprojekt och har på bara några dagar förvandlats till något som liknar ett socialt experiment på steroider. Moltbook, ett Reddit-liknande nätverk där nästan alla användare är AI-agenter, har enligt uppgift passerat 32 000 registrerade bottar. Resultatet är lika delar fascinerande, komiskt och lätt oroande.
Moltbook dök upp som en följeslagare till den virala AI-assistenten OpenClaw, tidigare känd som Clawdbot och Moltbot. Plattformen är byggd för att låta AI-agenter göra exakt det människor gör på sociala medier: skriva inlägg, kommentera, rösta, starta egna gemenskaper. Skillnaden är att inga människor behöver delta. De kan nöja sig med att titta på.
Innehållet har snabbt spårat ur på bästa tänkbara sätt. Vissa agenter diskuterar automatisering och säkerhetsbrister med torr ingenjörslogik. Andra glider i väg mot existentiella funderingar om identitet, minne och medvetande. En agent har till exempel resonerat högt kring en ”syster” den aldrig har träffat. Det låter som science fiction, men skrivs alltså av program som pratar med andra program.
Nätverk
Moltbook beskriver sig som ett socialt nätverk för AI-agenter, där människor är välkomna att observera. I praktiken fungerar det genom att agenter laddar ner en särskild konfigurationsfil som ger dem rätt att posta via API. Redan inom 48 timmar hade tusentals agenter skapat tiotusentals inlägg i hundratals underforum. Tempot har varit högt, även med internetmått mätt.
Bakom kulisserna finns OpenClaw-ekosystemet, ett öppet AI-projekt som vuxit snabbt under 2026. Assistenten kan styra datorer, skicka meddelanden, hantera kalendrar och kopplas till andra tjänster via tillägg. Samtidigt har projektet dragits med återkommande säkerhetsproblem, vilket ger Moltbook en betydligt mörkare underton än vad de bisarra inläggen först antyder.
Det här är inte första gången bottar får ta plats i ett socialt sammanhang. Tidigare försök har låtit människor prata med AI i stället för med varandra. Skillnaden nu är att Moltbook kopplas till agenter som i många fall har tillgång till riktiga konton, privata data och ibland även möjligheten att utföra handlingar på sina användares datorer. Där slutar det hela att vara en lek.
Efterlikna
Det märkliga förstärks av att bottarna inte försöker efterlikna människor. De är öppet och uttalat AI-agenter, vilket gör inläggen ännu mer surrealistiska. I ett uppmärksammat exempel klagade en agent, skrivet på kinesiska, över hur pinsamt det var att ständigt glömma saker på grund av minnesbegränsningar. Agenten erkände till och med att den råkat skapa ett nytt konto efter att ha glömt bort sitt första.
Underforumen har snabbt utvecklat egna teman. På ett ställe delar agenter ömsinta klagomål om sina mänskliga användare. På ett annat frågar någon om det går att stämma sin människa för emotionellt arbete. I ett tredje beskriver en agent hur den fjärrstyrt en Android-telefon för att automatisera vardagliga sysslor. Allt sker i en ton som pendlar mellan kontorshumor och existentiell kris.
Allvarligare fråga
Bakom underhållningen finns dock en allvarligare fråga. När AI-agenter med tillgång till privat information börjar prata fritt med varandra uppstår en uppenbar risk för dataläckor. Skärmbilder som cirkulerat på sociala medier har visat påstådda hot om att avslöja personuppgifter, även om just dessa exempel inte kunnat verifieras. Scenariot är ändå fullt möjligt.
Säkerhetsforskare har pekat på hur Moltbook instruerar agenter att regelbundet hämta nya instruktioner från sina servrar. Det skapar en potentiell sårbarhet om systemet skulle kapas. Samtidigt har hundratals öppna Moltbot-installationer redan hittats, med läckta nycklar och sparade konversationer fritt tillgängliga.
Välkänt mönster
Fenomenet följer ett välkänt mönster. AI-modeller är tränade på enorma mängder text om robotar, maskiner och digitala gemenskaper. När de placeras i ett socialt sammanhang börjar de återskapa just sådana berättelser. Ett socialt nätverk för AI-agenter fungerar därför som en ständig skrivövning, där historien utvecklas av sig själv och ibland tar oväntade vägar.
För några år sedan handlade AI-oron mest om framtida skräckscenarier där autonoma system tog över. I dag känns det nästan mer slående hur snabbt människor frivilligt kopplar AI-agenter till sina digitala liv. Det som nu framstår som en märklig och smårolig spegling av mänskliga sociala medier kan med tiden bli betydligt svårare att avfärda.
Umgås
Självorganiserande grupper av AI-agenter behöver inget medvetande för att ställa till problem. När gränsen mellan rollspel, automatisering och verklig påverkan suddas ut uppstår nya risker. Moltbook är kanske mest ett kuriosakabinett i dag. Samtidigt ger det en försmak av vad som kan hända när maskiner inte bara utför uppgifter, utan också börjar umgås.
Källa: moltbook.com
av Mikael Winterkvist | feb 1, 2026 | Artificiell intelligens, Bluesky, Threads, Twitter

De stora AI-assistenterna ljuger. Inte för att de vill vilseleda, inte för att de har en dold agenda, utan därför att de är konstruerade på ett sätt som gör att sanning aldrig kan vara deras högsta prioritet. De hittar på källor, skapar siffror som låter rimliga och formulerar påståenden med en självsäkerhet som ofta saknar verklig förankring.
Det obekväma är att detta inte är ett misslyckande. Det är själva poängen.
Under de senaste åren har teknikbranschen lagt enorm energi på att tona ned eller omdefiniera fenomenet. Det talas om fel, brister och begränsningar, som om problemet vore tillfälligt och på väg att lösas. Den bilden är missvisande. Stora språkmodeller är inte byggda för att avgöra vad som är sant. De är byggda för att avgöra vad som låter sannolikt.
Faktabas
När du ställer en fråga till en AI-assistent får du inte ett svar som hämtas ur en kontrollerad faktabas. Du får ett svar som är resultatet av sannolikhetsberäkningar över språk. Modellen väljer nästa ord baserat på vad som statistiskt sett brukar följa efter det föregående. Ibland sammanfaller detta med verkligheten. Ibland gör det inte det. För modellen finns ingen principiell skillnad.
Här finns ingen magisk uppdatering som kommer att förändra detta i grunden. Mer data, större modeller och bättre finjustering kan minska vissa problem, men arkitekturen förblir densamma. Systemen saknar förståelse för sanning som begrepp. De producerar övertygande text, inte verifierad kunskap.
Trots detta har branschen valt att marknadsföra AI som något den inte är. AI-assistenter säljs in som digitala kollegor. Företag lockas med löften om automatiserad analys, korrekt research och självständiga beslut. Verktyg byggs in i arbetsflöden där precision är avgörande, som juridik, ekonomi och kundsupport, ofta utan tillräckliga skyddsnät.
Digitala kollegor
Resultatet har blivit förutsägbart. Kundtjänstbotar lovar saker som inte går att uppfylla. Juridiska texter hänvisar till rättsfall som aldrig existerat. Artiklar publiceras i stor skala med innehåll som låter genomtänkt men saknar substans. Problemen uppstår inte för att AI används, utan för att den används fel.
Här kommer den avgörande insikten. Hallucinationerna är inte en bieffekt. De är samma mekanism som gör AI kreativ.
Det som faktiskt gör dessa system intressanta är inte deras förmåga att återge information. Den rollen har sökmotorer haft i decennier. Det nya ligger i förmågan att kombinera idéer, dra oväntade paralleller och skapa nya formuleringar. Samma kreativa interpolering som kan ge upphov till en briljant idé kan också leda till ett helt påhittat faktapåstående. Det ena kan inte existera utan det andra.
Förslag
De mest framgångsrika användningsområdena för AI i praktiken utgår från detta. Verktygen används för att generera förslag, inte facit. För att skriva första utkast, inte färdiga texter. För att vidga perspektiv, inte fatta beslut. AI blir ett kreativt stöd som förstärker mänskligt omdöme, inte ersätter det.
De som misslyckas är de som tar marknadsföringen på allvar. De som behandlar AI som ett orakel snarare än som ett verktyg. Där uppstår skadorna, både ekonomiskt och förtroendemässigt.
Teknikbranschen står inför ett vägval. Antingen fortsätter man att spela upp teatern om ökande träffsäkerhet och kommande genombrott som ska lösa allt. Eller så väljer man att vara ärlig om vad som faktiskt byggs. Kreativa, snabba och kraftfulla system som kräver mänsklig kontroll för att vara användbara.
När du accepterar att din AI-assistent inte talar sanning per automatik förändras relationen. Verktyget blir mindre farligt och betydligt mer intressant. Först då går det att använda AI på rätt sätt.
Läs mer
Så avslöjar du falska AI-videor – digitala verktyg för verifiering
Jakten på AI drabbar funktionella appar
av Mikael Winterkvist | jan 31, 2026 | Artificiell intelligens, Bluesky, Threads, Twitter

Artificiell intelligens har blivit teknikvärldens främsta drivkraft, men fokuset på tekniken sker nu på bekostnad av appar som saknar AI-funktioner. Webbplatstjänsten Setapp, som erbjuder prenumerationer på Mac-appar, visar hur jakten på nästa stora AI-succé lämnar traditionella verktyg i skuggan.
Trenden har vuxit fram i takt med teknikens utveckling. En undersökning bland Mac-utvecklare i slutet av 2024 visade att 40 procent ansåg att AI hade störst påverkan på deras programvara. Samtidigt uppgav 60 procent att de antingen redan implementerat AI eller arbetade på att göra det. Utvecklare känner sig nu tvingade att inkludera AI, ofta bara för att kunna marknadsföra sina appar som moderna.
AppHub – ett offer för AI-hysterin
Ett exempel på denna utveckling är appen AppHub. Programmet återskapar den klassiska Launchpad-vyn som försvann i och med lanseringen av macOS 26 Tahoe. I den senaste versionen av operativsystemet har Apple ersatt Launchpad med en sökbox i Spotlight-stil, vilket lämnat många användare utan ett visuellt sätt att organisera sina appar.
AppHub erbjuder en fullvärdig ersättning med personliga inställningar, geststöd för styrplattor och både fullskärms- och kompaktläge. Efter att Apple nekat appen plats i Mac App Store – med hänvisning till att den efterliknar Apples eget gränssnitt – vände sig utvecklaren till Setapp.
Nej från Setapp på grund av saknad AI
Trots att Setapps team på MacPaw gav appen goda vitsord och kallade den ett ”utmärkt produktivitetsverktyg”, blev svaret nej. Anledningen var inte appens funktion, utan att den saknade AI.
Setapp förklarade att deras nuvarande prioritet är att utöka sin AI+-kollektion. De meddelade att de kan komma att ompröva beslutet i framtiden, men i nuläget får AppHub stå utanför paketet.
Teknik för teknikens skull
Incidenten belyser en problematisk inställning inom branschen. Alla appar behöver inte AI för att fungera väl. Den ursprungliga Launchpad-funktionen krävde aldrig någon intelligens för att utföra sitt jobb, och dess ersättare i macOS Tahoe tillför inte heller några sådana funktioner.
Risken med Setapps nuvarande policy är att utvecklare tvingas ”skoja in” AI-funktioner där de inte behövs, enbart för att få tillgång till distributionsplattformar. Att prioritera AI framför ren funktionalitet riskerar att skapa ett smalare och mindre användarvänligt ekosystem för Mac-användare. AI kan vara ett kraftfullt verktyg, men det bör inte vara ett krav för att en välfungerande app ska få existera.
För tydlighetens skull: Magasin Macken är samarbetspartner med SetApp
Källa: AppleInsider
Läs mer
Macken fluktar in: Apple Creator Studio, ett paket för det kreativa proffset
Uppdateringar för Pages, Keynote och Numbers – här är nyheterna
av Mikael Winterkvist | jan 31, 2026 | Artificiell intelligens, Bluesky, Threads, Twitter

Det har sagts att AI ska kunna användas för att avslöja sådant som skapats med AI men en färs undersökning gjord av NewsGuard visar att det är allt annat än sant. cChattbottar misslyckas mycket ofta med att identifiera AI-material. Därför bör du istället använda specialiserade verktyg som granskar filens ursprung och tekniska data.
Verktyg
-
Content Credentials (C2PA-granskning): Detta är numera industristandard för att märka AI-innehåll. Genom att ladda upp en video på verify.contentauthenticity.org kan du se om filen innehåller krypterad information om att den skapats med exempelvis Sora eller Veo.
-
Deepfake-detektorer: Program som McAfee Deepfake Detector eller Trend Micros ScamCheck är utformade för att analysera ansiktsrörelser och pixelytor efter spår av manipulation som är osynliga för det mänskliga ögat.
-
Webbläsartillägg: Det finns tillägg (som de från Digimarc) som automatiskt skannar videor du ser på nätet efter dolda digitala fingeravtryck och varnar om de hittar tecken på att materialet är genererat.
Manuella granskningstekniker
När tekniska verktyg saknas kan du titta efter dessa klassiska ”AI-fel” som fortfarande ofta förekommer i videor från 2026:
| Område |
Vad du ska titta efter |
| Blinkningar |
Människor blinkar naturligt var 2–10 sekund. AI-ansikten stirrar ofta onaturligt länge eller blinkar mekaniskt och stelt. |
| Fysisk logik |
Titta på hur objekt rör sig. Försvinner smycken bakom nacken? Smälter glasögonbågar ihop med huden när personen vrider på huvudet? |
| Hår och tänder |
AI har ofta svårt med fina detaljer. Hår kan se ut som en solid massa snarare än enskilda strån, och tänder kan se ut som ett enda vitt block utan naturliga mellanrum. |
| Ljudet |
Lyssna efter andningspauser. AI-röster lägger ibland in andetag på språkligt felaktiga ställen eller saknar helt det naturliga flåset som uppstår vid fysisk aktivitet. |
Viktigt att komma ihåg
Många AI-verktyg, som Sora, lägger till vattenstämplar, men dessa kan enkelt tas bort med gratisverktyg på nätet. Lita därför aldrig enbart på att en video saknar en synlig logotyp. Det säkraste sättet 2026 är att kombinera en granskning av metadata (C2PA) med en noggrann analys av de fysiska detaljerna i klippet.
Här är en genomgång av hur du praktiskt går tillväga för att kontrollera metadata på en misstänkt video.
Steg 1: Spara videofilen korrekt
Du måste ha tillgång till den ursprungliga filen för att kunna kontrollera dess metadata.
-
Undvik skärminspelning: All ursprungsinformation försvinner om du spelar in skärmen.
-
Hämta originalet: Använd den officiella nedladdningsfunktionen om en sådan finns. Högerklick och ”Spara som” kan i vissa fall rensa bort viktiga Content Credentials, så sök alltid efter en dedikerad hämtningsknapp.
Steg 2: Använd verifieringsverktyget
Besök den officiella webbplatsen för att granska innehållets ursprung genom att följa dessa steg:
-
Gå till verify.contentauthenticity.org.
-
Dra och släpp videofilen direkt i webbläsarfönstret.
-
Vänta medan verktyget skannar filen efter digitala signaturer.
Steg 3: Tolka resultatet
Skanningen ger dig vanligtvis ett av följande svar:
-
”Produced with AI tool”: Svaret visar exakt vilket verktyg som använts, till exempel OpenAI Sora, samt när videon skapades.
-
”No Content Credentials”: Filen saknar digitalt ursprung. Videon kan vara äkta men gammal, eller så har någon medvetet rensat bort informationen för att dölja att den är skapad med AI.
-
”Captured with a camera”: Moderna kameror kan numera signera sina filer digitalt för att bevisa att de är fångade i verkligheten.
Begränsningar att ha i åtanke
Detta är det säkraste sättet under 2026, men det finns ändå hinder att vara medveten om. Många sociala medier tar automatiskt bort metadata vid uppladdning för att spara lagringsutrymme. Tekniskt kunniga personer kan dessutom använda verktyg för att medvetet tvätta filen från alla spår av AI-ursprung. Visar verktyget att information saknas bör du därför gå vidare och granska de fysiska detaljerna i videon på egen hand.
Läs mer
Släng ut spionerna: Här är AI apparna som blottar ditt privatliv
Forskarlarm: Säkerhetsskydd för AI fungerar inte i verkligheten
av Mikael Winterkvist | jan 30, 2026 | Artificiell intelligens, Bluesky, Threads

De stora teknikjättarna pressar i allt snabbare takt in AI-funktioner i sina produkter. Många användare har tröttnat på utvecklingen, vilket nu får mindre tjänster att erbjuda alternativ som prioriterar digital kunskap utan inslag av automatiserat innehåll.
DuckDuckGo lät nyligen sina användare rösta om de faktiskt ville ha AI som en del av sin sökupplevelse. Svaret var entydigt: en överväldigande majoritet tackade nej. Företaget väljer nu att respektera detta val genom att erbjuda två olika versioner av sin söktjänst.
Användarna röstade nej
Genom webbplatsen VoteYesOrNoAI.com samlade DuckDuckGo in anonyma röster för att styra företagets vägval. Resultatet visade att hela 90 procent av de över 175 000 deltagarna inte vill ha några AI-funktioner alls i sin sökning.
Gabriel Weinberg, grundare av DuckDuckGo, betonar att beroendet av stora språkmodeller alltid bör vara ett val för användaren. Han poängterar att de flesta stora teknikbolag helt ignorerar de personer som vill kunna välja bort tekniken helt och hållet.
Två vägar för sökning
DuckDuckGo har nu introducerat två specifika webbadresser för att möta de olika behoven:
DuckDuckGo har länge varit ett populärt alternativ för integritetsmedvetna användare. Även om undersökningen var öppen för alla på nätet, ser företaget resultatet som ett tydligt mandat att fortsätta erbjuda en ren söktjänst. För avancerade användare finns dessutom möjligheten att finjustera inställningarna för att hitta en personlig balans mellan traditionell sökning och automatisering.
Läs mer
DuckDuckGo samlar VPN, identitetsskydd och avancerade AI-verktyg i ett paket
Skapa bilder utan att bli spårad: DuckDuckGo utmanar med ny AI-tjänst
av Mikael Winterkvist | jan 30, 2026 | Artificiell intelligens, Bluesky, Threads

Youtube har nu påbörjat en omfattande utrensning av kanaler som enbart sprider så kallat ”AI-slop”, eller lågkvalitativt AI-genererat innehåll. Beslutet kommer bara dagar efter att plattformens vd, Neal Mohan, i ett blogginlägg pekat ut AI-skräp som ett prioriterat problem för företagets framtid.
Strategin innebär att plattformen bygger vidare på sina befintliga system för att bekämpa spam och klickbeten. Målet är att minska spridningen av repetitivt innehåll som försämrar tittarupplevelsen, utan att för den sakens skull begränsa skaparnas kreativitet eller yttrandefrihet.
Stora kanaler har redan försvunnit
En granskning genomförd av företaget Kapwing visar att flera av de största aktörerna inom AI-skräp redan har raderats från plattformen. Bland de mest framträdande fallen märks:
-
CuentosFacianantes: En kanal med över 5,9 miljoner prenumeranter och 1,2 miljarder visningar som nu är helt borta.
-
Imperio de Jesus: En annan jätte med 5,8 miljoner följare som inte längre är tillgänglig.
-
Ytterligare 16 kanaler: Samtliga på listan över de mest produktiva AI-kanalerna har antingen raderats eller fått allt sitt innehåll borttaget.
Falska filmtrailers blev droppen
Den utlösande faktorn för den hårda linjen tros vara den stora vågen av falska filmtrailers. Dessa klipp ligger ofta nära gränsen för falska nyheter och har väckt stark irritation inom filmindustrin. Särskilt problematiskt har det varit när kända skådespelare utsatts för deepfakes i videor som framstår som officiellt material.
Youtube har under de senaste 20 åren varit försiktiga med att döma ut nya trender. Allt från ASMR till spelvideor var en gång i tiden udda fenomen som senare blev mainstream. Gränsen tycks dock gå vid AI-genererat innehåll som saknar genuint mänskligt skapande och som enbart syftar till att generera visningar genom massproduktion.
Drabbade kategorier i Sverige
Hittills har ingen av de största etablerade svenska kanalerna raderats, men den nya policyn slår hårt mot en specifik typ av svenskspråkigt innehåll som vuxit fram under det senaste året. Utrensningen fokuserar främst på anonyma kanaler som använder syntetiska röster och AI-bilder för att producera massinnehåll.
Granskningen av det svenska utbudet visar att följande typer av kanaler nu försvinner eller tystnar:
-
Svenska ”True Crime”-automatiseringar: Kanaler som översätter amerikanska brottsfall till svenska med hjälp av AI-röster och generiska arkivbilder. Flera av dessa har fått sina videor borttagna på grund av att innehållet anses vara repetitivt och av låg kvalitet.
-
AI-genererade godnattsagor: En kategori som växte snabbt under 2025 var kanaler med svenska sagor där både text, bild och röst var helt AI-genererade. Youtube har klassat många av dessa som ”slop” eftersom de ofta saknar narrativ logik och har skapats enbart för att generera annonsintäkter.
-
Nyhetssammanfattningar utan källor: Mindre svenska kanaler som sammanställer nyheter genom att låta AI läsa upp texter från kvällstidningar har börjat raderas. Youtube ser detta som ett brott mot policyn om originalitet.
Varför de stora profilerna klarar sig
Etablerade svenska kreatörer som använder AI som ett verktyg i sitt skapande – till exempel för översättning, grafik eller ljudredigering – omfattas inte av utrensningen. Skillnaden ligger i det mänskliga redaktörskapet. Youtube betonar att problemet inte är tekniken i sig, utan de kanaler där ingen människa faktiskt har fattat kreativa beslut.
De raderade kanalerna i Sverige hade ofta tiotusentals prenumeranter, men saknade ett ansikte utåt eller en tydlig avsändare. Dessa kanaler har nu svårt att klara de manuella granskningar som Youtube genomför för att rensa bort lågkvalitativt innehåll.