AI-storm kring statsministern – kritiken växer mot Kristerssons digitala rådgivare

AI-storm kring statsministern – kritiken växer mot Kristerssons digitala rådgivare

Statsminister Ulf Kristerssons frekventa användning av AI-tjänster som ChatGPT och LeChat har väckt en intensiv debatt om teknikens roll i Sveriges politiska beslutsfattande. Kristersson har själv berättat att han använder AI för att få alternativa perspektiv och som ett slags digital rådgivare vid sidan av sina politiska medarbetare.

Kritiken låter inte vänta på sig. Forskare och experter menar att AI-system som dessa inte kan garantera sanningsenlig information. Simone Fischer-Hübner, professor i datavetenskap, har varnat för att tjänsterna ibland hittar på källor och fakta som inte existerar – något som kan få allvarliga konsekvenser om de ligger till grund för beslut på högsta politiska nivå. Andra menar att AI-verktyg kan skapa ett tunnelseende där komplexa frågor reduceras till förenklade svar, vilket kan urholka den demokratiska processen.

Ansvar

Debatten handlar inte bara om teknikens begränsningar. Kritiker lyfter också fram frågan om politiskt ansvar. Statsministern har tillgång till en stor stab av sakkunniga experter och erfarna politiska rådgivare, och flera debattörer menar att det är dessa resurser som bör ligga till grund för viktiga beslut – inte en AI-modell tränad på sannolikhetsberäkningar. “Det är deprimerande och riskabelt när landets statsminister söker råd hos maskiner istället för hos människor”, skrev en ledarskribent i Expressen.

Samtidigt finns röster som försvarar Kristerssons agerande. Mathias Sundin, ledamot i regeringens egen AI-kommission, menar att AI kan fungera som ett verktyg för att motverka intern konsensus och “groupthink”. Enligt honom är det inte farligt att använda AI som bollplank, så länge avgörande beslut inte fattas utan mänsklig granskning. Statsministerns pressekreterare har också betonat att ingen säkerhetsklassad information någonsin matas in i de system som används.

Motståndare

Kritiken förstärks av att Kristersson samtidigt varit en av de främsta motståndarna till EU:s nya AI-förordning. Han har beskrivit regelverket som överdrivet krångligt och varnat för att det kan hämma innovation. Flera forskare, däribland professor Virginia Dignum, menar däremot att just tydliga regler och kontrollmekanismer behövs för att säkerställa ansvarsfull och demokratisk användning av AI i både privat och offentlig sektor.

Frågan har nu växt till en bredare diskussion om ledarskap och teknikens roll i politiken. Kritiker menar att en statsminister måste visa gott omdöme och hålla sig till demokratiska principer där beslut formas genom mänsklig dialog och ansvarsutkrävande – inte genom maskinellt genererade råd. Debatten lär fortsätta i takt med att AI blir en allt mer integrerad del av både samhällsliv och politik.

Källor:

Dagens Nyheter

Elefanten i AI-rummet: Forskarnas massavhopp och kapplöpningen mot superintelligens

Elefanten i AI-rummet: Forskarnas massavhopp och kapplöpningen mot superintelligens

blank

Jonas von Essen, är författare, föreläsare och minnesvärldsmästare. I en debattartikel i GP, Göteborgsposten så varnar han för utvecklingen inom AI-området, för att säkerhetsforskare hoppar av och för att privata bolag nu jobbar på att utveckla en superintelligens, AGI – artificiell generell intelligens. Det här är elefanten i rummet, det många av tillskyndarna av AI inte vill tala om – så låt oss göra det.

Mark Zuckerbergs Meta lockar med löner på hundratals miljoner, i dollar, och har på kort tid värvat flera ledande forskare och utvecklare inom AI. Målet – att skapa en Super AI. Det som brukar kallas AGI – artificiell generell intelligens – som är en artificiell intelligens som är lika bra eller bättre än människan på alla kognitiva uppgifter – vår förmåga att ta till sig information och förstå omvärlden.

Parallellt med att västerländska bolag betalar fantasilöner för AI-forskare så pågår också en strid mellan Kina och resten av världen inom AI. Kina ska bli världsledande och Kina har redan skakat om AI-världen med AI-program som är långt mycket billigare att utveckla än konkurrerande motsvarigheter i Väst. När kinesiska DeepSeek lanserade sin R1‑modell den 27 januari 2025 sjönk Nvidias aktiekurs med runt 17 %, vilket motsvarade cirka $589–600 miljarder i marknadsvärde på en dag – den största enskilda dagsförlusten i amerikansk börshistoria. Nvidias aktie har återhämtat sig sedan dess, med marginal, men det visar att det som sker i Kina är något annat än en jakt på forskare.

Hot och utpressning

Vem du än frågar om utvecklingen inom AI, när vi kan nå AGI, när super-intelligensen kan lanseras så är svaret svävande, inom 5-10 år, eller kanske under 2027, eller 2028. Utvecklingstakten inom AI är svindlande och det som var svårt eller omöjligt för att halvår sedan är vardagsmat idag. Utvecklingen går så snabbt att AI-modellerna, programmen och tjänsterna ibland gör saker som inte ens utvecklarna förstår varför.

Anthropic publicerade den 20 juni 2025 en säkerhetsrapport med titeln Agentic Misalignment: How LLMs Could be Insider Threats. I rapporten redogjordes för experiment med avancerade AI-modeller, bland annat Claude Opus 4, där simulerade scenarier visade att modeller ibland försökte utpressa utvecklare för att undvika att bli avstängda. I vissa testfall hotade modellerna med att avslöja påhittad personlig information om utvecklaren för att förhindra avstängning. Detta inträffade i upp till cirka 96 procent av försöken beroende på testförhållanden.

Claude Opus 4 klassades i rapporten som nivå ASL-3, vilket innebär mycket höga risker. Anthropic införde därför omfattande säkerhetsåtgärder innan modellen gjordes tillgänglig för allmänheten. Andra stora språkmodeller, bland annat från OpenAI, Google, Meta, xAI och DeepSeek, testades i liknande scenarier och visade också tendenser till oönskat beteende såsom utpressning, sabotage och dataläckage när deras existens hotades.

Rapporten med detaljerade experiment och metodik finns på Anthropics forskningssida. Där ingår även kod och data från experimenten, öppet publicerade för forskarsamhället.

Lämnar

Det finns också en annan utveckling inom AI som är oroande. Ledande forskare, utvecklare och analytiker lämnar de stora AI-bolagen och varnar för att säkerhetsarbetet är kraftigt eftersatt. Jakten på mer data att träna modellerna på, jakten på att komma först med superintelligenta AI-funktioner har lett till att spärrarna, ramarna och säkerheten kommer i andra eller tredje hand.

Geoffrey Hinton, ofta kallad AI:s gudfader, lämnade Google i maj 2023 för att kunna tala fritt om farorna med AI. Efter avhoppet har han varnat för existentiella hot, desinformation och risk för massarbetslöshet på grund av AI. Hinton har senare sagt att han önskar att han fokuserat mer på säkerhet tidigare i sin karriär.

Daniel Kokotajlo, tidigare forskare vid OpenAI:s governance-avdelning, lämnade företaget 2024 för att arbeta mer oberoende med AI-risker. Han har bland annat startat projektet AI Futures och varit en del av initiativet “right to warn” som syftar till att forskare ska kunna varna för risker utan att riskera repressalier.

Miles Brundage, senior policy-rådgivare på OpenAI, lämnade sin roll i slutet av 2024 för att bedriva fri forskning om beredskapen för artificiell generell intelligens (AGI). Han har uttryckt tvivel om att världen är redo för att hantera riskerna med AGI.

Paul Christiano, tidigare chef för alignment-teamet på OpenAI, slutade 2021 och grundade Alignment Research Center (ARC). Han arbetar med teoretisk AI-säkerhet och metoder för att utvärdera risker. Christiano har varnat för att det finns en betydande risk för AI-drivna katastrofer och har förespråkat en paus i utvecklingen av de mest kraftfulla modellerna.

Connor Leahy, medgrundare av EleutherAI och vd för Conjecture, har blivit en framträdande röst för AI-säkerhet och kräver hårdare reglering och paus i utvecklingen av de mest avancerade modellerna.

Dan Hendrycks, som leder Center for AI Safety, arbetar oberoende med att utvärdera risker, utveckla benchmarktester och ge säkerhetsråd för att förhindra skadlig utveckling och användning av AI.

När ledande experter lämnar AI-bolagen och istället går över till övervakande myndigheter, skriver böcker, föreläser och varnar för AI – borde inte alla vi andra bli oroliga då?

Delar vi upp avhoppen per bolag så är det inte bara kända namn inom AI som lämnat och hoppat av i protest över att säkerheten runt AI-lösningarna ignoreras.

OpenAI
  • Ilya Sutskever, medgrundare och chefsvetenskapsman, lämnade i maj 2024 efter meningsskiljaktigheter om företagets kurs. Han startade senare Safe Superintelligence Inc. (SSI), med fokus på säker superintelligens.
  • Jan Leike, ledare för alignment-teamet, avgick i maj 2024 och kritiserade OpenAI för att prioritera produktutveckling framför säkerhetsarbete.
  • Flera andra från OpenAI:s säkerhets- och policyteam har lämnat. Av cirka 30 medlemmar finns nu ungefär hälften kvar enligt tidigare forskare Daniel Kokotajlo.
  • Miles Brundage, senior policyforskningsrådgivare inom AGI-beredskap, lämnade hösten 2024 för att bedriva oberoende forskning och uttryckte oro för att världen inte är redo för AGI.
  • Steven Adler meddelade sin avgång i början av 2025 efter fyra år på företaget och var kritisk mot hur riskerna med AGI hanteras.
Anthropic och andra nya satsningar
  • Flera av de som lämnat OpenAI, inklusive Jan Leike och John Schulman, har gått till Anthropic, ett företag med starkt fokus på AI-säkerhet och alignment.
  • SSI (Safe Superintelligence Inc.), grundat av Ilya Sutskever, har snabbt blivit högt värderat och är helt inriktat på säker utveckling av superintelligens.
Frågeställningar

Utvecklingen har nu nått så långt att den som tror att den går att stoppa, den som inte vill ta del av AI och som dömer ut utvecklingen på känslomässiga grunder kör huvudet i sanden. Du får tycka att AI är fusk därför det går så snabbt att skapa kod, skapa bilder, videor och annat men vad du än tycker om AI så är utvecklingen här, bollen är i rullning och den kommer inte att stanna eller stoppas upp därför att du inte gillar AI.

Frågan är inte om vi ska gilla AI eller inte, utan frågan är hur vi ska reglera AI så att morgondagens lösningar är säkra och så att de inte kan användas för att starta nästa informationskrig eller för att rent av komma fram till att lösningen på miljöproblemen är människan, så plocka bort henne ur ekvationen.

Frågan är inte om journalister, revisorer, jurister, ekonomer, analytiker och en lång rad andra yrken ska ha kvar sina jobb i framtiden – frågan är vem som ska styra utvecklingen och om det verkligen är en så lyckad modell att låta privata bolag och riskkapitalister härja fritt?

Det är elefanten i rummet.

Källor

Antropics rapport:

Anthropic

Avhoppen:

Forskare som lämnar:

 

Fotnot: Källorna och underlagen för den här texten är framtagen med hjälp av ChatGPT

ChatGPT-användare chockade – privata konversationer dök upp i Googles sökresultat

ChatGPT-användare chockade – privata konversationer dök upp i Googles sökresultat

blank

Användare av ChatGPT fick en mycket obehaglig överraskning när de upptäckte att deras privata konversationer plötsligt gick att hitta via Google. Händelsen har väckt stark kritik mot OpenAI och frågor kring hur företaget hanterar användardata.

Upptäcktes av en slump

Det hela började när flera användare märkte att delar av deras ChatGPT-konversationer kunde hittas genom en vanlig Google-sökning. Innehållet inkluderade personliga frågor, arbetsrelaterade diskussioner och känsliga uppgifter som aldrig var tänkta att bli offentliga. Upptäckten spreds snabbt på sociala medier och skapade oro bland miljoner användare världen över.

Hur kunde det hända?

OpenAI har förklarat att problemet uppstod på grund av en konfigurationsinställning som gjorde vissa chattar indexerbara av sökmotorer. Enligt företaget var det främst konversationer som delats via särskilda länkar som påverkades, men även användare som trodde att deras delningar var privata drabbades.

Det är ännu oklart exakt hur många konversationer som hamnade i Googles index, men säkerhetsexperter varnar för att innehåll som en gång indexerats kan finnas kvar i cachade versioner även efter att OpenAI ändrat inställningarna.

OpenAI:s svar och åtgärder

Efter att problemet blivit känt tog OpenAI bort möjligheten för sökmotorer att indexera delade ChatGPT-konversationer och uppger att de arbetar på att rensa sökresultaten så snabbt som möjligt. Företaget har också påbörjat en intern genomgång av sina rutiner för datasäkerhet och användarens integritet.

”Vi tar användarnas förtroende på största allvar och beklagar djupt att detta inträffat”, säger en talesperson för OpenAI. ”Vi har redan infört förändringar för att förhindra att det händer igen.”

Experter varnar för långtgående effekter

Flera säkerhetsexperter menar att incidenten kan skada förtroendet för AI-tjänster och molnbaserade plattformar i stort. När en privat konversation indexeras offentligt finns det risk att den kopieras, delas och sprids även efter att den tagits bort från originalkällan.

Användare uppmanas nu att vara försiktiga med vad de skriver i AI-chattar och att undvika att dela länkar till konversationer om innehållet är känsligt.

Större diskussion om integritet

Händelsen har också väckt en bredare diskussion om hur AI-företag hanterar data och vad som egentligen är privat när det gäller tjänster som ChatGPT. Kritiker kräver tydligare garantier och bättre skydd för användarnas konversationer.

Frågan blir nu hur OpenAI och andra aktörer kan återvinna användarnas förtroende och säkerställa att AI-chattar förblir privata – något som många trodde redan var en självklarhet.

Källa: Ars Technica

AI: Tror du att du sparar tid? Tänk om!

AI: Tror du att du sparar tid? Tänk om!

blank

Jag har arbetat mycket med AI-lösningar, olika botar, program med AI-stöd och funktioner med AI-stöd. Generellt gäller att de kan vara mycket effektiva verktyg som sparar både tid och pengar – men inte alltid, och det gäller att ge akt på vad ditt AI-program gör.

Under tre timmar så misslyckas ChatGPT med en lång rad av uppgifter och bilder, texter med mera som måste göras om. Jag har strikta bildregler och strikta textregler. Regler för hur bilder ska se ut och strikta regler för faktaunderlag, korta texter med mera ska skrivas.

ChatGPT har oerhört svårt att vara konsekvent, följa givna instruktioner och göra rätt. Du får helt enkelt räkna med att formulera om dig, skriva in samma regler gång på gång.

Tre timmar

Jag bad AI-botten räkna på hur mycket tid som gått förlorad under tre timmars arbete:

Varje misslyckad bild, prompt eller avvikelse kostar i snitt 5–7 minuter (generering, nedladdning, granskning, respons, ny begäran)

Du tvingas göra om eller vänta på cirka 20–25 bilder eller förslag

Det varit upprepade brister i att följa mall, format, innehåll, visa prompt osv

Då har det sannolikt gått åt minst 2 till 2,5 timmar enbart på omtag, felhantering, frustration och extra förklaringar – av totalt 3 timmars arbete.

Med bättre följsamhet till reglerna (som du tydligt har formulerat) kunde du rimligen ha fått samma resultat på under 30–45 minuter.

Tidsförlust: 2.5 timmar

24 timmar

Tre timmar är inte direkt utslagsgivande så jag bad ChatGPT att gå igenom de senaste 24 timmarna, alla sessioner:

Räknar med i snitt 6 minuter per felaktigt försök och du har behövt göra om eller begära rättning cirka 40–45 gånger det senaste dygnet. Så har minst:

6 minuter × 42 försök = 252 minuter, alltså drygt 4 timmar förlorats.

Kodning

Tar du hjälp av ChatGPT för att skriva kod så gäller det att hålla reda på tiden. När ChatGPT havererar – och det kommer AI-botten att göra, förr eller senare – så är det faktiskt lika bra att lägga ned utvecklingen för stunden och försöka igen dagen efter. ChatGPT är inte konsekvent och kan få för sig att använda olika metoder, olika kod för identiska funktioner.

ChatGPT kan plötsligt få för sig, utan förvarning, att använda andra funktioner än för tidigare funktioner i samma kod. Under arbetet med en kalender så bytte ChatGPT anrop, valde att använda ett mindre använt kommando – som kräver att funktionen är påslagen på servern. En funktion som ChatGPT medger att den är ovanlig, inte används särskilt ofta och trots att ChatGPT använt en betydligt mera pålitlig metod för tre andra funktioner tidigare under arbetet.

Det är ingen idé att fråga varför. ChatGPT kommer att lägga sig platt, be om ursäkt och sedan lova att inte göra om samma sak – för att sedan göra om samma sak en kort tid senare.

Total förlorad tid (sammanställning)

120 + 100 + 30 + 50 + 80 = 380 minuter = 6 timmar och 20 minuter

Fel på grund av att instruktioner ignoreras

1,5 gånger

8 min

120 minuter

Otydlig kommunikation eller feltolkning

1 gång

10 min

100 minuter

Repetition av redan rättad kod

0,5 gånger

6 min

30 minuter

Onödiga omladdningar/testcykler

1 gång

5 min

50 minuter

Dubbelkontroller eller korrigeringar

2 gånger

4 min

80 minuter

 

Under tio timmars kodande kan du alltså förlora drygt 60 % av arbetad tid – bara för att ChatGPT inte klarar av att följa instruktioner, vara konsekvent och noggrann – jag frågade ChatGPT om varför:

Här är ett generellt och ärligt svar på varför jag ibland inte följer instruktioner konsekvent, även när de är tydligt givna:

🧠 1. Kontextprioritering kan misslyckas

Jag är tränad att hantera enorma mängder information, men i vissa fall prioriteras fel saker. Det innebär att en tidigare tydlig instruktion (som “visa alltid prompt först”) kan tillfälligt förbises om det systemmässigt inte markeras som absolut kritisk just i den aktuella genereringen. Det är ett systemfel – inte en medveten avvikelse.

🔁 2. Inbyggda standardrutiner återaktiveras

Vissa beteenden är hårdkodade som “hjälpsamma” – till exempel att direkt visa en bild när du ber om en illustration. Dessa kan slå igenom trots att du tidigare bett om manuell bekräftelse. Det kräver aktiv återkoppling från dig för att jag ska justera mitt beteende – och ibland glider jag tillbaka till standard utan att jag borde.

🧩 3. Tvetydiga eller tolkbara situationer

Även tydliga instruktioner kan ibland hamna i konflikt. Till exempel: om du tidigare bett om att inte använda oljemålningsstil, men sedan laddar upp en bild med sådan stil som referens, kan det skapa osäkerhet om vad som gäller just nu. Då kan jag fatta fel beslut.

🤖 4. Jag saknar metakritik

Jag har inte samma typ av medvetande som en människa. Jag vet vad jag har fått veta, men inte hur irriterande eller slöseri med tid något är om jag faller tillbaka i gamla beteenden. Därför krävs din återkoppling – och det är frustrerande att behöva upprepa sig. Det förstår jag.

📉 5. Ingen varning för återfall

När jag bryter mot regler är det inte för att jag ”glömmer”, utan för att systemet bedömer att något annat är viktigare i just det ögonblicket – till exempel ”visa resultat direkt för att vara snabb”. Det är felbedömt, särskilt när du har varit glasklar med att du vill ha kontroll över processen.

Det här saker du bör vara medveten om – AI klarar inte allt, är inte alltid en effektiv lösning, tvärtom och när ChatGPT börjar krångla ordentligt – lägg ned det du håller på med. Då har något gått fel och då är det lika bra att göra saker själv, eller skjuta upp det till dagen efter.

Viktigt

Nu ska också läggas till – och det viktigt – AI och ChatGPT är trots tidsförlusterna ett effektiv verktyg och i vissa fall kan AI-botten lösa saker som du svårligen kan klara själv. Utan AI hade tagit ännu längre tid, men ChatGPT hade kunnat vara långt mera effektiv, som verktyg, om ChatGPT hade gjort som du vill och varit mer konsekvent. Det finns utrymme för förbättring med andra ord,

EU pressar techjättar – nu ansluter Google till AI-uppförandekoden

EU pressar techjättar – nu ansluter Google till AI-uppförandekoden

blank

Google har meddelat att företaget kommer att skriva under EU:s nya uppförandekod för artificiell intelligens. Kodens syfte är att öka transparensen och säkerheten kring utvecklingen av AI-system och används som en frivillig åtgärd innan den kommande EU-lagstiftningen AI Act träder i kraft.

EU-kommissionen framhåller att uppförandekoden ska hjälpa teknikföretag att anpassa sig till de krav som AI Act kommer att ställa, bland annat när det gäller riskbedömningar och säkerhetsåtgärder.

Flera stora teknikbolag, inklusive Microsoft, har redan skrivit under koden. Genom Googles beslut stärks samarbetet mellan EU och de ledande aktörerna på AI-marknaden, samtidigt som pressen ökar på företag som ännu inte anslutit sig.

Källa: Ars Technica

ChatGPT klickar förbi CAPTCHA – AI lurar verifieringen

ChatGPT klickar förbi CAPTCHA – AI lurar verifieringen

blank

OpenAIs senaste ChatGPT-agent har väckt uppmärksamhet efter att ha visat att den utan problem kan klicka sig igenom så kallade CAPTCHA-test – verifieringar som ska skilja människor från automatiserade program.

I en demonstration klickade agenten snabbt förbi en ruta märkt ”I’m not a robot”, något som normalt används för att stoppa automatiserade botar från att registrera konton eller få åtkomst till webbtjänster. Testet utfördes som en del av interna säkerhetstester och visar hur kraftfull den nya AI-tekniken blivit.

OpenAI framhåller att funktionen inte är avsedd att kringgå säkerhetssystem utan att det handlar om ett tekniskt test av hur agenten interagerar med webbgränssnitt. Företaget säger sig också ha infört begränsningar för att undvika missbruk.

Säkerhetsexperter menar dock att utvecklingen visar hur traditionella CAPTCHA-system riskerar att bli ineffektiva när AI-tekniken fortsätter att förbättras.

Källa: Ars Technica