av Mikael Winterkvist | mar 10, 2026 | Artificiell intelligens, Bluesky, Mastodon, Threads, Twitter |

OpenAI:s avtal med det amerikanska försvarsdepartementet har utlöst kritik från användare och skakat om konkurrensen mellan AI-appar. Reaktionen blev så stark att Anthropic-appen Claude tillfälligt tog förstaplatsen i den amerikanska App Store.
Claude nådde toppen av App Store den 1 mars. Bakgrunden är en konflikt mellan AI-bolaget Anthropic och den amerikanska staten kring ett mångmiljonavtal med försvarsdepartementet.
Anthropic vägrade acceptera två klausuler i avtalet och klassades därefter som en risk i leverantörskedjan. Samma dag som tidsfristen löpte ut valde OpenAI att skriva under avtalet i stället.
Skyddsåtgärder
OpenAI uppgav att bolaget lyckades få in vissa skyddsåtgärder som Anthropic tidigare efterfrågat. Beskedet möttes ändå av kritik från en del användare, som reagerade på kopplingen till militära kontrakt.
Enligt rapporter ökade antalet avinstallationer av ChatGPT kraftigt under några dagar, med en uppgång på omkring 295 procent. Samtidigt steg Claude snabbt i popularitet och tog för första gången förstaplatsen i den amerikanska App Store.
Reaktionen blev dock kortvarig. Kort därefter tog ChatGPT tillbaka topplaceringen i App Store. Claude ligger nu på andra plats, medan Googles Gemini återfinns på tredje plats.
Konkurrensen
Konkurrensen mellan de stora AI-modellerna har samtidigt blivit betydligt hårdare. Under det senaste året har OpenAI:s tidigare tydliga försprång minskat.
En rapport från analysföretaget Apptopia visar att ChatGPT:s andel av dagliga användare i USA sjönk från 69,1 procent i januari 2025 till 45,3 procent i januari 2026. Under samma period ökade Googles Gemini från 14,7 till 25,1 procent.
Alphabet meddelade samtidigt att Gemini har vuxit till omkring 750 miljoner aktiva användare per månad, upp från 650 miljoner i november.
OpenAI uppgav i slutet av förra månaden att ChatGPT nått 900 miljoner veckovisa användare och passerat 50 miljoner betalande abonnenter.
Analysföretaget Sensor Tower har dessutom noterat att Gemini ökade sina månatliga användare med omkring 30 procent mellan augusti och november, medan ChatGPT under samma period växte med ungefär fem procent.
Anthropic har under flera år i första hand riktat in sig på företag och utvecklare. Bolaget har också publicerat flera studier och rapporter om ansvarsfull AI, vilket bidragit till att stärka dess profil inom AI-säkerhet.
Annonser
Efter en uppmärksammad reklamkampanj i samband med Super Bowl, där Anthropic indirekt kritiserade beslutet att införa annonser i ChatGPT, ökade intresset även bland vanliga användare. Claude tog sig då för första gången in på topp tio i den amerikanska App Store den 13 februari.
Tvisten med Pentagon fortsätter samtidigt. Anthropic har stämt den amerikanska staten för att få bort klassningen som risk i leverantörskedjan och har fått stöd av över 30 personer från teknikbranschen som lämnat in ett så kallat amicus-yttrande till bolagets fördel.
Även om ChatGPT nu åter ligger högst i App Store har de senaste dagarnas händelser visat att Claude kan bli ett tydligare alternativ i konkurrensen med både OpenAI och Google.
Frågan är om Anthropic lyckas ta vara på det momentum som uppstått.
Källa: 9 to 5 Mac
av Mikael Winterkvist | mar 10, 2026 | Artificiell intelligens, Bluesky, Mastodon, Övervakning, Threads, Twitter |

En granskning från Svenska Dagbladet och Göteborgs-Posten visar att Metas nya AI-glasögon samlar in stora mängder känslig data från användare.
Materialet kan i vissa fall granskas manuellt av anställda hos underleverantörer, bland annat i Kenya, där arbetare vittnar om att de ser mycket privata situationer från människors vardag.
Glasögonen, som säljs under namnet Meta Ray-Ban, marknadsförs som en digital assistent som kan fotografera, spela in video, svara på frågor och tolka vad användaren ser. Tekniken ska fungera genom en AI-tjänst kopplad till Metas servrar. Företaget framhåller samtidigt att användaren har kontroll över sin integritet.
Granskningen visar dock att data från glasögonen måste skickas vidare till Metas system för att AI-funktionerna ska fungera. Röst, text, bilder och ibland video behandlas automatiskt i företagets infrastruktur. I Metas användarvillkor framgår också att vissa interaktioner kan granskas manuellt av människor.
En del av detta arbete utförs av så kallade dataannotatörer i Nairobi. De arbetar åt underleverantören Sama och har i uppdrag att märka upp och analysera bilder, video och ljud så att AI-systemen kan tränas. Arbetet är en central del av utvecklingen av AI-tjänster, men sker ofta i låginkomstländer där arbetskraften är billigare.
Flera anställda berättar att de ibland ser mycket privata klipp från användarnas vardag. Det kan handla om människor som går på toaletten, byter om eller befinner sig i andra intima situationer. En del material visar även bankkort, pornografi eller andra känsliga uppgifter.
Arbetarna upplever att de tittar rakt in i människors privatliv, men säger samtidigt att de inte kan ifrågasätta uppgifterna eftersom arbetet styrs av strikta sekretessavtal. Om de bryter mot reglerna riskerar de att förlora sina jobb.
Samtidigt råder osäkerhet kring hur mycket information som faktiskt samlas in och hur den används. Experter på dataskydd menar att gränsen mellan vad användaren frivilligt delar och vad som samlas in automatiskt kan vara svår att förstå.
Enligt den svenska Integritetsskyddsmyndigheten är det vanligt att användare inte inser hur mycket data som behandlas när nya AI-tjänster används. Den information som samlas in kan vara mer värdefull än själva produkten eftersom den gör det möjligt att analysera människors beteenden och rikta tjänster och annonser mer exakt.
Meta uppger i sina villkor att data kan överföras och behandlas globalt och delas med både interna enheter och externa partners. Företaget har datacenter i bland annat Sverige, Danmark och Irland, men behandlingen kan också ske på andra platser.
Granskningen visar samtidigt att kunskapen om hur glasögonen fungerar är begränsad även hos återförsäljare. Flera butiksanställda i Sverige uppger att de inte vet var data hamnar eller hur den behandlas.
För användaren framstår glasögonen som en enkel vardagsteknik. I andra änden av systemet sitter samtidigt människor som manuellt analyserar bilder och videoklipp från användarnas liv för att göra AI-systemen bättre.
En av de anställda i Nairobi sammanfattar situationen: om människor verkligen visste hur mycket data som samlas in skulle många sannolikt tveka inför att använda glasögonen.
Källa: SVD
av Mikael Winterkvist | mar 9, 2026 | Artificiell intelligens, Bluesky, Mastodon, Threads, Twitter |

Planerna på ett särskilt vuxenläge i ChatGPT dröjer ytterligare. OpenAI skjuter återigen upp lanseringen av funktionen, som skulle göra det möjligt att visa innehåll som endast riktar sig till verifierade vuxna användare.
En talesperson för företaget säger att lanseringen flyttas fram eftersom andra delar av tjänsten just nu prioriteras. Utvecklingsarbetet fokuserar i stället på att förbättra modellens intelligens, utveckla dess personlighet, öka möjligheterna till personalisering och göra tjänsten mer proaktiv i hur den hjälper användaren.
Finns kvar
Planerna på ett vuxenläge finns dock kvar. OpenAI uppger att funktionen fortfarande är tänkt att lanseras, men att utvecklingen kräver mer tid än vad som tidigare har sagts.
Diskussionen om ett sådant läge började redan i oktober när OpenAI:s vd Sam Altman skrev på plattformen X om företagets ambition att införa tydligare ålderskontroller i tjänsten. Resonemanget handlade om att vuxna användare i större utsträckning ska behandlas som just vuxna. I det sammanhanget nämndes även möjligheten att tillåta erotiskt innehåll för verifierade användare.
Ny tidsplan finns inte
Den ursprungliga planen var att funktionen skulle lanseras i december. Senare flyttades tidsramen till första kvartalet 2026. Någon ny tidsplan finns nu inte.
En del av den tekniska grunden för systemet har däremot redan börjat införas. I januari började OpenAI rulla ut ett verktyg som försöker uppskatta användarens ålder. Den tekniken kan bli en central del i det framtida vuxenläget eftersom den gör det möjligt att skilja mellan minderåriga och vuxna användare.
Källa: Engadget
av Mikael Winterkvist | mar 8, 2026 | Artificiell intelligens, Bluesky, Mastodon, Threads |

Caitlin Kalinowski lämnar sin post som robotchef på OpenAI i protest mot företagets nya samarbete med Pentagon. Beslutet är en principsak då avtalet rörande nationell säkerhet inte anses ha fått tillräcklig eftertanke. Kalinowski kritiserar särskilt riskerna för övervakning av amerikanska medborgare och autonoma vapensystem.
Dragna linjer för AI i krig
Du får en bild av en bransch som är djupt splittrad i frågan om militär teknik. OpenAI försvarar samarbetet och hävdar att deras röda linjer är tydliga: ingen inhemsk övervakning och inga autonoma vapen. Kritiker menar dock att gränserna är flytande när tekniken väl hamnar i händerna på försvarsdepartementet.
Konkurrenten svartlistas av Trump
Situationen kompliceras av att rivalen Anthropic tidigare tackade nej till ett liknande avtal. Det ledde till att president Donald Trump stämplade företaget som ”radikalt woke” och försvarsminister Pete Hegseth klassade dem som en säkerhetsrisk för leveranskedjan. Anthropic är nu i praktiken svartlistat av den amerikanska regeringen.
Användarna väljer bort ChatGPT
Beslutet att samarbeta med militären har lett till en omedelbar motreaktion från användarna. Du kan se effekten direkt i App Store där Anthropics chattbot Claude har övertagit förstaplatsen från ChatGPT. Nedladdningarna av Claude ökade med 240 procent under februari som en direkt följd av protesterna.
Bakslag för robotsatsningen
Kalinowskis avhopp drabbar OpenAI:s ambitioner inom robotik hårt. Företaget har under det senaste året byggt upp ett laboratorium i San Francisco med fokus på att träna robotar för hushållssysslor och utveckling av humanoida maskiner. Även om hårdvara inte anses vara kärnverksamheten just nu signalerar avhoppet en intern kris kring företagets etiska kompass.
Källa: Business Insider
av Mikael Winterkvist | mar 7, 2026 | Artificiell intelligens, Bluesky, Mastodon, Threads |

OpenAI har nu släppt GPT-5.4, en modell som helt fokuserar på avancerat arbete inom kodning och dataanalys. Den största nyheten är förmågan att styra datorer direkt. Istället för att bara skriva text kan modellen nu navigera i menyer, klicka med musen och använda tangentbordet för att utföra uppgifter i flera olika program samtidigt.
Enligt OpenAI är modellen 18 procent mer faktasäker än föregångaren GPT-5.2. Det bör minska de problem med felaktiga källor och hallucinationer som tidigare har plågat systemet.
Kontroll och kostnad
När GPT-5.4 används i ChatGPT:s ”Thinking mode” presenteras en tydlig arbetsplan i förväg. Det gör att du kan korrigera eller stoppa modellen innan den hinner generera ett färdigt svar. Den ökade prestandan innebär dock en tydlig prishöjning:
-
Dyrare för utvecklare: Priset för en miljon input-tokens höjs från 1,75 till 2,50 dollar.
-
Endast för betalande: Modellen är låst till företagskunder och Pro-abonnenter.
-
Vassare research: Sökfunktionen har blivit bättre på att gräva fram svar på mycket specifika frågor.
Pressen från Microsoft och konkurrenter
Satsningen på företagstjänster är avgörande för OpenAI. Sedan Microsoft började använda modeller från konkurrenten Anthropic i sina tjänster har pressen ökat på OpenAI att visa att deras teknik är bäst för tunga kontorsuppgifter. Trots intäkter på miljarder dollar blöder bolaget pengar på grund av enorma serverkostnader. GPT-5.4 är ett försök att skapa en hållbar affärsmodell genom att sälja AI som en oumbärlig medarbetare för proffs.
av Mikael Winterkvist | mar 7, 2026 | Artificiell intelligens, Bluesky, Mastodon, Threads |

Den ohämmade tillväxten inom artificiell intelligens har nu hamnat i direkt konflikt med globala klimatmål. Efter år av löften om nettonollutsläpp tvingas techbolagen nu erkänna att deras klimatavtryck ökar dramatiskt, vilket har väckt kraven på ny och strikt lagstiftning.
Du ser ett tydligt skifte i hur myndigheter i både EU och USA ser på sektorn. Tidigare har fokus legat på dataskydd och integritet, men nu flyttas blicken mot de fysiska resurserna. Lagstiftarna förbereder regler som ska tvinga företagen att redovisa exakt hur mycket energi och vatten deras AI modeller förbrukar, från träning till varje enskild användarfråga.
Politikens nya verktyg Flera regulatoriska initiativ är nu på väg att ritas om för att inkludera AI sektorns specifika påverkan:
-
EU:s AI Act och miljörapportering: Det finns nu förslag om att inkludera specifika hållbarhetsstandarder för stora språkmodeller. Du kan förvänta dig krav på transparens kring beräkningsresurserna som används under utvecklingsfasen.
-
Beskattning av energislukare: Diskussioner pågår om att införa särskilda avgifter för datacenter som inte når upp till vissa effektivitetskrav eller som belastar nationella elnät på ett sätt som hotar den allmänna försörjningen.
-
Krav på lokal energiproduktion: I vissa regioner ställs nu krav på att nya datacenter måste bygga egen förnybar energiproduktion för att överhuvudtaget få tillstånd att koppla upp sig på nätet.
Slutet på självregleringens tid Du märker att den tidigare strategin, där bolagen själva fick sätta sina miljömål, inte längre anses vara tillräcklig. När Google redovisar en utsläppsökning på nästan 50 procent på fem år blir det tydligt att frivilliga åtaganden inte räcker när affärsnyttan med AI prioriteras högre.
Kraven på hårdare regleringar handlar inte bara om miljö, utan även om rättvisa. När datacenter tar en allt större del av den gröna elen som skulle kunna gå till att ställa om tung industri eller uppvärmning, blir frågan om vem som har rätt till energin djupt politisk. Sektorn står nu inför en period där rätten att expandera kommer att vara villkorad av bevisad miljönytta.
Källor
Här är de primära källorna som ligger till grund för analysen av de politiska kraven och techbolagens ökade utsläpp: