av Mikael Winterkvist | mar 7, 2026 | Artificiell intelligens, Bluesky, Mastodon, Threads |

OpenAI har nu släppt GPT-5.4, en modell som helt fokuserar på avancerat arbete inom kodning och dataanalys. Den största nyheten är förmågan att styra datorer direkt. Istället för att bara skriva text kan modellen nu navigera i menyer, klicka med musen och använda tangentbordet för att utföra uppgifter i flera olika program samtidigt.
Enligt OpenAI är modellen 18 procent mer faktasäker än föregångaren GPT-5.2. Det bör minska de problem med felaktiga källor och hallucinationer som tidigare har plågat systemet.
Kontroll och kostnad
När GPT-5.4 används i ChatGPT:s ”Thinking mode” presenteras en tydlig arbetsplan i förväg. Det gör att du kan korrigera eller stoppa modellen innan den hinner generera ett färdigt svar. Den ökade prestandan innebär dock en tydlig prishöjning:
-
Dyrare för utvecklare: Priset för en miljon input-tokens höjs från 1,75 till 2,50 dollar.
-
Endast för betalande: Modellen är låst till företagskunder och Pro-abonnenter.
-
Vassare research: Sökfunktionen har blivit bättre på att gräva fram svar på mycket specifika frågor.
Pressen från Microsoft och konkurrenter
Satsningen på företagstjänster är avgörande för OpenAI. Sedan Microsoft började använda modeller från konkurrenten Anthropic i sina tjänster har pressen ökat på OpenAI att visa att deras teknik är bäst för tunga kontorsuppgifter. Trots intäkter på miljarder dollar blöder bolaget pengar på grund av enorma serverkostnader. GPT-5.4 är ett försök att skapa en hållbar affärsmodell genom att sälja AI som en oumbärlig medarbetare för proffs.
av Mikael Winterkvist | mar 7, 2026 | Artificiell intelligens, Bluesky, Mastodon, Threads |

Den ohämmade tillväxten inom artificiell intelligens har nu hamnat i direkt konflikt med globala klimatmål. Efter år av löften om nettonollutsläpp tvingas techbolagen nu erkänna att deras klimatavtryck ökar dramatiskt, vilket har väckt kraven på ny och strikt lagstiftning.
Du ser ett tydligt skifte i hur myndigheter i både EU och USA ser på sektorn. Tidigare har fokus legat på dataskydd och integritet, men nu flyttas blicken mot de fysiska resurserna. Lagstiftarna förbereder regler som ska tvinga företagen att redovisa exakt hur mycket energi och vatten deras AI modeller förbrukar, från träning till varje enskild användarfråga.
Politikens nya verktyg Flera regulatoriska initiativ är nu på väg att ritas om för att inkludera AI sektorns specifika påverkan:
-
EU:s AI Act och miljörapportering: Det finns nu förslag om att inkludera specifika hållbarhetsstandarder för stora språkmodeller. Du kan förvänta dig krav på transparens kring beräkningsresurserna som används under utvecklingsfasen.
-
Beskattning av energislukare: Diskussioner pågår om att införa särskilda avgifter för datacenter som inte når upp till vissa effektivitetskrav eller som belastar nationella elnät på ett sätt som hotar den allmänna försörjningen.
-
Krav på lokal energiproduktion: I vissa regioner ställs nu krav på att nya datacenter måste bygga egen förnybar energiproduktion för att överhuvudtaget få tillstånd att koppla upp sig på nätet.
Slutet på självregleringens tid Du märker att den tidigare strategin, där bolagen själva fick sätta sina miljömål, inte längre anses vara tillräcklig. När Google redovisar en utsläppsökning på nästan 50 procent på fem år blir det tydligt att frivilliga åtaganden inte räcker när affärsnyttan med AI prioriteras högre.
Kraven på hårdare regleringar handlar inte bara om miljö, utan även om rättvisa. När datacenter tar en allt större del av den gröna elen som skulle kunna gå till att ställa om tung industri eller uppvärmning, blir frågan om vem som har rätt till energin djupt politisk. Sektorn står nu inför en period där rätten att expandera kommer att vara villkorad av bevisad miljönytta.
Källor
Här är de primära källorna som ligger till grund för analysen av de politiska kraven och techbolagens ökade utsläpp:
av Mikael Winterkvist | mar 7, 2026 | Artificiell intelligens, Bluesky, Mastodon, Threads |

AI-tjänsterna har på kort tid blivit en av teknikbranschens mest använda produkter. Hundratals miljoner människor använder dagligen tjänster som ChatGPT, Gemini och Claude. Samtidigt är en sak tydlig när man granskar ekonomin bakom utvecklingen: marknaden präglas fortfarande av investeringar, inte av lönsamhet.
Det är en situation som påminner om tidigare teknikskiften. När internet slog igenom i slutet av 1990-talet byggdes infrastrukturen långt innan affärsmodellerna var färdigutvecklade. Samma sak händer nu med generativ AI. Företagen tävlar om att utveckla bättre modeller, snabbare datacenter och större användarbaser, trots att kostnaderna ännu är mycket höga.
Beräkningskraften
Den enskilt största utgiften är beräkningskraften. Stora språkmodeller kräver avancerade grafikprocessorer, enorma datacenter och stora mängder elektricitet. Kostnaden uppstår både när modellerna tränas och varje gång de används. Varje fråga till en AI-tjänst innebär en faktisk driftkostnad. Även om kostnaden per svar har minskat i takt med bättre hårdvara och effektivare modeller, blir den totala kostnaden hög när hundratals miljoner människor använder systemen.
OpenAI är ett tydligt exempel på den här ekonomiska logiken. ChatGPT har blivit den mest använda AI-tjänsten i världen och har en snabbt växande intäktsbas genom abonnemang och företagslösningar. Samtidigt investerar företaget enorma summor i datacenter, modellutveckling och infrastruktur. Företagets strategi bygger på tillväxt och tekniskt försprång snarare än kortsiktig lönsamhet.
Förlusten i år uppskattas till (sätt dig ned) 14 miljarder … dollar.
Investeringar
Anthropic befinner sig i en liknande situation. Företaget bakom Claude har tagit in stora investeringar från bland annat Amazon och Google för att finansiera utvecklingen av sina modeller. Intäkterna växer genom företagskunder och abonnemang, men kapitalbehovet är fortfarande mycket stort. AI-modellerna kräver kontinuerliga uppdateringar, ny träning och allt kraftfullare hårdvara.
Google och Microsoft spelar en något annorlunda roll på marknaden. Deras AI-tjänster är inte isolerade produkter utan en del av större ekosystem. Gemini är integrerad i Googles sökningar, molntjänster och Android-plattform. Copilot är inbyggd i Windows, Microsoft 365 och företagets molntjänster. För dessa företag är AI inte bara en tjänst som ska säljas, utan också ett sätt att stärka andra affärer. AI blir ett verktyg för att behålla användare, sälja molntjänster och försvara positioner i andra marknader.
Det innebär att lönsamheten för AI-tjänsterna ofta måste analyseras i ett bredare sammanhang. En AI-modell som i sig inte går med vinst kan ändå vara strategiskt viktig eftersom den driver trafik, stärker ett ekosystem eller ökar efterfrågan på molninfrastruktur.
Konsumentappar
En annan viktig faktor är att konsumentappar sannolikt inte blir den största intäktskällan. Många privatpersoner använder AI gratis eller betalar relativt små abonnemangsavgifter. De stora intäkterna finns i stället på företagsmarknaden. Företag betalar betydligt mer för API-åtkomst, specialiserade modeller och integrerade AI-lösningar i sina egna system. Därför satsar nästan alla AI-företag tungt på företagskunder.
Samtidigt sjunker kostnaderna gradvis. Ny hårdvara utvecklas för AI-beräkningar, datacenter byggs i snabb takt och modellerna blir mer effektiva. Forskning och teknisk utveckling gör att varje generation AI kan köras billigare än den förra. Det är en utveckling som på sikt kan förändra ekonomin bakom tjänsterna.
Marknaden befinner sig därför i ett tydligt övergångsskede. Efterfrågan på AI är enorm och växer snabbt, men affärsmodellerna är fortfarande under utveckling. Företagen investerar aggressivt för att säkra tekniskt försprång och marknadsandelar, även om det innebär att lönsamheten skjuts på framtiden.
Historiskt sett har den här typen av investeringar ofta lett till några få dominerande aktörer när marknaden väl stabiliseras. Samma mönster kan mycket väl upprepas i AI-branschen. De företag som i dag har kapital, datacenter och teknisk kompetens att driva utvecklingen kan också vara de som i framtiden kontrollerar infrastrukturen för en av världens viktigaste teknologier.
Begränsade
Det gör att dagens situation, där användartalen växer snabbt men vinsterna är begränsade, inte nödvändigtvis är ett tecken på svaghet. Snarare är det ett uttryck för hur stora teknikskiften brukar se ut i början. AI-industrin befinner sig fortfarande i byggfasen. Frågan är inte om tekniken kommer att bli lönsam, utan vilka aktörer som kommer att stå kvar när den fasen är över.
ChatGPT är i dag den största tjänsten. OpenAI uppger att tjänsten har omkring 900 miljoner veckovisa användare globalt. Antalet betalande abonnenter uppges ligga runt 50 miljoner. Siffrorna kommer från uttalanden från OpenAI och företagets ledning under 2026.
Gemini från Google har vuxit snabbt, framför allt eftersom tjänsten integreras i Android, Google-sökning och Google Workspace. Uppskattningar pekar på omkring 750 miljoner användare. Google redovisar däremot inte hur många av dessa som är betalande användare i Gemini Advanced eller via Workspace-abonnemang.
Claude från Anthropic är mindre men växer snabbt, särskilt bland företag och utvecklare. Uppskattningar placerar tjänsten runt 200–300 miljoner månatliga användare. Företaget redovisar inte hur många av dessa som betalar för Claude Pro eller företagsversionerna.
En fjärde stor aktör brukar vara Microsoft Copilot. Tjänsten är integrerad i Windows, Bing och Microsoft 365 och uppskattas ha omkring 100 miljoner användare. Microsoft redovisar dock inte exakt hur många av dessa som använder Copilot via betalversioner i Microsoft 365 eller Copilot Pro.
Marknaden domineras alltså av två mycket stora tjänster, ChatGPT och Gemini. Claude och Copilot utgör nästa nivå, medan flera andra aktörer försöker växa in i toppskiktet. Exempel är Perplexity, xAI:s Grok och kinesiska DeepSeek.
Källor
Economic Times
Forklog.com
SQ Magazine
Firstpagesage.com
av Mikael Winterkvist | mar 6, 2026 | Artificiell intelligens, Bluesky, Threads

Russet är en ny typ av AI-assistent som kombinerar kraften i Apple Intelligence med fullständig integritet. Till skillnad från många andra tjänster körs alla konversationer lokalt på din enhet som standard. Detta innebär att du kan chatta, planera och skapa utan att någonsin behöva en internetanslutning. Appen är helt gratis, saknar annonser och kräver inget konto för att användas.
Appen fungerar som en länk mellan samtalsintelligens och din personliga information. Genom smarta mallar kan du få omedelbara sammanfattningar av dina kalenderhändelser för dagen eller hela veckan. Eftersom all bearbetning sker lokalt lämnar dina data aldrig telefonen. Russet kan även läsa PDF-filer och svara på frågor om innehållet utan att ladda upp dokumenten till molnet.
Här är några av de mest framstående funktionerna:
-
Agent-verktyg: Hantera din hälsa, dina kontakter och din kalender genom intelligenta verktyg som arbetar offline.
-
Flow: Redigera, sammanfatta eller skriv om texter med ett enda tryck.
-
Anpassningsbarhet: Justera hur kreativ AI:n ska vara och välj mellan olika nedladdningsbara modeller som är optimerade för Apple-enheter.
-
Säkerhet: Lås känsliga chattar med biometrisk identifiering direkt på enheten.
Möjlighet till molnbaserad kraft
För den som vill ha tillgång till ännu mer avancerade modeller erbjuder Russet en flexibel lösning. Du kan välja att lägga in din egen API-nyckel från OpenAI för att använda modeller som GPT-5.1 eller GPT-5 mini direkt i appens gränssnitt. När du aktiverar en molnmodell skickas förfrågningarna direkt till leverantören, vilket innebär att Russets utvecklare aldrig har tillgång till din information.
Kreativitet och spel utan uppkoppling
Utöver produktivitet erbjuder Russet även ett spelläge där du kan ge dig ut på textbaserade äventyr. Du skapar berättelserna tillsammans med assistenten, vilket gör varje upplevelse unik. Appen stöder 13 olika språk i både text och tal, vilket gör den till ett mångsidigt verktyg oavsett var du befinner dig.
Russet kräver att din enhet har stöd för Apple Intelligence för att fungera optimalt. Det är ett perfekt val för användare som vill ha modern teknik utan att kompromissa med sin personliga integritet.
Källa: Russet
What’s new in version 2026.03.15
New
- Say hello to the latest and greatest multimodal Qwen3.5 Small Model Series (SMS), among others, now live on Russet. Download from Settings and spin up a new Chat to try.
- Introducing Speech: generate natural and expressive speech from text in any voice. As with all else on Russet, neither text nor speech leaves your Mac and processing occurs on-device.
- Expanded supported attachment types in chat for all on-device models. Plus new agentic tools thanks to more supported attachment types: Summarize Document and Explain Code.
av Mikael Winterkvist | mar 5, 2026 | Artificiell intelligens, Bluesky, Mastodon, Threads |

Apple inför nu nya metadatataggar som gör det möjligt för skivbolag och distributörer att redovisa när AI har använts i skapandet av musik och omslag. Syftet är att öka transparensen på plattformen i takt med att generativ teknik blir allt vanligare inom branschen.
Kravet på märkning gäller för allt nytt innehåll som levereras till Apple Music framöver. Systemet är uppdelat i fyra huvudkategorier för att täcka olika delar av den kreativa processen.
Fyra typer av märkning
Du får här en översikt av de nya taggarna och vad de omfattar:
-
Omslag: Används när AI har skapat en väsentlig del av bildmaterialet till ett album. Det gäller både för stillbilder och rörlig grafik.
-
Låt: Denna tagg placeras på låtnivå om en väsentlig del av själva ljudinspelningen är AI-genererad.
-
Komposition: Gäller när AI har skapat betydande delar av musiken eller texten i ett verk.
-
Musikvideo: Används för videor där de visuella elementen till stor del har tagits fram med hjälp av AI.
Apple lämnar det till distributörerna själva att avgöra exakt vad som räknas som en väsentlig del av innehållet. Det fungerar på samma sätt som när bolagen i dag sätter genrer eller anger vem som medverkat på en inspelning.
Företaget ser de nya märkningarna som ett första steg för att ge dig som lyssnare mer information om hur materialet på plattformen har skapats. Mer detaljerad information finns i de uppdaterade specifikationerna för Apple Music.
Källa: Apple
av Mikael Winterkvist | mar 5, 2026 | Artificiell intelligens, Bluesky, Mastodon, Threads |

Sam Altmans senaste besked till de anställda på OpenAI är tydligt: företaget har ingen kontroll över hur Pentagon använder deras AI-produkter i militära operationer. Uttalandet kommer efter en tid av hård kritik och interna etiska diskussioner om hur tekniken implementeras i krigföring.
Enligt rapporter från Bloomberg och CNBC klargjorde Altman för sin personal att de inte har något inflytande över militära insatser. Han drog paralleller till aktuella världshändelser och menade att oavsett om en anställd stödjer en specifik militär aktion eller inte, så är det inget OpenAI får lägga sig i när tekniken väl är såld.
Konflikt om säkerhetsspärrar
Bakgrunden är Pentagons krav på att AI-bolagen ska ta bort säkerhetsspärrar i sina modeller för att möjliggöra bredare militär användning. AI-system rapporteras redan ha använts av USA vid insatser mot ledarskapet i Venezuela och för måltavelsbeslut i konflikten med Iran.
Medan konkurrenten Anthropic nobbade ett avtal med Pentagon – av rädsla för att deras teknik skulle användas för massövervakning eller helt autonoma vapen – valde OpenAI att kliva in. Detta ledde till att den amerikanska försvarsministern Pete Hegseth stämplade Anthropic som en ”säkerhetsrisk för leveranskedjan”, en unik och ekonomiskt skadlig beteckning för ett amerikanskt bolag.
Anklagelser om ”säkerhetsteater”
Timingen för OpenAI:s avtal har fått Sam Altman att erkänna att agerandet såg ”opportunistiskt och slarvigt” ut. Samtidigt går Anthropics vd, Dario Amodei, till hårt angrepp mot Altman i ett internt memo. Amodei anklagar OpenAI för att ägna sig åt ”säkerhetsteater” för att lugna sina anställda, snarare än att faktiskt hålla fast vid etiska principer.
Enligt Amodei handlar konflikten med Trump-administrationen även om pengar och lojalitet:
-
Politiska donationer: OpenAI:s president Greg Brockman har, tillsammans med sin fru, donerat 25 miljoner dollar till en kampanjorganisation som stödjer Donald Trump.
-
Uteblivet stöd: Anthropic menar att regeringens ogillande mot dem delvis beror på att de, till skillnad från OpenAI, inte har skänkt pengar till presidenten.
Källa: The Guardian