av Mikael Winterkvist | sep 23, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads

OpenAI och Nvidia meddelade på måndagen en avsiktsförklaring om ett strategiskt partnerskap som innebär att minst 10 gigawatt Nvidias system ska användas för att bygga upp OpenAI:s AI-infrastruktur. Nvidia planerar att investera upp till 100 miljarder dollar i samband med utrullningen. De första systemen, motsvarande en gigawatt, ska tas i drift under andra halvan av 2026 med hjälp av Nvidias Vera Rubin-plattform.
OpenAI:s vd Sam Altman betonade i samband med tillkännagivandet att all utveckling börjar med beräkningskraft, och att infrastrukturen som byggs tillsammans med Nvidia ska bli grunden för framtidens ekonomi. Projektet ska både leda till nya AI-genombrott och göra det möjligt att tillgängliggöra tekniken för människor och företag i stor skala.
Planen på 10 gigawatt är utan motstycke inom AI och innebär en investering på en nivå som aldrig tidigare prövats. Nvidias vd Jensen Huang beskrev det som ett gigantiskt projekt. Han påpekade att 10 gigawatt motsvarar energiförbrukningen hos mellan 4 och 5 miljoner grafikkort – lika mycket som Nvidias totala leveranser i år, och dubbelt så mycket som året innan.
Energibehov
För att sätta energibehovet i perspektiv: 10 gigawatt motsvarar produktionen från ungefär tio kärnkraftsreaktorer, medan dagens datacenter i regel förbrukar mellan 50 och 100 megawatt. OpenAI:s planerade satsning skulle alltså kräva lika mycket el som flera större städer.
Partnerskapet tillkännages samtidigt som OpenAI vuxit till 700 miljoner aktiva användare i veckan. Nvidias aktie steg med nästan 4 procent efter nyheten, vilket motsvarade ett tillskott på omkring 170 miljarder dollar i bolagets börsvärde. Samarbetet gör Nvidia till OpenAI:s strategiska partner för beräkningskraft och nätverk, vid sidan av befintliga samarbeten med Microsoft, Oracle, SoftBank och det nyligen offentliggjorda Stargate-projektet.
Nyheten kom också bara en vecka efter att Nvidia investerat 5 miljarder dollar i Intel och tagit en ägarandel på 4 procent, med planer på gemensam utveckling av datacenter- och PC-produkter.
Enligt Bryn Talkington, partner på Requisite Capital Management, har upplägget en cirkulär karaktär eftersom Nvidia investerar 100 miljarder i OpenAI, som i sin tur köper tillbaka systemen från Nvidia.
De ekonomiska och tekniska dimensionerna är enorma. Enligt Jensen Huang kostar det mellan 50 och 60 miljarder dollar att bygga ett datacenter på en gigawatt, varav cirka 35 miljarder går till Nvidias system. På den grunden kan hela projektet på 10 gigawatt kräva över 500 miljarder dollar i investeringar.
Kärnkraft
Den enorma energiförbrukningen gör att flera teknikjättar nu söker sig till kärnkraft. Microsoft tecknade 2024 ett 20-årigt avtal för att återstarta en reaktor vid Three Mile Island för 835 megawatt, medan Amazon Web Services i år köpte ett datacenter vid Susquehanna-kraftverket i Pennsylvania för att kunna använda upp till 960 megawatt.
Även på andra håll i USA planeras gigantiska AI-center. I juli presenterades projekt i Wyoming som ska kunna skala till 10 gigawatt, med en första fas på 1,8 gigawatt. Enligt uppgifter har Altman redan i över ett år talat om planer på datacenter i storleksordningen 5 gigawatt vardera, något som enligt beräkningar skulle kunna förbruka dubbelt så mycket el som hela delstaten New York.
Projektet innebär därför inte bara tekniska framsteg utan också växande miljömässiga och praktiska utmaningar. Den internationella energimyndigheten IEA uppskattar att datacenter redan förbrukade cirka 1,5 procent av världens el 2024, och att behovet kan växa till 945 terawattimmar år 2030. Redan nu utgör elnätsanslutningar en flaskhals i flera regioner.
Detaljerna i OpenAI och Nvidias avtal väntas fastställas de kommande veckorna. Jensen Huang har sagt att de 100 miljarderna är utöver Nvidias befintliga åtaganden och därför inte ingår i bolagets senaste prognoser till investerare.
Källa:
Ars Technica
av Mikael Winterkvist | sep 20, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads, Twitter

OpenAI lanserar nu ett reglage som låter dig själv bestämma hur mycket beräkningskraft GPT-5 Thinking ska använda. Funktionen rullas nu ut till Plus- och Pro-prenumeranter.
Under flera veckor har reglaget testats internt. Från början fanns planer på en mer avancerad skjutreglage-lösning, men nu har man landat i ett enklare på- och av-reglage som styr hur hårt modellen arbetar.
Reglaget
Reglaget erbjuder olika nivåer av beräkningsinsats, internt kallade för ”juice-värden”. Standardnivån ligger på 18 och är tänkt att balansera fart och intelligens. Extended lyfter nivån till 64 och ger mer utförlig bearbetning.
Pro-användare får dessutom tillgång till ytterligare två lägen. Light ligger på 5 och ger snabba, korta svar. Heavy ligger på hela 200 och representerar den maximala kapacitet som GPT-5 Thinking kan använda.
Plus- och Business-kunder får tillgång till Standard och Extended, medan Pro-användare alltså kan växla även till Light och Heavy. Funktionen gör det möjligt att själv styra om fokus ska ligga på snabbhet eller djup i resonemangen.
Läs mer
Ny rapport visar hur världen använder ChatGPT
av Mikael Winterkvist | sep 18, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads

Googles nya bildredigeringsmodell Nano Banana har blivit en stor succé och är en viktig förklaring till att Gemini för iPhone just nu toppar listan över gratisappar i amerikanska App Store – och skuggar ChatGPT i den svenska delen av butiken.
På fredagskvällen låg Google Gemini på förstaplatsen i Apples lista över de mest nedladdade gratisapparna i USA. ChatGPT fanns på andra plats, medan den sociala appen Threads tog tredjeplatsen. Andra Google-appar placerade sig också högt: Google (Search) på sjätte plats, Google Maps på åttonde, Google Chrome på trettonde och Gmail på 21:a plats.

Svenska App Store
Gemini
I Kanada och Storbritannien ligger Gemini på en andraplats. Mellan lanseringen den 26 augusti och den 9 september fick appen 23 miljoner nya användare. Under samma period har Nano Banana använts för att redigera över 500 miljoner bilder.
Framgången för modellen hänger ihop med att den lyckas bevara både karaktärslikhet och visuell konsekvens i bilderna. Användare kan ladda upp flera foton för att skapa nya, överföra stilar och dessutom redigera bilder med hjälp av konversationell interaktion.
Källa:
digit.in
av Mikael Winterkvist | sep 16, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads

Trots att Googles AI Overviews lanserades med en minst sagt skakig start står företaget nu inför en betydligt allvarligare utmaning. Mediejätten Penske Media, som ger ut bland annat Rolling Stone, Variety och Billboard, har stämt Google med anklagelsen att bolaget olagligt driver sin AI Overviews-funktion med innehåll hämtat från deras sajter.
I stämningsansökan hävdar Penske att funktionen både dränerar och avskräcker användare från att besöka deras och andra publicisters webbplatser, vilket riskerar att leda till minskade annonsintäkter. Processen har inletts i en federal domstol i Washington DC, och enligt Penske sker AI Overviews nu i omkring 20 procent av de Google-sökningar som annars skulle länka till någon av deras sajter. Företaget menar också att andelen växer och att intäkterna från affiliatelänkar under 2024 sjönk med mer än en tredjedel från tidigare toppnivåer.
Försvara sig
Googles talesperson Jose Castaneda svarade att företaget kommer att försvara sig mot vad han kallade ogrundade anklagelser och hävdade att AI Overviews i själva verket leder trafik till en större bredd av webbplatser.
Tidigare i år mötte Google en liknande stämning från utbildningsteknikbolaget Chegg, som menade att funktionen skadat deras besökstrafik och intäkter. Skillnaden är att Penskes fall markerar första gången en större amerikansk publicist juridiskt går till angrepp mot Googles AI-sökfunktion.
Trycket
Samtidigt har även andra AI-företag fått känna av det juridiska trycket. New York Times stämde OpenAI år 2023 för att ha använt publicerade artiklar för att träna sina chattbotar utan ersättning, och nyligen gick Anthropic med på att betala en förlikning på 1,5 miljarder dollar i en grupptalan gällande användningen av upphovsrättsskyddat material i chatboten Claude.
Källa:
Engadget
av Mikael Winterkvist | sep 16, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads

Vad använder folk ChatGPT till?
Nu har OpenAI:s ekonomiska forskningsteam tillsammans med Harvard-ekonomen David Denning tagit fram den mest omfattande kartläggningen hittills. I en rapport publicerad via National Bureau of Economic Research presenteras unik statistik baserad på intern användardata från ChatGPT.
Till skillnad från tidigare undersökningar, som byggt på enkäter och självrapportering, ger den här rapporten en direkt inblick i hur människor faktiskt använder ChatGPT över tid och för olika uppgifter.
Rapporten är på 65 sidor och visar flera intressanta resultat. Här är de mest anmärkningsvärda insikterna.
ChatGPT växer snabbare än någonsin
ChatGPT passerade 100 miljoner veckovisa användare i början av 2024, steg till 400 miljoner i början av 2025 och har nu över 700 miljoner användare – motsvarande nästan 10 procent av världens vuxna befolkning. Antalet meddelanden som skickas har samtidigt ökat dramatiskt, från 451 miljoner per dag i juni 2024 till över 2,6 miljarder i juni 2025. Som jämförelse meddelade Google i mars att deras sökmotor hanterar omkring 14 miljarder sökningar dagligen.
Tillväxten drivs av nya användare – gamla planar ut
Statistiken visar att de flesta av de etablerade användarna inte ökar sin dagliga användning längre. Två tydliga tillväxtperioder kan urskiljas: hösten 2024 i samband med lanseringen av o1-preview och o1-mini, samt våren 2025 när o3 och o4-mini släpptes. Sedan juni har användningen per etablerad användare legat stabilt, medan den totala tillväxten nästan helt kommer från nya användare som tillkommit efter april.

Användarna är unga och allt oftare kvinnor
Nästan hälften av användarna är mellan 18 och 25 år, vilket gör ChatGPT till en plattform dominerad av den yngsta vuxna generationen. Andelen minderåriga som använder tjänsten är dessutom sannolikt betydande, även om de inte ingår i statistiken. Könsfördelningen har förändrats kraftigt: vid lanseringen 2022 var 80 procent av användarna män, men nu utgör kvinnor en knapp majoritet på drygt 52 procent.
Privata användningar dominerar över arbetsrelaterade
Trots att språkmodeller ofta lyfts fram som ett verktyg för arbetslivet visar rapporten att majoriteten av användningen sker för privata syften. I juni 2024 var 53 procent av alla meddelanden icke arbetsrelaterade, i juni 2025 hade andelen stigit till över 72 procent.
Skrivhjälp är den största enskilda användningen
Av 1,1 miljoner konversationer mellan maj 2024 och juni 2025 handlade 28 procent om någon form av skrivhjälp. För arbetsrelaterade konversationer var siffran 42 procent, och bland chefer och företagsledare var hela 52 procent kopplade till skrivstöd. De vanligaste uppgifterna var redigering och återkoppling på texter snarare än att generera helt nya.
Allt fler använder ChatGPT som en sökmotor
Andelen konversationer där användare sökte information steg från 14 procent i juni 2024 till 24,4 procent i juni 2025. Det gör informationssökning till en av de största användningskategorierna, strax före skrivande. Samtidigt kvarstår problemet med felaktiga svar och så kallad hallucination, vilket gör att ChatGPT fortfarande är en osäker källa till fakta.
Beslutsfattande är en växande användning
14,9 procent av de arbetsrelaterade konversationerna handlade om beslutsfattande och problemlösning, vilket gör detta till en av de vanligaste uppgifterna efter dokumentation och skrivhjälp. Användare verkar alltså allt mer använda ChatGPT som rådgivare och assistent i arbetet.

Andra användningsområden är små i omfattning
Multimedia stod för 6 procent, programmering 4,2 procent, kreativt idéarbete 3,9 procent, matematiska beräkningar 3 procent, relationer och personlig reflektion 1,9 procent samt spel och rollspel bara 0,4 procent av de analyserade konversationerna.
Rapporten visar sammantaget att ChatGPT:s användning växer kraftigt men att det främst är nya användare som driver utvecklingen. Samtidigt används modellen i första hand för skrivstöd och informationssökning, medan många andra omtalade användningsområden fortfarande är marginella.
av Mikael Winterkvist | sep 13, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads, Twitter

När diskussionen om artificiell intelligens domineras av molntjänster och kraftfulla serverhallar lyfter Apple fram en annan väg. Företagets största fördel i konkurrensen är inte en egen språkmodell eller en rad nya AI-appar, utan den hårdvara som redan finns i miljontals människors händer. Genom iPhone, iPad och Mac kan Apple köra avancerade AI-beräkningar direkt på enheten – utan att användaren behöver koppla upp sig mot ett datacenter.
Det här är en strategi som Apple utvecklat under flera år. När Neural Engine först introducerades i A-seriens chip till iPhone fick telefonen förmågan att snabbt bearbeta bildigenkänning, röststyrning och maskininlärning på egen hand. I dag är tekniken betydligt mer avancerad och bygger in möjligheten till generativa funktioner, realtidsöversättning och smartare bildredigering – allt utan att lämna enheten.
Fördelen ligger i kombinationen av prestanda och integritet. Apple kan hävda att känslig information, som personliga meddelanden eller bilder, aldrig behöver lämna användarens enhet för att bearbetas av AI. I en tid då frågor om dataskydd och säkerhet blir allt viktigare blir det ett starkt argument. Samtidigt gör Apples egna chip, som M-serien i Mac och iPad, att företaget inte är beroende av externa grafikkortstillverkare eller molnkapacitet i samma utsträckning som konkurrenterna.
Mer tillgänglig
Denna hårdvarubaserade satsning innebär också att AI blir mer tillgänglig i vardagen. Funktionen för transkribering av tal, sammanfattning av text eller smart bildredigering finns redan integrerad i operativsystemen. För användaren känns det som en naturlig del av iOS och macOS snarare än ett separat verktyg. Det är just den typen av sömlös integration som Apple hoppas ska få fler att se AI som en självklar funktion, snarare än en teknik som kräver särskilda tjänster eller abonnemang.
Samtidigt ger hårdvaran Apple möjligheten att kontrollera hela kedjan – från kretsdesign till programvara. Det gör att företaget kan optimera varje del av AI-upplevelsen för sina egna produkter. Där konkurrenterna måste anpassa sina lösningar till en mängd olika plattformar kan Apple fokusera på att förfina helheten för sina egna enheter.
Infrastrukturen
Det dolda esset är därför inte en enskild AI-tjänst, utan infrastrukturen som gör att Apple kan placera intelligensen direkt i fickan på användaren. I praktiken innebär det att du inte bara får tillgång till nya funktioner, utan att telefonen och datorn faktiskt blir smartare med tiden. Apples vägval visar att AI inte alltid måste ligga långt borta i molnet – ibland räcker det med en liten krets nära dig.