av Mikael Winterkvist | okt 1, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads

OpenAI lanserar nu Sora 2, en ny generation av sin videomodell, tillsammans med en ny social app för iPhone med samma namn.
OpenAI beskriver modellen som ett ”GPT-3.5-ögonblick för video” – en stor utveckling i realismen och fysiken bakom genererade klipp. Den kan inte bara skapa trovärdiga miljöer, utan också hantera misslyckanden på ett naturligt sätt, till exempel när en missad basketbollstuds återges korrekt i stället för att verkligheten förvrids för att passa prompten. För första gången kan modellen dessutom generera ett helt ljudspår med bakgrundsljud, tal och ljudeffekter.
App
Den nya Sora-appen, som nu finns i App Store, är ett socialt nätverk byggt kring modellen. Användare kan skapa videor från text, remixa andras klipp och upptäcka nytt innehåll i ett flöde. En central funktion är så kallade ”cameos”, där användare kan lägga in en realistisk version av sig själva i valfri Sora-genererad scen efter en engångsinspelning av röst och video.
OpenAI har börjar att rulla ut appen och den nya tjänsten som inte finns tillgänglig i den svenska delen av Apples App Store, ännu.
Lanseringen fördjupar samarbetet med Apple, som redan använder OpenAIs modeller – bland annat det nyligen släppta GPT-5 – för avancerade Siri-frågor och andra Apple Intelligence-funktioner. Samarbetet är särskilt uppmärksammat eftersom Apple har skjutit upp sina mest avancerade Siri-funktioner till 2026. Samtidigt breddar OpenAI sin verksamhet mot hårdvara och har nyligen köpt ett AI-bolag grundat av Apples tidigare designchef Jony Ive.
Säkerhetsfunktioner
OpenAI framhåller att appen lanseras med säkerhetsfunktioner, däribland anpassning av flödet via naturligt språk och föräldrakontroller. Företaget säger också att man inte optimerar för tid i appen, utan för skapande.
Sora-appen finns nu att ladda ner med inbjudan i USA och Kanada, och kommer senare att lanseras globalt. Användare av ChatGPT Pro får dessutom tillgång till en experimentell version kallad ”Sora 2 Pro” med högre kvalitet.
Läs mer
Läcka avslöjar GPT-Alpha – avancerad agent med nya verktyg
OpenAI lanserar Pulse – morgonrapporter som anpassas efter dig
OpenAI satsar på en social app och videogenrering med AI
av Mikael Winterkvist | sep 30, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads

OpenAI förbereder lanseringen av en fristående social app byggd på den kommande videomodellen Sora 2, rapporterar Wired.
Appen ska enligt uppgift påminna starkt om TikTok, med ett vertikalt videoflöde och navigering genom att svepa på skärmen. Skillnaden är att innehållet enbart kommer att vara AI-genererat – användare kan alltså inte ladda upp egna bilder eller filmer från mobilens kamerarulle.
Tio sekunder
Wired uppger vidare att Sora 2 i appen begränsas till att skapa klipp på högst tio sekunder. Det är ännu oklart om samma gräns gäller utanför appen. Som jämförelse började TikTok med ett tak på 15 sekunder, men tillåter numera uppladdningar på upp till tio minuter. Den nya appen sägs också innehålla ett identitetsverifieringsverktyg. Om en användare väljer att aktivera det kan Sora 2 använda personens utseende i genererade videor. Andra användare kan då tagga personen och använda dennes likhet i egna remixade klipp. Som säkerhetsåtgärd skickar OpenAI en notis när någons utseende används i en video, även om den aldrig publiceras i appens flöde.
Skydden
Enligt Wired kommer mjukvaran att vägra generera vissa videor på grund av upphovsrättsbegränsningar. Hur starka skydden blir återstår att se. The Wall Street Journal rapporterar att OpenAI kommer kräva att rättighetsinnehavare aktivt väljer bort sitt material för att det inte ska dyka upp i Sora 2:s videor.
Satsningen på en social app kopplas av Wired till det politiska läget i USA. President Trump har vid upprepade tillfällen skjutit upp tidsfristen för ByteDance att föra över TikToks amerikanska verksamhet till USA-baserad kontroll. Genom att bygga in en social funktion i Sora kan OpenAI också hoppas hålla kvar användare, eftersom det skulle innebära att lämna en ny gemenskap om de väljer att gå över till en annan modell.
Läs mer
OpenAI och Nvidia i jättesatsning – 10 gigawatt för AI-infrastruktur
Läcka avslöjar GPT-Alpha – avancerad agent med nya verktyg
OpenAI lanserar Pulse – morgonrapporter som anpassas efter dig
av Mikael Winterkvist | sep 28, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads, Twitter

Pulse är inte bara ännu en AI-funktion – den markerar ett skifte i hur vi kommer att interagera med digitala assistenter. Från att sammanställa nyheter till att planera din dag visar Pulse hur AI snart kan förutse dina behov och påverka både produktivitet, medievanor och vardagsrutiner.
OpenAI lanserar Pulse som en personlig rapporteringsfunktion i ChatGPT. Tanken är att användaren varje morgon ska mötas av skräddarsydda sammanfattningar, framtagna under natten. Funktionen flyttar ChatGPT in i en mer proaktiv roll, där fem till tio rapporter levereras automatiskt medan du sover.
Tydligt steg
Lanseringen är ett tydligt steg i OpenAIs strategi att gå bortom den traditionella fråge-svar-modellen. Med Pulse vill bolaget demokratisera AI-drivna produktivitetsverktyg som tidigare varit förbehållna stora företag. Enligt OpenAIs applikationschef Fidji Simo är detta bara första steget i en ny utvecklingsfas. Till en början finns Pulse för Pro-användare som betalar 200 dollar i månaden, men målet är att alla ska få tillgång längre fram.
Att funktionen inte släpps direkt till alla beror delvis på tekniska begränsningar. Vd Sam Altman har själv sagt att Pulse och liknande produkter är mycket resurskrävande. För att kunna skala upp investerar OpenAI i nya datacenter tillsammans med bland andra Oracle och SoftBank.
I ChatGPT-appen nås Pulse via en egen flik. Där får användaren en daglig uppsättning rapporter anpassade efter intressen, aktiviteter och tidigare konversationer. Rapporterna kan till exempel samla nyheter om favoritlaget, tekniknyheter eller skapa personliga rekommendationer baserade på kalendern. Tack vare integrationen med ChatGPT Connectors kan Pulse även läsa e-post och schemalägga dagen automatiskt.
Demonstration
Vid en demonstration visade produktchefen Adam Fry hur Pulse genererar allt från nyhetsöversikter om fotbollsklubben Arsenal till förslag på halloweenkostymer för familjen och reseplanering anpassad för småbarn. Varje rapport presenteras som ett kort med text och AI-genererade bilder. När du klickar öppnas mer innehåll, och du kan fortsätta samtala med ChatGPT för att fördjupa rapporten. Pulse begränsar dock antalet rapporter per dag och visar sedan meddelandet ”Great, that’s it for today”, för att undvika det oändliga scrollande som präglar sociala medier.
Pulse kan även anpassas efter kostvanor och livsstil. Personaliseringchefen Christina Wadsworth Kaplan berättade att systemet kände igen hennes pescetariska kost och anpassade restaurangförslag därefter. Vid ett annat tillfälle inkluderades löprundor i ett reseschema för London.
Genom att hämta material från olika källor och länka till originalinnehållet placerar sig Pulse i samma fält som nyhetstjänster och nyhetsbrev. Målet är inte att ersätta traditionell journalistik, utan att komplettera den med en mer personlig kurering.
Källa:
TechSpot
Läs mer
Nytt reglage ger dig kontroll över GPT-5:s beräkningskraft
Läcka avslöjar GPT-Alpha – avancerad agent med nya verktyg
av Mikael Winterkvist | sep 28, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads, Twitter

Apple har utvecklat en intern app, liknande ChatGPT, för att prova en ombyggd version av Siri. Enligt Bloomberg används appen, som har kodnamnet Veritas, av Apples AI-avdelning för att snabbt utvärdera nya funktioner inför den länge utlovade uppdateringen av röstassistenten.
Appen är ett internt verktyg utan planer på att lanseras för allmänheten. Den låter anställda prova den nya assistentens förmåga att söka i personliga data som musik och e-post, samt utföra åtgärder direkt i appar, exempelvis redigera en bild. Veritas fungerar på ett liknande sätt som andra chattbotar, med stöd för flera konversationer, sparad historik och följdfrågor.
Syftet är att testa det ombyggda systemet Linwood, som kombinerar Apples egna språkmodeller med en extern modell. Projektet är en av företagets mest riskfyllda satsningar på senare tid, efter upprepade motgångar inom AI. De avancerade Siri-funktionerna var från början tänkta att lanseras tidigare, men är nu uppskjutna till tidigast mars 2026 på grund av tekniska problem.
Förseningarna
Förseningarna har lett till en stor omorganisation. Den tidigare Siri-chefen Robby Walker lämnar Apple i oktober efter att ha startat en ny grupp kallad Answers, Knowledge and Information (AKI). Denna hemliga enhet är numera central i utvecklingen av AI-baserade sökfunktioner till den uppdaterade assistenten.
Apple har också sökt samarbeten för att stärka sitt AI-arbete. Diskussioner pågår med Google om att använda plattformen Gemini, och bolaget har tidigare haft samtal med både OpenAI och Anthropic. Vid ett internt möte sa vd Tim Cook att AI-revolutionen var ”vår att ta vara på”.
Trots detta är Apple fortfarande tveksamt till att lansera en publik chattbot. I en intervju i juni betonade mjukvaruchefen Craig Federighi att ett sådant verktyg ”inte är vårt främsta mål”.
Läs mer
iOS 26.1: Nu kommer Apple Intelligence med stöd för svenska
Så vill Apple öppna appar för ChatGPT, Claude och andra AI-modeller
Läcka avslöjar GPT-Alpha – avancerad agent med nya verktyg
av Mikael Winterkvist | sep 25, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads

OpenAI testar internt en ny version av sin AI-agent, som använder en särskild variant av GPT-5 kallad ”GPT-Alpha”.
Tidigare i dag råkade företaget av misstag aktivera en ännu ej släppt funktion för alla användare.
GPT-5 Agent
I en skärmdump som delats på X syns att den nya funktionen kallas ”Agent with Truncation” och ligger under menyn Alpha Models.
Systemprompten för GPT-Alpha-agenten bekräftar att den är utformad för att utföra följande uppgifter:
- Söka på webben efter aktuell och nischad information
- Skapa och redigera bilder
- Skriva, köra och felsöka kod
- Skapa och redigera dokument, kalkylblad och presentationer
- Inte komma åt eller exponera privat information om den inte uttryckligen tillhandahålls
Prompten bekräftar också att agenten bygger på ”GPT-5 for Advanced Reasoning and Tool Use”.
Det är ännu oklart när den nya agenten börjar rullas ut. OpenAI:s vd Sam Altman har tidigare sagt att avancerade funktioner kommer att erbjudas betalande kunder, eftersom de kräver mer beräkningskapacitet.
Den nya agenten kan därför bli en av de premiumfunktioner som först lanseras exklusivt för ChatGPT:s betalversion.
Källa:
Bleeping Computer
Läs mer
Ny rapport visar hur världen använder ChatGPT
av Mikael Winterkvist | sep 23, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads

Med dagens lansering av utvecklarbetor för iOS 26.1, iPadOS 26.1 och macOS Tahoe 26.1 börjar Apple lägga grunden för att plocka in Anthropics protokoll för agentisk AI, Model Context Protocol (MCP) – och även andra AI-lösningar.
MCP, eller Model Context Protocol, presenterades av Anthropic i november förra året och har snabbt blivit branschstandard som gränssnitt mellan AI-system och traditionella plattformar. Protokollet vill vara AI-världens motsvarighet till HTTP för webben eller SMTP för e-post.
Enligt Anthropic har AI-assistenter fått stort genomslag, och utvecklingen har fokuserat på modellernas kapacitet, med snabba framsteg i resonemang och kvalitet, men även de mest avancerade modellerna begränsas av att vara isolerade från data, fast bakom informationssilos och äldre system. Varje ny datakälla kräver en specialanpassning, vilket gör det svårt att skala upp verkligt sammanlänkade system.
Öppen standard
MCP löser detta genom att erbjuda en universell, öppen standard för att koppla AI-system till datakällor. I stället för splittrade integrationer skapas en gemensam väg som gör det enklare och mer tillförlitligt att ge AI tillgång till den information de behöver.
Sedan lanseringen har MCP fått brett genomslag och används redan av plattformar och företag som Zapier, Notion, Google, Figma, OpenAI och Salesforce. Protokollet gör det möjligt för AI-assistenter att koppla upp sig mot API:er och datakällor och agera på användarens uppmaningar.
Exempel på vad MCP kan möjliggöra är att en AI-agent får tillgång till din Google-kalender och Notion, att Claude Code kan bygga en hel webbapp utifrån en Figma-design, att företagschatbots kan koppla ihop flera databaser i en organisation för enklare dataanalys, eller att AI-modeller kan skapa 3D-designer i Blender och sedan skicka dem direkt till en 3D-skrivare.
Hur tänker Apple använda MCP?
Koden som introducerats i de nya betaversionerna visar att Apple planerar att bygga in MCP-stöd i App Intents. Det är ett ramverk som gör det möjligt för appar att exponera sina funktioner och innehåll direkt mot systemet.
Apple beskriver själva App Intents som ett sätt att integrera appens funktioner med systemupplevelser som Siri, Spotlight, widgets och genvägar. Med Apple Intelligence förstärks detta, och Siri kan föreslå åtgärder i appar och även utföra handlingar i och mellan appar.
Detta innebär att utvecklare genom App Intents kan göra det möjligt för användare att utnyttja appens funktioner på flera sätt, till exempel genom:
- Interaktioner med Siri och Apple Intelligence
- Förslag och sökningar i Spotlight
- Automatiseringar i Genvägar
- Hårdvarugester, som Action-knappen eller tryck på Apple Pencil
- Fokusinställningar för att minska störningar
Med MCP integrerat på systemnivå skulle AI-modeller som ChatGPT eller Claude kunna interagera direkt med appar på Mac, iPhone och iPad, och utföra åtgärder i dessa, utan att utvecklarna behöver implementera allt MCP-stöd själva.
Förändring
Det är värt att notera att dagens kod endast visar de allra första stegen mot MCP-stöd. Det kan därför dröja innan funktionen lanseras eller ens offentliggörs, men redan nu är det tydligt att Apple förbereder sig för att ta in agentisk AI i sina plattformar, vilket kan bli en betydande förändring för både utvecklare och användare.