Vårens uppdatering till iOS 26.4 innebär en totalrenovering av Siri. Apple överger den gamla hybridmodellen och lanserar en helt ny arkitektur byggd kring stora språkmodeller (LLM). Istället för att bara leta efter nyckelord får assistenten nu en förmåga till resonemang som påminner om ChatGPT och Claude.
Bakom kulisserna har Apple ingått ett flerårigt samarbete med Google. Siri i iOS 26.4 använder en specialanpassad modell utvecklad tillsammans med Gemini-teamet. Apple fortsätter att utveckla egna modeller internt, men för de publika funktionerna är det Googles teknik som nu driver utvecklingen framåt.
Tre pelare i den nya assistenten
Den nya Siri-versionen fokuserar på tre huvudområden som ska göra assistenten mer användbar i vardagen:
-
Personlig kontext: Siri kan nu hålla reda på information i mejl, meddelanden, filer och foton. Du kan ställa frågor som ”Var är receptet Eric skickade till mig?” eller be assistenten hitta ditt passnummer i dina dokument.
-
Skärmmedvetenhet: Assistenten ser vad som händer på din skärm. Om någon skickar en adress i ett meddelande kan du be Siri lägga till den på personens kontaktkort direkt, eller be henne skicka bilden du just nu tittar på till en vän.
-
Djupare appintegration: Siri kan utföra uppgifter som sträcker sig över flera appar. Det handlar om allt från att redigera ett foto och sedan skicka det, till att hämta vägbeskrivningar och samtidigt dela din ankomsttid med en kontakt.
En nödvändig omstart
Beslutet att bygga om Siri från grunden togs efter interna problem under 2025. Mjukvaruchefen Craig Federighi förklarade för anställda att det tidigare försöket att kombinera gamla system med nya AI-modeller misslyckades. Den enda vägen framåt var en helt ny arkitektur.
Misslyckandet ledde till en omfattande omstrukturering i Apples ledning. Mike Rockwell, tidigare chef för Vision Pro, har tagit över ansvaret för Siri efter John Giannandrea. Enligt Federighi har det nya ledarskapet gett utvecklingen en välbehövlig energikick.
Inte en fullfjädrad chatbot ännu
Trots de stora förbättringarna fungerar Siri i iOS 26.4 inte som en ren chatbot. Den saknar fortfarande långtidsminne för längre konversationer och behåller i stort sitt röstbaserade gränssnitt. Steget till en fullfjädrad konversations-AI väntas istället ske i iOS 27 nästa år.
Apple fortsätter att prioritera integritet genom att köra vissa funktioner direkt på enheten och använda Private Cloud Compute för mer krävande uppgifter. All personlig data stannar på enheten och användaren kan fortfarande välja att stänga av AI-funktionerna helt.
Lansering under våren
iOS 26.4 väntas gå in i betatestning under slutet av februari eller början av mars. Den publika lanseringen planeras ske runt april. Uppdateringen förväntas fungera på alla enheter som har stöd för Apple Intelligence.
Läs mer
