Med dagens lansering av utvecklarbetor för iOS 26.1, iPadOS 26.1 och macOS Tahoe 26.1 börjar Apple lägga grunden för att plocka in Anthropics protokoll för agentisk AI, Model Context Protocol (MCP) – och även andra AI-lösningar.
MCP, eller Model Context Protocol, presenterades av Anthropic i november förra året och har snabbt blivit branschstandard som gränssnitt mellan AI-system och traditionella plattformar. Protokollet vill vara AI-världens motsvarighet till HTTP för webben eller SMTP för e-post.
Enligt Anthropic har AI-assistenter fått stort genomslag, och utvecklingen har fokuserat på modellernas kapacitet, med snabba framsteg i resonemang och kvalitet, men även de mest avancerade modellerna begränsas av att vara isolerade från data, fast bakom informationssilos och äldre system. Varje ny datakälla kräver en specialanpassning, vilket gör det svårt att skala upp verkligt sammanlänkade system.
Öppen standard
MCP löser detta genom att erbjuda en universell, öppen standard för att koppla AI-system till datakällor. I stället för splittrade integrationer skapas en gemensam väg som gör det enklare och mer tillförlitligt att ge AI tillgång till den information de behöver.
Sedan lanseringen har MCP fått brett genomslag och används redan av plattformar och företag som Zapier, Notion, Google, Figma, OpenAI och Salesforce. Protokollet gör det möjligt för AI-assistenter att koppla upp sig mot API:er och datakällor och agera på användarens uppmaningar.
Exempel på vad MCP kan möjliggöra är att en AI-agent får tillgång till din Google-kalender och Notion, att Claude Code kan bygga en hel webbapp utifrån en Figma-design, att företagschatbots kan koppla ihop flera databaser i en organisation för enklare dataanalys, eller att AI-modeller kan skapa 3D-designer i Blender och sedan skicka dem direkt till en 3D-skrivare.
Hur tänker Apple använda MCP?
Koden som introducerats i de nya betaversionerna visar att Apple planerar att bygga in MCP-stöd i App Intents. Det är ett ramverk som gör det möjligt för appar att exponera sina funktioner och innehåll direkt mot systemet.
Apple beskriver själva App Intents som ett sätt att integrera appens funktioner med systemupplevelser som Siri, Spotlight, widgets och genvägar. Med Apple Intelligence förstärks detta, och Siri kan föreslå åtgärder i appar och även utföra handlingar i och mellan appar.
Detta innebär att utvecklare genom App Intents kan göra det möjligt för användare att utnyttja appens funktioner på flera sätt, till exempel genom:
- Interaktioner med Siri och Apple Intelligence
- Förslag och sökningar i Spotlight
- Automatiseringar i Genvägar
- Hårdvarugester, som Action-knappen eller tryck på Apple Pencil
- Fokusinställningar för att minska störningar
Med MCP integrerat på systemnivå skulle AI-modeller som ChatGPT eller Claude kunna interagera direkt med appar på Mac, iPhone och iPad, och utföra åtgärder i dessa, utan att utvecklarna behöver implementera allt MCP-stöd själva.
Förändring
Det är värt att notera att dagens kod endast visar de allra första stegen mot MCP-stöd. Det kan därför dröja innan funktionen lanseras eller ens offentliggörs, men redan nu är det tydligt att Apple förbereder sig för att ta in agentisk AI i sina plattformar, vilket kan bli en betydande förändring för både utvecklare och användare.