Apple testar ny teknik för lokal AI-bearbetning i kommande iPhone-modeller och arbetet kretsar kring en ny generation neuralmotor som är betydligt kraftfullare än dagens lösningar. Målet är att låta avancerade språkmodeller och bildanalys köras direkt på enheten utan att data skickas till externa servrar.
Den riktningen innebär att svarstider kan bli snabbare samtidigt som integriteten stärks eftersom informationen stannar i telefonen. Tekniken bygger på att flera delar av systemkretsen samarbetar och delar upp uppgifter mellan grafikdelen, neuralmotorn och huvudprocessorn beroende på vilken typ av analys som behövs.
Utvecklingen
Utvecklingen visar att Apple förbereder en övergång där fler funktioner behandlas lokalt snarare än via molntjänster, något som kan förändra hur både appar och systemtjänster fungerar. Appar som arbetar med text, översättning, bildigenkänning eller realtidsanalys kan få helt nya möjligheter när de inte längre begränsas av nätverkshastighet eller serverkapacitet. En sådan förbättring skulle även göra enheten mer oberoende, vilket är viktigt i situationer där uppkoppling saknas eller där känslig information hanteras.
Lokal
Arbetet med lokal AI-bearbetning antyder också att Apple vill skapa ett mer sammanhållet ekosystem där iPhone fungerar som central enhet för personlig AI. Funktionen kan komma att påverka hur Siri utvecklas, hur appar kommunicerar med varandra och hur uppgifter automatiseras i bakgrunden. Den genomgripande effekten av denna teknik handlar inte bara om prestanda utan också om att ge användaren större kontroll över sina egna data. Resultatet kan bli en telefon som hanterar komplexa uppgifter på ett mer naturligt, direkt och privat sätt utan att du behöver överväga vad som lämnar enheten.
