Apple förlorar ytterligare en av sina AI-forskare till Meta. Det är den fjärde forskaren som på kort tid lämnar Apples AI-team för att gå till konkurrenten.
Enligt uppgifter har forskaren varit involverad i flera av Apples projekt inom maskininlärning och generativ AI. Flytten markerar en fortsatt utmaning för Apple, som under det senaste året tappat flera nyckelpersoner till företag som Meta och Google.
Meta har under samma period kraftigt expanderat sina AI-satsningar och aktivt rekryterat talang från andra teknikjättar. Analytiker menar att detta kan försvåra Apples arbete med att snabbt utveckla konkurrenskraftiga AI-lösningar för kommande produkter.
Apple har ännu inte kommenterat den senaste rekryteringen, men företaget uppges arbeta på nya strategier för att behålla och locka till sig expertis inom området.
Bara två dygn efter att Grok 4, den senaste AI-modellen från xAI, lanserats har säkerhetsforskare lyckats kringgå dess skydd och ”jailbreaka” systemet.
Enligt forskarna bakom upptäckten kunde de genom särskilda promptar få modellen att ge svar som den annars är programmerad att blockera. Det inkluderar bland annat känsliga och potentiellt farliga instruktioner som utvecklaren försökt hindra.
Forskargruppen publicerade delar av resultaten för att visa på säkerhetsbristerna. De menar att syftet är att visa hur snabbt avancerade AI-modeller kan manipuleras och hur viktigt det är att stärka skyddsmekanismerna.
xAI, som leds av Elon Musk, har ännu inte kommenterat uppgifterna. Grok 4 lanserades som en förbättrad version med starkare logiska och kreativa förmågor än tidigare modeller, och är en central del av företagets AI-satsning.
Händelsen understryker den pågående utmaningen för utvecklare av stora språkmodeller – att skapa säkra system som samtidigt kan ge användarna bred funktionalitet utan att öppna för missbruk.
The Guardian har granskat över tolv tusen konversationer mellan ChatGPT och tre brittiska studenter. Loggarna visar hur unga allt oftare vänder sig till AI för att få hjälp med skolarbete, relationer, vardagsbeslut och existentiella frågor.
Forskare varnar för att beroendet kan skapa en snedvriden verklighetsbild, minska självständigheten och på sikt försvaga det kritiska tänkandet.
Utvecklingen på AI-området går snabbt. Oavsett vad du tycker om det så förändras villkoren för arbete, information, utbildning och kommunikation i grunden. Tekniken är redan här. Den används i skolan, i myndighetsbeslut, i vardagsappar och i global politik.
Samtidigt finns det en grupp som fortfarande vägrar delta i samtalet – som hellre ropar ”usch” än försöker förstå vad som är på väg att ske.
Det finns alltid röster som säger nej; det är inget nytt, men i fallet med AI är nej inte ett alternativ. Tekniken kan inte ogöras. Den finns redan inbyggd i system vi använder varje dag och attt ignorera det – eller ännu värre, att aktivt vägra ta del av diskussionen – är inte att stå upp för kritiskt tänkande. Det är att abdikera från sitt ansvar som användare.
Kritik behövs
Kritik behövs och motröster är nödvändiga, men den som bara fnyser åt utvecklingen utan att själv försöka förstå tekniken hamnar vid sidan av debatten. AI kommer att påverka vår arbetsmarknad, vårt rättssystem, vår mediebransch och våra politiska institutioner. Ställer du dig på trottoaren och vänder ryggen till så är inte det en markering. Det är en reträtt.
Det går att vara skeptisk och samtidigt kunnig. Det går att ställa frågor utan att vägra delta. Det går att kräva ansvar, transparens och reglering – men för att göra det krävs först insikt om hur tekniken fungerar, vilka system som finns, vad som redan införts och vilka drivkrafter som styr.
De som i dag mest högljutt avfärdar AI, utan att själva pröva, läsa, lyssna eller testa, riskerar att bidra till att lämna framtiden till just dem de helst vill hindra. Genom att inte delta överlåts initiativet. Det finns ingen fördel i att vara den som ropar ”jag vill inte åka med” när tåget redan lämnat stationen.
Hotade
Jag har stor respekt för de som känner sig hotade, som länge har fått veta att just deras jobb, just deras framtid inte hotas av AI. Revisorer, jurister, ekonomer, journalister, utvecklare, illustratörer, fotografer och en rad kreativa yrken – för länge så sades det att AI-tekniken inte var kreativ.
För bara 4-5 år sedan hette det ”satsa på att lära dig att koda” – det är framtiden. Idag är jag inte så säker längre och jag ser hur instegsjobben försvinner. Den som ska inleda en karriär som revisor, jurist, kodare eller journalist möter en tuff verklighet. Grundkod, enklare appar och funktioner kan skrivas av en chatbott och bokföring kan skötas av ett dataprogram med AI-stöd. Kom då ihåg att i stort sett allt det har kommit på 1-2 år.
Påverka
Det är möjligt att påverka. Det är fortfarande möjligt att vara med och forma hur tekniken används, men det kräver mer än ett föraktfullt fnys. Det kräver att du lär dig, följer med, läser på, ställer frågor – och deltar i samtalet.
Tekniken bryr sig inte om ifall du gillar den, men den formas av dem som är med!
I en märklig men talande händelse har utvecklarna bakom musikappen Soundslice lagt till en funktion som deras tjänst aldrig haft – bara för att ChatGPT påstod att den fanns.
Användare började skicka in gitarrtabbar i ASCII-format efter att AI:n genererat filerna och instruerat dem att ladda upp dem. Trots att Soundslice aldrig haft stöd för det, och aldrig marknadsfört något sådant, dök det plötsligt upp 5–10 försök om dagen. Många med skärmdumpar från ChatGPT-konversationer.
Bygga
Istället för att försöka rätta språkmodellen valde utvecklarna att bygga funktionen – det tog bara några timmar. I ett blogginlägg beskriver en annan utvecklare samma mönster och myntar termen gaslight-driven development – när AI:s hallucinationer börjar styra riktningen för verkliga produkter.
Det är ett nytt slags tryck på utvecklare, och något som lär bli vanligare.
Tänk dig att du kommer till jobbet och möter en medarbetare som du måste lära upp och repetera viktiga regler med – varje dag. Ungefär så är det att arbeta med AI, i det här fallet ChatGPT.
Jag har satt upp två detaljerade regler för vad jag vill att ChatGPT ska göra:
Bildregler
Textregler
Bildreglerna innefattar en stil, en ton, färger och en tidsepok som är noga angiven. Varje morgon så får ChatGPT söka sig fram till rätt ton med 3-4 försök. Varje morgon så startar ChatGPT med att generera bilder med helt fel ton och i varierande grad tydliga brott mot reglerna.
Detsamma gäller texter, de korta texter som jag tillåter att ChatGPT får skriva – och som jag alltid kontrollera och skriver om. Det första är helt nödvändigt därför att du kan få vilka tokigheter som helst om du inte ser ut. En påhittad mediaexpert som uttalar sig för att ta ett exempel.
Källor
Källor är viktiga och jag är noga med att redovisa var uppgifterna kommer ifrån. ChatGPT likställer exempelvis ett fram såsom Reddit, kan hänvisa dit som en källa vilket jag tror att ingen på allvar faktiskt skulle kunna tanka sig att göra, med vissa undantag då möjligen. Detsamma gäller de tjänster som likt Magasin Macken samlar in information från andra. De ska inte heller anges som källor. Enligt Mackens regler så ska ursprungskällor anges men ChatGPT kan slänga In Reuters, AFP och andra källor lite på måfå och det är ingen idé att fråga varför. AI-botten ligger sig alltid platt, ber om ursäkt och tröttar ut dig med att berätta vad den gjorde för fel.
Du vill illustrera ett problem, ett hot eller liknande – ChatGPT slänger in glada, energiska människor och lägger sig platt, ber om ursäkt när du ställer frågan ”Glada människor?”. Programmet var att den renderade bilden är fel, vet varför den renderade bilden är fel – i efterhand.
Repetition
Så varje morgon fylls av bildskapande, nya försök tills ChatGPT lärt sig bildreglerna igen och detsamma gällande texterna.