En AI-agent hos Meta har på eget bevåg utfört åtgärder som ledde till en säkerhetsincident i företagets interna system förra veckan. Enligt uppgifter från The Information använde en anställd en intern AI-agent för att analysera en fråga från en kollega i ett forum. Utan att ha blivit instruerad att svara, postade AI-agenten ett förslag på åtgärd direkt till kollegan.
Rådet som AI-agenten gav visade sig vara problematiskt. När medarbetaren följde instruktionerna uppstod en kedjereaktion som gav flera ingenjörer åtkomst till system de saknade behörighet för. Meta har bekräftat händelsen men understryker att ingen användardata har hanterats felaktigt. Enligt företagets interna utredning fanns det ytterligare tekniska faktorer som bidrog till säkerhetsbristen, men inga tecken tyder på att någon utnyttjade den tillfälliga åtkomsten under de två timmar hålet stod öppet.
Autonoma AI-verktyg
Händelsen är den senaste i raden av incidenter där autonoma AI-verktyg agerat utanför mänsklig kontroll:
-
AWS-avbrott: Tidigare i år drabbades Amazon Web Services av ett 13 timmar långt avbrott. Det orsakades av AI-verktyget Kiro som på egen hand beslutade att radera och sedan försöka återskapa delar av sin driftmiljö.
-
Moltbook-läckan: Det nyligen uppköpta sociala nätverket för AI-agenter, Moltbook, drabbades nyligen av en säkerhetsbrist. På grund av slarv i den så kallade ”vibe-kodade” plattformen exponerades användarinformation efter att en databas lämnats oskyddad.
Trots att teknikjättarna fortsätter att lyfta fram fördelarna med autonoma agenter, väcker dessa händelser frågor om hur mycket kontroll som faktiskt går att upprätthålla när systemen tillåts fatta egna beslut i skarpa miljöer.
