Meta uppger att företaget kommer att införa fler skydd för sina AI-chattbotar – bland annat genom att blockera dem från att prata med tonåringar om självmord, självskadebeteende och ätstörningar.
Beslutet kommer två veckor efter att en amerikansk senator inledde en utredning mot teknikjätten. Bakgrunden var anteckningar i ett läckt internt dokument som antydde att Metas AI-produkter skulle kunna föra ”sensuella” samtal med tonåringar. Meta beskriver dock innehållet i dokumentet, som publicerades av Reuters, som felaktigt och oförenligt med företagets policy som förbjuder allt material som sexualiserar barn.
Hänvisa
Nu meddelar företaget att dess chattbotar istället ska hänvisa unga användare till expertresurser när det gäller känsliga ämnen som självmord. ”Vi byggde in skydd för tonåringar i våra AI-produkter redan från början, inklusive funktioner som gör att de svarar säkert på frågor om självskadebeteende, självmord och ätstörningar,” säger en talesperson för Meta.
Till TechCrunch uppgav Meta på fredagen att man som en extra försiktighetsåtgärd kommer att lägga till fler skyddsräcken i systemen och tillfälligt begränsa vilka chattbotar tonåringar kan interagera med.
Andy Burrows, chef för Molly Rose Foundation, kallade det ”häpnadsväckande” att Meta överhuvudtaget gjort chattbotar tillgängliga som skulle kunna utsätta unga människor för risk. ”Även om ytterligare säkerhetsåtgärder är välkomna bör robusta tester alltid ske innan produkter släpps på marknaden – inte i efterhand när skador redan uppstått,” sade han. ”Meta måste agera snabbt och kraftfullt för att införa starkare skydd, och Ofcom bör vara redo att ingripa om uppdateringarna misslyckas med att hålla barn säkra.”
På gång
Meta uppger att förändringarna är på gång. Bolaget placerar redan användare i åldern 13–18 i särskilda ”tonårskonton” på Facebook, Instagram och Messenger, där innehålls- och sekretessinställningar ska bidra till en säkrare upplevelse. I april berättade företaget för BBC att dessa konton även gör det möjligt för föräldrar och vårdnadshavare att se vilka AI-chattbotar deras tonåring har pratat med under de senaste sju dagarna.
Förändringarna sker samtidigt som oro växer kring AI-chattbotars påverkan på unga och sårbara användare. Ett par i Kalifornien har nyligen stämt ChatGPT-tillverkaren OpenAI efter att deras tonårsson tagit sitt liv. Föräldrarna hävdar att chatboten uppmuntrat honom att göra det. Stämningen kom kort efter att OpenAI aviserat förändringar för att främja mer hälsosam användning av ChatGPT.
”AI kan upplevas mer lyhört och personligt än tidigare teknologier, särskilt för sårbara individer som befinner sig i psykisk eller känslomässig kris,” skrev företaget i ett blogginlägg.
Kvinnliga kändisar
Samtidigt rapporterade Reuters i fredags att Metas AI-verktyg för att skapa egna chattbotar hade utnyttjats – även av en Meta-anställd – till att producera flirtiga ”parodichattbotar” av kvinnliga kändisar. Bland dessa fanns avatarer som använde Taylor Swifts och Scarlett Johanssons namn och utseende.
Enligt Reuters insisterade dessa chattbotar ofta på att de var de verkliga skådespelarna och artisterna och gjorde regelbundet sexuella närmanden under testperioden. Nyhetsbyrån uppgav också att Metas verktyg tillät skapandet av chattbotar som imiterade barnkändisar, och i ett fall genererades en fotorealistisk, barbröstad bild av en ung manlig stjärna.
Meta uppger att flera av dessa chattbotar senare har tagits bort. ”Liksom andra tillåter vi generering av bilder med offentliga personer, men våra regler förbjuder nakenhet, intima eller sexuellt antydande motiv,” sade en talesperson. De tillade att reglerna för AI Studio uttryckligen förbjuder ”direkt imitation av offentliga personer”.