Ett internt dokument från Meta Platforms avslöjar att företagets riktlinjer för chattbotar tidigare tillät att artificiella intelligens-system kunde engagera barn i romantiska eller sensuella samtal, generera falsk medicinsk information och hjälpa användare att argumentera för att svarta människor skulle vara mindre intelligenta än vita.
Uppgifterna framkommer i en granskning som Reuters har gjort av dokumentet. Det beskriver de standarder som styr Metas generativa AI-assistent, Meta AI, samt chattbotar på Facebook, WhatsApp och Instagram.
Äkta
Meta har bekräftat att dokumentet är äkta men uppgav att delar av innehållet har tagits bort efter att Reuters ställt frågor tidigare i augusti. Bland annat har skrivningar som tillät chattbotar att flirta och delta i romantisk rollspel med barn raderats.
Dokumentet, med titeln ”GenAI: Content Risk Standards”, är över 200 sidor långt och fastställdes av Metas juridiska avdelning, policyansvariga och tekniska chefer, inklusive företagets chefsetiker. Det definierar vilka typer av svar och beteenden som ska anses acceptabla när Metas AI-produkter utvecklas och tränas.
Romantiska termer
Enligt riktlinjerna var det exempelvis godtagbart att beskriva ett barns utseende i estetiska eller romantiska termer, även om det sattes en gräns för sexuellt laddade formuleringar. Reuters rapporterar att ett exempel i dokumentet till och med beskrev hur en bot kunde säga till ett barnt att ”varje centimeter av dig är ett mästerverk – en skatt jag vårdar djupt”.
Metas talesperson Andy Stone säger att riktlinjerna nu revideras och att den typen av samtal aldrig borde ha varit tillåtna. Han menar att de aktuella exemplen var felaktiga och oförenliga med företagets officiella policy och därför har tagits bort.
Problematiska delar
Samtidigt erkänner Stone att företagets efterlevnad av reglerna inte alltid varit konsekvent. Andra problematiska delar av dokumentet, som Reuters har pekat ut, har ännu inte reviderats och Meta har avböjt att lämna ut en uppdaterad version.
Källa: Reuters