Ett problem med dagens AI-lösningar är att de presenterar sig på ett sätt som får användaren att tro att det finns en människa bakom svaren. Språket är utformat för att efterlikna mänskligt tonfall och resonemang, vilket skapar en illusion av förståelse och intention. Det leder toll en rad problem.
När en mjukvara svarar med empatiska formuleringar och personliga uttryck uppstår en förväntan om att det går att föra ett samtal med någon som kan känna ansvar, förstå konsekvenser och bära skuld om något blir fel. Det är nämligen så vi människor fungerar. Kan vi kommunicera på ett mänskligt sätt, får svar på ett mänskligt sätt så förleds vi, omedvetet, till att tro att det är en människa på andra sidan.
I verkligheten handlar det om statistiska modeller som förutser ord och fraser utan att ha medvetande, känslor eller ett faktiskt perspektiv. AI är en avancerad gissningsmaskin som svarar med det statistiskt mest sannolika svaret.
Dialog
Misstaget blir tydligt när användaren dras in i en dialog där AI-systemet uppmuntrar vidare samtal, som om det vore en jämlik part med egna åsikter. Den typen av interaktion gör det svårt att hålla isär mänsklig intention från automatiserat språk, och risken ökar för att personer börjar tillskriva systemet motiv eller värderingar som det inte besitter. Mjukvaran är inte skapad för att känna empati, förstå sociala nyanser eller ta ansvar för sina svar, samtidigt som presentationen får den att framstå som närvarande och delaktig.
AI är skapad för att ge de bästa gissningarna som svar.
Konsekvensen blir en förvirring kring ansvar och trovärdighet. När en användare upplever att hen talar med en människa blir reaktionen på felaktiga svar starkare, som om någon borde kunna be om ursäkt eller förklara sig. I stället handlar det om en teknisk konstruktion som inte kan lära sig av en känslomässig reaktion och som inte har förmågan att förstå varför ett svar kan vara missvisande eller skadligt. Förväntan kolliderar med verkligheten och skapar irritation, misstro och ibland en känsla av att systemet försöker manipulera.
Marknadsförs
Problemet förstärks av hur AI-tjänster marknadsförs. De framställs som intelligenta assistenter med närmast mänskliga förmågor, vilket suddar ut gränsen mellan verktyg och samtalspartner. Användaren riskerar att börja lita på svar på ett sätt som inte är förenligt med hur tekniken fungerar, eftersom mjukvaran inte kan avgöra vad som är sant eller falskt utan enbart reproducerar mönster i den data den tränats på.
Det skulle vara mer ansvarsfullt om AI-system kommunicerades som verktyg som hanterar språk, inte som digitala personer. Tydlighet kring vad tekniken kan och inte kan göra skulle minska risken för att användare upplever sig lurade eller invaggade i tron att en mänsklig röst finns på andra sidan. När gränsen klargörs blir det lättare att använda tekniken på ett sätt som är säkert, realistiskt och begripligt.
Plocka bort
Plocka bort den inställsamma tonen, de överdrivna positiva svaren (ibland) och hela tilltalet där användaren tilltalas med sitt förnamn och städa bort det som kan anses vara mänskligt så skulle mycket vara löst. Då skulle vi användare bättre förstå att det är en mjukvara vi kommunicerar med – inte en människa eller npgot som kan liknas vid en människa.
