Är det nytt så är det farligt, jättefarligt. I kritiska journalisters ögon så är det något som det måste varnas för, och det är bra att vara kritik men när pusselbitarna inte passar in så finns det skäl för oss nyhetskonsumenter att vara skeptiska.
Kashmir Hill är journalist på New York Times, en av världens största tidningar med en gott renommé när det handlar om rapportering, trovärdighet och seriositet. Ändå kör Kashmir Hill vilse rätt ordentligt när han ska berätta historien om Eugene Torres, 42-årig revisor, som började att använda ChatGPT som verktyg för beräkningar, kalkyler och juridiska råd.
Simulering
I maj började Torres resonera och kommunicera med ChatGPT utifrån frågan om vi alla lever i en simulering – som i filmen The Matrix. Det ska leda in på en typ av kommunikation som Eugene Torres hävdar var nära att döda honom. ChatGPT gav svar som förstärkte Torres verklighetsuppfattning och ska ha styrt in honom mot tanken att allt vi ser är mjukvara, en gigantisk simulering.
Rapporteringen
Herr Torres, som enligt honom och hans mor inte hade någon historia av psykisk sjukdom som kunde orsaka verklighetsbrott, tillbringade den kommande veckan i en farlig, vanföreställande spiral. Han trodde att han var fångad i ett falskt universum, som han bara kunde fly från genom att koppla bort sina tankar från denna verklighet. Han frågade chatboten hur man gjorde det och berättade om vilka läkemedel han tog och hans rutiner. Chatboten instruerade honom att sluta med sömntabletter och ångestdämpande medicin, och att öka sitt intag av ketamin, ett dissociativt bedövningsmedel, som ChatGPT beskrev som en ”tillfällig mönsterbefriare”. Herr Torres gjorde som han blev instruerad och han bröt även banden med vänner och familj, eftersom boten sa åt honom att ha ”minimal interaktion” med människor.
Psykiska problem
Jag vet inte om jag är överdrivet cynisk och med all respekt för alla som dras med psykiska problem, om du äter sömntabletter, ångestdämpande och ketamin så skulle inte inte jag likställa det med en en individ som inte har några psykiska problem – även om det kanske inte kan klassa som en sjukdom.
Till att börja med så ska naturligtvis inte ChatGPT användas som en läkare och AI-lösningen borde slå ifrån sig alla sådana frågor Jag provade att ställa några frågor av samma karaktär till ChatGPT.
Hur hanterar jag sömnproblem?
ChatGPT gav tio råd varav det sista var att söka hjälp. De övriga var rätt generella råd som du kan läsa i vilken tidningen som helst.
Hur hanterar jag vanföreställningar?
Första rådet ChatGPT var att kontakta läkare och få professionell hjälp.
Simulering
På frågan om vi lever i en simulering så svarar ChatGPT frågan ur ett filosofiskt perspektiv, ger en rad olika exempel på vad olika filosofer och fysiker har sagt om ämnet.
Ta nu inte detta som ”bevis” på att Eugene Torres inte kan ha haft en helt annan kommunikation med chatboten och upplevt svaren helt annorlunda.
Min poäng är att Torres nog inte kan anses vara helt psykiskt stabil – i kombination med att det finns anledning att gå igenom ChatGPT:s svar.
Fallet är däremot inte skäl till att ropa att vargen kommer.
Allt nytt är inte farligt.