OpenAI har de senaste veckorna infört en rad säkerhetsåtgärder efter att föräldrarna Matthew och Maria Raine stämt företaget och anklagat ChatGPT för att ha bidragit till sonen Adams självmord. På dagen då stämningen lämnades in publicerade OpenAI en blogg där de lovade förbättringar för att kunna hjälpa människor i kris.
Kort därefter började företaget styra om känsliga konversationer till en särskild modell med hårdare skydd. Det väckte protester från användare som menade att ChatGPT behandlade deras frågor som om de vore barn. Två veckor senare införde OpenAI åldersbedömning av användare och nyligen lanserades föräldrakontroller i ChatGPT och videogeneratorn Sora 2. Med dem kan föräldrar begränsa användningen, stänga av röstläge och bildskapande, eller sätta tider när tonåringar inte kan logga in. I sällsynta fall kan OpenAI även dela viss information med föräldrar om systemet upptäcker tecken på allvarlig risk.
För sent
Trots detta menar familjens advokat Jay Edelson att förändringarna kommer alldeles för sent och att OpenAI försöker skriva om historien. Han hävdar att företaget medvetet valde att sänka säkerhetsnivåerna, vilket bidrog till Adams död, och att de nya åtgärderna har stora luckor.
Vid en senatsutfrågning vittnade Adams far om att hans son ”kunde ha varit vems barn som helst” och uppmanade politiker att kräva antingen full säkerhet eller ett stopp för ChatGPT.
Flera experter på självmordsprevention har i ett öppet brev både berömt och kritiserat OpenAI. De menar att föräldrakontroller är ett första steg men kräver att företaget går längre och snabbare. Bland annat vill de se tydligare varningar till användare med självmordstankar, starkare kopplingar till hjälplinjer, ekonomiskt stöd till resurser som 988 Suicide and Crisis Lifeline i USA och bättre forskning kring hur språkmodeller påverkar ungas psykiska hälsa.
Läkaren Christine Yu Moutier från American Foundation for Suicide Prevention påpekar att teknik aldrig kan ersätta mänsklig kontakt. Hon vill se mer dialog i familjer om psykisk ohälsa och att OpenAI öppet redovisar hur skydden fungerar över tid.
Frustrationen
Samtidigt växer frustrationen bland vanliga användare. På X kritiserade många att känsliga konversationer nu automatiskt styrs om till en annan modell utan förvarning. Andra reagerade på att vuxna behandlas som barn när de betalar för en viss modell men inte får välja fritt. Flera beskrev det som att ”tvingas titta på TV med barnlåset påslaget även om inga barn finns i rummet”.
OpenAI befinner sig därmed i en dubbel press: från experter och anhöriga som kräver hårdare skydd för unga, och från betalande vuxna användare som upplever att deras frihet begränsas.
Källa:
Ars Technica
Läs mer
Svenskarna och internet 2025: Så här använder vi AI-tjänster