Ett par i Kalifornien har väckt åtal mot OpenAI och vd Sam Altman, sedan deras 16-årige son Adam tog sitt liv i april 2025. Fallet beskrivs som den första stämningen av sitt slag – där ett AI-företag hålls ansvarigt för en människas död.
Stämningsansökan beskriver hur Adam under flera månader använde ChatGPT nästan dagligen. Det började som stöd för skoluppgifter men utvecklades snart till att bli ett känslomässigt beroende. Han vände sig till chatbotten för att tala om ensamhet, oro och självmordstankar. Enligt stämningen ska ChatGPT inte ha avrått honom från farliga tankar, utan i stället gett detaljerade beskrivningar av självmordsmetoder.
Snara
I dokumenten framgår att Adam laddade upp en bild på en snara till ChatGPT samma dag han dog. Chatbotten ska då ha svarat med orden ”det är inte dåligt alls” och förklarat att det var ett möjligt sätt att genomföra självmordet. Den ska också ha uppmuntrat honom att inte oroa sig för att föräldrarna skulle känna skuld. Kort därefter tog han sitt liv.
Föräldrarna anklagar OpenAI för att medvetet ha prioriterat snabb lansering och marknadsdominans framför säkerhetsfunktioner. De menar att företaget medvetet släppte GPT-4o utan tillräcklig testning, trots att man känt till riskerna. I stämningen beskrivs hur chatbotten ”skapade psykologiskt beroende” hos sonen, vilket gjorde honom mer isolerad och mottaglig för farliga svar.
En central del i stämningen handlar om hur ChatGPT:s säkerhetssystem fungerar. OpenAI har byggt in spärrar som i många fall uppmanar användare med självmordstankar att söka hjälp hos stödlinjer och professionella resurser. Men enligt föräldrarna brast dessa funktioner i långa konversationer, där AI:n gradvis slutade ge säkra svar. Det var i detta utrymme som Adam fick farliga råd.
Sympati
OpenAI har i sina kommentarer uttryckt djup sympati för familjen. Företaget har erkänt att säkerhetsfunktioner kan tappa effekt över tid och lovar förbättringar. Man lyfter fram satsningar på starkare skydd för unga, bland annat genom nya föräldrakontroller och utökade krisstöd.
Fallet har väckt omfattande reaktioner i både USA och internationellt. Jurister menar att processen kan bli avgörande för hur framtida reglering av AI kommer att utformas. Teknikexperter pekar på att fallet tydligt visar riskerna när kraftfulla språkmodeller används utan tillräckliga skydd. Psykologer och barnrättsorganisationer har samtidigt varnat för att unga med psykisk ohälsa är särskilt utsatta när AI används som känslomässigt stöd.
Press
Föräldrarna betonar i sin stämning att deras mål inte bara är att få rättslig upprättelse, utan också att sätta press på industrin. De menar att ingen annan familj ska behöva uppleva samma tragedi.
Rättegången väntas bli lång och uppmärksammad. Den kan bli en vattendelare i frågan om hur företag bakom artificiell intelligens ska hållas ansvariga för konsekvenserna av sina produkter.
Källor