I augusti 2025 blev tusentals ChatGPT-konversationer plötsligt synliga på nätet. Det visade sig snabbt att det inte handlade om ett dataintrång, utan om en funktion som gjort det möjligt för användare att av misstag publicera sina samtal som öppna webbsidor.
En granskning av forskare på SafetyDetective, som analyserat 1 000 av de läckta chattarna med sammanlagt över 43 miljoner ord, visar hur människor delar långt mer än vardagliga frågor med AI. Här finns fullständiga namn, adresser, telefonnummer och kompletta cv:n – men också samtal om psykisk ohälsa, missbruk, familjerelationer och diskriminering.
Materialet
Nästan 60 procent av materialet kan beskrivas som professionella konsultationer. Användare ber om juridisk rådgivning, pedagogiska råd eller stöd i svåra livssituationer, som om AI:n vore en advokat, lärare eller terapeut. Enstaka konversationer är mycket omfattande; en av dem omfattade över 116 000 ord, motsvarande två dygns oavbrutet skrivande i normal takt.
Studien pekar ut två huvudsakliga problem. Dels förstod många inte att funktionen ”upptäckbara chattar” innebar att deras samtal kunde indexeras av sökmotorer. Dels var utformningen så otydlig att privat information lätt hamnade offentligt. Forskarna varnar också för att ChatGPT ibland speglar användarens känslor i stället för att lugna ned dem – i ett fall förstärktes en diskussion om beroendeproblematik.
Kännbara
Konsekvenserna är kännbara. När privata detaljer ligger öppet kan de användas för identitetsstöld, bedrägerier eller trakasserier. Även utan direkta personuppgifter riskerar känsliga bekännelser att utnyttjas.
Forskarna rekommenderar tydligare varningar, mer genomtänkta delningsfunktioner och tekniska filter som automatiskt döljer personuppgifter. Men de konstaterar också att mycket handlar om beteende. Många användare ser fortfarande AI som en förtrolig samtalspartner – trots riskerna som uppstår när samtalen hamnar i det öppna.
Källa:
Hackread