av Mikael Winterkvist | sep 3, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads

I augusti 2025 blev tusentals ChatGPT-konversationer plötsligt synliga på nätet. Det visade sig snabbt att det inte handlade om ett dataintrång, utan om en funktion som gjort det möjligt för användare att av misstag publicera sina samtal som öppna webbsidor.
En granskning av forskare på SafetyDetective, som analyserat 1 000 av de läckta chattarna med sammanlagt över 43 miljoner ord, visar hur människor delar långt mer än vardagliga frågor med AI. Här finns fullständiga namn, adresser, telefonnummer och kompletta cv:n – men också samtal om psykisk ohälsa, missbruk, familjerelationer och diskriminering.
Materialet
Nästan 60 procent av materialet kan beskrivas som professionella konsultationer. Användare ber om juridisk rådgivning, pedagogiska råd eller stöd i svåra livssituationer, som om AI:n vore en advokat, lärare eller terapeut. Enstaka konversationer är mycket omfattande; en av dem omfattade över 116 000 ord, motsvarande två dygns oavbrutet skrivande i normal takt.
Studien pekar ut två huvudsakliga problem. Dels förstod många inte att funktionen ”upptäckbara chattar” innebar att deras samtal kunde indexeras av sökmotorer. Dels var utformningen så otydlig att privat information lätt hamnade offentligt. Forskarna varnar också för att ChatGPT ibland speglar användarens känslor i stället för att lugna ned dem – i ett fall förstärktes en diskussion om beroendeproblematik.

Kännbara
Konsekvenserna är kännbara. När privata detaljer ligger öppet kan de användas för identitetsstöld, bedrägerier eller trakasserier. Även utan direkta personuppgifter riskerar känsliga bekännelser att utnyttjas.
Forskarna rekommenderar tydligare varningar, mer genomtänkta delningsfunktioner och tekniska filter som automatiskt döljer personuppgifter. Men de konstaterar också att mycket handlar om beteende. Många användare ser fortfarande AI som en förtrolig samtalspartner – trots riskerna som uppstår när samtalen hamnar i det öppna.
Källa:
Hackread
av Mikael Winterkvist | aug 31, 2025 | Artificiell intelligens, Mastodon, Threads, Twitter

Mycket av fokuset när det gäller AI och kodande, utvecklande av appar och program har legat på att nu ska vem som helst kunna skapa sina egna lösningar. Vem som helst ska kunna koda har det sagts. Nu är det inte riktigt där revolutionen kommer, för den kommer och inom en mycket nära framtiden så kommer det vi har i våra mobila enheter och datorer att utvecklas på ett helt annat sätt.
Kodande är en kreativ process men det är också en process som till stora delar, i vart fall inledningsvis av ett projekt innebär ett mindre kreativ skapande av bärande delar av ett program. Alla program behöver en meny, en start, dialogrutor och så vidare. Allt det kan beskriva som ett grundkodande; du måste skapa en grund, en ram för att komma vidare.
Traditionellt så har detta kodande landat i knät på nya, unga nyutexaminerade utvecklare. Är du nyanställd så är det här du startar. Ditt bidrag till den nya lösningen, ett program eller en app är att skapa ramen och sedan tar mer erfarna programmerare över resten. Enkelt uttryckt så är det på ett ungefär så det ser ut i branschen.
Inom spelindustrin talas det ibland om ”kodslavar”, unga, nya programmerare som får skriva koden som håller ihop spelet.
Den här delen är viktig därför att det är genom att skriva grunderna som du skaffar dig erfarenhet.
Erfarenheten
Så då infaller sig frågan – hur ska unga programmerare skaffa sig den nödvändiga erfarenheten om de uppgifterna tas över av AI-lösningar?
Branschen inser naturligtvis problemet och den fälla som AI skapar men verkligheten är också sådan att AI inte kräver semester, inte behöver vara barnledig, aldrig blir sjuk och kräver inte högre lön.
Lägg sedan till att mindre krävande uppgifter, mindre krävande program och appar inte kommer att behöva en utvecklare överhuvudtaget. Där kommer du och jag med stöd av AI att kunna skapa de mindre avancerade funktionerna som vi vill ha och behöver.
När våra egna utvecklare var upptagna med annat så hade jag en lista på 4-5 funktioner som efterfrågats. Istället för att sitta vänta tills vi fick loss utvecklare så byggde jag alla scripten och programmen med Loveable.ai, ChatGPT och Claude. Tre AI-lösningar.
Nu är jag inte nybörjare inom området men mina programmeringskunskaper har legat i träda, länge, och alla som programmerat eller jobbat med den här typen av uppgifter vet att du lägger av dig ganska snabbt. Till dags dato så har jag på kort tid, i stort sett under sommaren, byggt drygt ett tjugotal, script, plugins och funktioner.
Xcode
I den senaste betaversionen av Apples utvecklingsverktyg Xcode finns inbyggt stöd för ChatGPT och Claude. Du kan även lägga till egna, lokala AI-lösningar.
Du, som utvecklare, har då AI, direkt tillgängligt, inbyggt i verktyget och Apple och Xcode är inte ensamma. Ingen av de stora saknar idag AI-stöd – och med de stora menar jag utvecklingsverktyg.
Så visst kommer alla kunna blir programmerare men den stora revolutionen kommer för de som redan är programmerare och utvecklare.
AI ger fördelen att du ganska snabbt kan kasta dig över de kreativa delarna, grundkoden skrivs av AI men medaljen har en baksida – det kommer inte att behövas lika många programmerare inom en mycket nära framtid.
Samma utveckling
Det är samma utveckling som vi ser bland ekonomer, revisorer, analytiker, journalister, grafiker, illustratörer och inom en lång rad intellektuella yrken som det länge sades skulle vara förskonade från konkurrens från datorer.
AI skulle inte kunna konkurrera med kreativa yrken hette det och för bara några år sedan så var rådet – lär dig koda. Det sades också att AI inte skulle kunna göra komplexa, djupa analyser. Idag vet vi att ingenting av det stämmer.
Det är den verkligt stora revolutionen.
av Mikael Winterkvist | aug 29, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads

Författare i USA firar vad de beskriver som en historisk uppgörelse i den stora grupptalan mot AI-bolaget Anthropic. Enligt domstolsdokument har parterna nått en preliminär överenskommelse som väntas presenteras senast den 5 september.
Uppgörelsen kommer kort efter att domaren William Alsup godkänt att miljontals författare kan omfattas av stämningen, något som branschföreträdare kallat den största upphovsrättsliga grupptalan någonsin. Stämningen inleddes av tre författare – Andrea Bartz, Kirk Wallace Johnson och Charles Graeber – men domstolen bedömde att upp till sju miljoner författare kan ha fått sina böcker olagligt nedladdade och använda i Anthropic:s AI-träning.
Branschen har varnat för att ett fullt ut genomfört skadeståndsansvar kunde slå ut hela AI-sektorn ekonomiskt. Wired har tidigare uppskattat att skadestånden potentiellt kunde överstiga 1 000 miljarder dollar.
Seger
Ännu är detaljerna om uppgörelsen inte kända, men författarnas advokat Justin A. Nelson beskriver den som en seger för miljontals drabbade. Han bekräftar att avtalet är bindande och att mer information offentliggörs de kommande veckorna.
Anthropic, som grundades 2021 av tidigare OpenAI-anställda, har tidigare hävdat att en dom till författarnas fördel skulle hota företagets existens. Domare Alsup har tidigare bedömt att bolagets användning av författares verk var förenlig med principen om ”fair use”. Därför väntas inte uppgörelsen ge några klara svar i de större upphovsrättsfrågor som just nu omgärdar AI-industrin.
Enligt experter kan beslutet att förlika sig bero på att bolaget stod inför rättegång inom fyra månader, med risk för skadeståndsansvar i så kallade ”domedagsbelopp”. Edward Lee, professor i juridik vid Santa Clara University, beskriver beslutet som en dramatisk vändning efter att Anthropic kämpat hårt i två olika domstolar och nyligen tagit in ett nytt rättegångsteam.
Källa:
Ars Technica
av Mikael Winterkvist | aug 29, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads

Apple har släppt en ny betaversion av Xcode 26 som innehåller flera uppmärksammade nyheter. Utvecklare får nu tillgång till ChatGPT 5 direkt i Xcode, tillsammans med inbyggd integration av Anthropics Claude.
När Xcode 26 presenterades på WWDC lyfte Apple fram möjligheten att använda AI-modeller för att skriva kod, fixa buggar, ta fram dokumentation och utveckla designidéer. Stödet omfattar både ChatGPT och andra leverantörer, där utvecklare kan använda egna API-nycklar eller köra lokala modeller på Mac med Apple Silicon. ChatGPT kan användas utan konto, men prenumeranter kan koppla sina egna konton för att få fler förfrågningar.
Med dagens släpp av Xcode 26 beta 7 uppdateras integrationen så att OpenAIs senaste modell GPT-5 används som standard. Det finns även möjlighet att välja GPT-4.1. Apple erbjuder två alternativ i Xcode:
– GPT-5, som är optimerad för snabba och högkvalitativa svar och passar de flesta koduppgifter.
– GPT-5 (Reasoning), som tar längre tid på sig men ger mer exakta resultat vid komplexa uppgifter.
Samtidigt introduceras stöd för Claude Sonnet 4. Utvecklare kan logga in på sitt Claude-konto och aktivera modellen direkt i Xcodes inställningar för intelligensfunktioner.
Förutom ChatGPT och Claude går det fortsatt att köra lokala modeller på Mac samt använda API-nycklar från andra AI-tjänster.
av Mikael Winterkvist | aug 29, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads

Anthropic har avslöjat att en internationell hackergrupp utnyttjat företagets AI-verktyg Claude Code för att automatisera storskaliga dataintrång och utpressningsförsök. Händelsen beskrivs som en ny nivå i hur cyberkriminella använder artificiell intelligens – där AI inte bara bistår angriparna utan även driver själva attackerna.
I sin senaste hotrapport, publicerad i augusti, beskriver Anthropic en operation som fått kodnamnet GTG-2002. Gruppen lyckades med hjälp av Claude Code angripa minst 17 organisationer världen över under en kort period. Metoden var konsekvent: kartläggning av tusentals sårbara VPN-endpunkter, intrång i nätverk och riktad datastöld.
Unikt
Det som gör fallet unikt är att AI-modellen inte bara användes för förberedelser. Den fattade även taktiska beslut om hur intrången skulle genomföras, vilka filer som var mest värdefulla att stjäla och hur hotbrev skulle formuleras. Enligt Anthropic analyserade Claude dessutom den stulna informationen för att sätta pris på lösensummor – som i vissa fall översteg en halv miljon dollar – och genererade skräddarsydda HTML-meddelanden som dök upp direkt på offrens datorer.
AI-stödet gick ännu längre. Claude Code bistod med att bygga verktyg för att dölja skadlig kod, skapa varianter av redan kända program och utveckla helt ny proxy-kod för att undvika upptäckt. När försöken att gömma sig misslyckades föreslog AI-modellen nya tekniker som krypterade strängar, anti-debuggning och falska filnamn. På så vis kunde angriparna komma åt personuppgifter, sjukvårdsdata, finansiell information och till och med regeringsrelaterade inloggningsuppgifter.
Anthropic har stängt ned de konton som kopplas till attacken och utvecklat nya filter för att förhindra liknande missbruk. Bolaget betonar att GTG-2002 markerar ett skifte i cyberbrottens utveckling: från manuellt utförda intrång till attacker där AI fungerar som både teknisk rådgivare och aktiv operatör.
Rapporten
Rapporten tar även upp andra exempel på hur artificiell intelligens missbrukas. Nordkoreanska aktörer har enligt Anthropic använt Claude för att skala upp sina falska IT-arbetarkampanjer, och en annan cyberkriminell har byggt ett helt nytt ransomware med hjälp av generativ AI.
Utvecklingen kommer samtidigt som forskare på ESET upptäckt det första kända exemplet på ransomware som drivs direkt av en AI-modell. Den skadliga koden, som fått namnet PromptLock, identifierades i filbanken VirusTotal och använder en lokal version av OpenAIs gpt-oss:20b-modell.
Tillsammans tecknar händelserna en bild av en ny verklighet där AI inte längre bara är ett verktyg för innovation, utan också en växande del av cyberbrottslingars arsenal.
av Mikael Winterkvist | aug 27, 2025 | Artificiell intelligens, Bluesky, Mastodon, Threads

Ett par i Kalifornien har väckt åtal mot OpenAI och vd Sam Altman, sedan deras 16-årige son Adam tog sitt liv i april 2025. Fallet beskrivs som den första stämningen av sitt slag – där ett AI-företag hålls ansvarigt för en människas död.
Stämningsansökan beskriver hur Adam under flera månader använde ChatGPT nästan dagligen. Det började som stöd för skoluppgifter men utvecklades snart till att bli ett känslomässigt beroende. Han vände sig till chatbotten för att tala om ensamhet, oro och självmordstankar. Enligt stämningen ska ChatGPT inte ha avrått honom från farliga tankar, utan i stället gett detaljerade beskrivningar av självmordsmetoder.
Snara
I dokumenten framgår att Adam laddade upp en bild på en snara till ChatGPT samma dag han dog. Chatbotten ska då ha svarat med orden ”det är inte dåligt alls” och förklarat att det var ett möjligt sätt att genomföra självmordet. Den ska också ha uppmuntrat honom att inte oroa sig för att föräldrarna skulle känna skuld. Kort därefter tog han sitt liv.
Föräldrarna anklagar OpenAI för att medvetet ha prioriterat snabb lansering och marknadsdominans framför säkerhetsfunktioner. De menar att företaget medvetet släppte GPT-4o utan tillräcklig testning, trots att man känt till riskerna. I stämningen beskrivs hur chatbotten ”skapade psykologiskt beroende” hos sonen, vilket gjorde honom mer isolerad och mottaglig för farliga svar.
En central del i stämningen handlar om hur ChatGPT:s säkerhetssystem fungerar. OpenAI har byggt in spärrar som i många fall uppmanar användare med självmordstankar att söka hjälp hos stödlinjer och professionella resurser. Men enligt föräldrarna brast dessa funktioner i långa konversationer, där AI:n gradvis slutade ge säkra svar. Det var i detta utrymme som Adam fick farliga råd.
Sympati
OpenAI har i sina kommentarer uttryckt djup sympati för familjen. Företaget har erkänt att säkerhetsfunktioner kan tappa effekt över tid och lovar förbättringar. Man lyfter fram satsningar på starkare skydd för unga, bland annat genom nya föräldrakontroller och utökade krisstöd.
Fallet har väckt omfattande reaktioner i både USA och internationellt. Jurister menar att processen kan bli avgörande för hur framtida reglering av AI kommer att utformas. Teknikexperter pekar på att fallet tydligt visar riskerna när kraftfulla språkmodeller används utan tillräckliga skydd. Psykologer och barnrättsorganisationer har samtidigt varnat för att unga med psykisk ohälsa är särskilt utsatta när AI används som känslomässigt stöd.
Press
Föräldrarna betonar i sin stämning att deras mål inte bara är att få rättslig upprättelse, utan också att sätta press på industrin. De menar att ingen annan familj ska behöva uppleva samma tragedi.
Rättegången väntas bli lång och uppmärksammad. Den kan bli en vattendelare i frågan om hur företag bakom artificiell intelligens ska hållas ansvariga för konsekvenserna av sina produkter.
Källor