av Mikael Winterkvist | jan 20, 2026 | Bluesky, Övervakning, Threads

Säkerhetsforskare vid CovertLabs har genom projektet Firehound avslöjat en omfattande säkerhetsbrist i ett stort antal appar på Apples App Store.
Resultaten visar att hundratals applikationer läcker känslig användardata som namn, e-postadresser och kompletta chatthistoriker.
AI-appar toppar listan över osäkra program
Säkerhetsprojektet Firehound skannar och indexerar appar som exponerar användardata på grund av felaktigt konfigurerade databaser eller osäker molnlagring. Hittills har man identifierat nästan 200 iOS-appar som läcker information i olika omfattning. Den absoluta majoriteten av dessa är kopplade till artificiell intelligens.
Värst drabbad är appen ”Chat & Ask AI” som ensam har exponerat över 406 miljoner poster från fler än 18 miljoner användare. Det rör sig om en enorm mängd privat information som legat helt öppen för den som vet var man ska leta. Även om AI-kategorin är mest representerad finns läckor inom allt från utbildning och hälsa till sociala nätverk och livsstilsappar.
En påminnelse om riskerna med snabb utveckling
Många av de drabbade apparna verkar ha lanserats snabbt för att rida på AI-vågen. Det är oklart om den bristfälliga säkerheten beror på att apparna skapats med hjälp av automatiserade kodverktyg eller om det handlar om rent slarv från utvecklarnas sida. Oavsett orsak betonar forskarna att ansvaret för att säkra användardata alltid ligger hos den som ger ut appen.
Firehound begränsar för tillfället tillgången till de mest känsliga uppgifterna i sina skanningsresultat för att förhindra ytterligare missbruk. Fullständig åtkomst prioriteras för journalister, säkerhetsexperter och polismyndigheter. Denna upptäckt fungerar som en skarp påminnelse om att vara extremt försiktig med vilken information du delar med okända AI-tjänster och chattbotar.
De mest osäkra apparna enligt Firehound
Här listas de applikationer som har identifierats med de mest omfattande dataläckorna. Flera av dessa har exponerat miljontals privata poster på grund av bristfällig säkerhet i sina databaser.

Appar med störst mängd exponerad data
-
Chat & Ask AI: Denna app toppar listan med råge. Över 406 miljoner poster har läckt ut vilket drabbar fler än 18 miljoner användare.
-
Chat AI: En av de mest populära tjänsterna i kategorin som har visat sig ha stora luckor i sin molnlagring.
-
AI Chatbot: Flera appar med liknande namn har flaggats för att de delar användarnas chatthistorik och personuppgifter med obehöriga.
-
Genie AI: En applikation som lockat många användare men som nu finns med i Firehounds index över osäkra program.
Dessa appar utgör den största risken för tillfället då mängden data som ligger öppen är exceptionellt hög. Informationen inkluderar ofta allt från användarnamn till hela konversationer som förts med de inbyggda chattbotarna.
Källa: Firehound
Läs mer
De stora läckorna står slarviga datatrålare för
Så delas din data med över 1 500 företag när du surfar
Databrokers kartlägger ditt liv på nätet – utan att du märker det
av Mikael Winterkvist | jan 17, 2026 | Bluesky, Övervakning, Threads, Twitter

I takt med att EU:s AI-akt träder i kraft flyttas makten från de stora teknikbolagen tillbaka till användaren. För den enskilde medborgaren innebär de nya reglerna inte bara ett passivt skydd, utan en aktiv möjlighet att ifrågasätta och granska de system som formar vår vardag.
Det handlar om rätten att veta när en maskin fattar beslut som påverkar din ekonomi, din hälsa eller din karriär.
Verktygen för digital självförsvar
Att begära ut data handlar om mer än att bara få en kopia på sina personuppgifter. Det handlar om att förstå logiken bakom algoritmerna. Genom att kombinera rättigheterna i GDPR med de nya kraven i AI-akten kan du agera proaktivt.
Här är de viktigaste stegen för att granska hur du profileras:
-
Begär förklaring: Om du nekas ett lån eller en försäkring har du rätt att få en begriplig förklaring av hur AI-modellen har viktat dina uppgifter.
-
Rätten till mänsklig kontakt: Du kan kräva att ett beslut som fattats automatiskt ska omprövas av en fysisk person.
-
Granska källan: Fråga företaget vilken träningsdata som ligger till grund för deras modeller och om dina egna interaktioner har använts för att förbättra systemet utan ditt medgivande.
Myndigheternas nya roll
Integritets- och dataskyddsmyndigheten fungerar som din förlängda arm i denna process. De har befogenhet att genomföra oanmälda inspektioner av de algoritmiska systemen hos både företag och myndigheter. Om du misstänker att en AI-applikation bryter mot reglerna om transparens eller dataminimering är en anmälan till dem det mest effektiva sättet att skapa förändring.
En framtid med transparens som standard
Målet med den nya lagstiftningen är att göra tekniken begriplig. Vi ska inte behöva vara programmerare för att förstå varför vi får vissa rekommendationer eller varför vi sorteras in i specifika målgrupper. Transparens är inte längre en valfri funktion för utvecklare, utan själva förutsättningen för att få verka på den europeiska marknaden.
Genom att använda dina rättigheter bidrar du till att forma en mer ansvarsfull teknikutveckling. Det är genom våra gemensamma krav på insyn som vi säkerställer att den artificiella intelligensen tjänar människan, och inte tvärtom.
Läs mer
Lenscape – Ett smidigt sätt att organisera dina bilder på Mac
Clipboard-appen PastePal finslipas – ny design och smartare funktioner
Tips från verkstaden: Maximera din produktivitet med fönstergrupper i iPadOS 26
av Mikael Winterkvist | jan 13, 2026 | Bluesky, Övervakning, Threads, Twitter

EU:s nya AI-lag, formellt kallad AI-förordningen eller Artificial Intelligence Act, är ett gemensamt regelverk som styr hur artificiell intelligens får utvecklas, säljas och användas inom Europeiska unionen.
Lagen är tänkt att skapa tydliga och enhetliga spelregler i alla medlemsländer, så att företag, myndigheter och medborgare omfattas av samma skydd och samma skyldigheter oavsett var i EU de befinner sig. Samtidigt ska regelverket göra det möjligt att fortsätta utveckla och använda AI utan att grundläggande rättigheter, säkerhet eller demokratiska värden sätts på spel.
Riskmodell
AI-förordningen bygger på en riskmodell där olika typer av AI delas in efter hur stor påverkan de kan ha på människor och samhälle.
- Vissa användningar anses så farliga att de förbjuds helt, exempelvis system som bedömer eller rangordnar människor på ett sätt som kan leda till diskriminering eller social kontroll.
- Andra system bedöms som högrisk, vilket gäller AI som används i till exempel rekrytering, kreditbedömning, brottsbekämpning eller medicinska beslut. Dessa system får användas, men endast om de uppfyller mycket strikta krav på kvalitet, dokumentation, mänsklig kontroll och spårbarhet.
- AI som inte innebär någon större risk omfattas av betydligt enklare regler, även om grundläggande krav på transparens och information fortfarande gäller.
Särskilda regler
Den nya lagen gäller även så kallade generella AI-modeller, vilket är system som kan användas för många olika uppgifter, till exempel stora språkmodeller och bildgeneratorer. Dessa modeller omfattas av särskilda regler som ska göra det tydligt hur de tränas, hur de fungerar och vilka risker de kan innebära när de används i olika sammanhang.
Stegvis
AI-förordningen trädde i kraft den 1 augusti 2024. Detta betyder att lagen från detta datum är formellt antagen och juridiskt giltig i hela EU. Reglerna börjar däremot tillämpas stegvis under flera år. De första konkreta bestämmelserna började gälla den 2 februari 2025, då förbud mot vissa typer av farlig AI samt grundläggande definitioner och kompetenskrav infördes. Nästa stora steg sker den 2 augusti 2025, då reglerna för generella AI-modeller och de nya tillsynsmyndigheterna börjar gälla. Den största delen av lagens krav blir fullt tillämpliga den 2 augusti 2026. För vissa särskilt komplexa högriskområden finns ytterligare övergångstid, vilket innebär att alla regler ska vara helt införda senast den 2 augusti 2027.
Centrala delar
I praktiken innebär detta att företag, organisationer och myndigheter som använder AI måste kartlägga vilka system de har, bedöma deras risknivå och säkerställa att de uppfyller lagens krav innan de används i skarp drift. Dokumentation, teknisk kvalitet, mänsklig tillsyn och tydlig information till användare blir centrala delar i detta arbete. Den som bryter mot reglerna riskerar kraftiga sanktioner, vilket gör att efterlevnaden blir avgörande för alla som arbetar med AI i Europa.
EU:s mål med lagen är att skapa ett samhälle där artificiell intelligens kan bidra till innovation och tillväxt, samtidigt som människor skyddas mot missbruk, godtyckliga beslut och tekniska system som ingen har kontroll över. Med AI-förordningen blir Europa den första regionen i världen med ett sammanhållet och bindande regelverk för hur AI får användas i praktiken.
Källor
Läs mer
Lämna över mina hälsodata till OpenAI och ChatGPT – aldrig!
OpenAI lanserar ChatGPT Health som din nya hälsopartner
Granskning avslöjar brister i användandet av hemlig avlyssning
av Mikael Winterkvist | jan 10, 2026 | Bluesky, Övervakning, Threads, Twitter

Säkerhets- och integritetsskyddsnämnden har i en omfattande granskning riktat skarp kritik mot hur polisen och åklagare använder hemliga tvångsmedel. Utredningen visar att avlyssning har riktats mot personer som enligt gällande lagstiftning ska vara fredade. Det som nu har kommit i dagen bekräftar de varningar som lyftes av experter redan när lagförslaget var ute på remiss.
Kärnan i kritiken rör en specifik paragraf i rättegångsbalken. Denna lagdel infördes för att polisen skulle kunna avlyssna exempelvis en anonym telefon för att identifiera en okänd gärningsman. Granskningen av ärenden vid sex olika åklagarkammare visar dock en helt annan verklighet:
- Kända personer avlyssnas utan bevis: Myndigheterna har avlyssnat redan identifierade individer, trots att bevisningen mot dem inte har nått upp till nivån för skälig misstanke.
- Rättssäkerheten rundas: Genom att använda den nya bestämmelsen har rättsväsendet i praktiken skapat en genväg för att övervaka personer man ”har ögonen på”, utan att de vanliga rättsliga kraven är uppfyllda.
- Bristande förutsebarhet hotar integriteten
Nämnden slår fast att det nuvarande regelverket brister i både tydlighet och förutsebarhet. Detta innebär en stor risk för att medborgarnas personliga integritet kränks på ett sätt som lagstiftaren aldrig avsett. När åklagare och domstolar gör egna tolkningar som strider mot lagens syfte sätts den enskildes rättsskydd ur spel.
Krav på omedelbara åtgärder
Slutsatserna i rapporten är entydiga. Lagstiftaren måste skyndsamt se över och precisera bestämmelserna för att förhindra att de missbrukas eller tolkas för brett. Den pågående debatten om polisens utökade befogenheter får nu nytt bränsle, då granskningen visar att de nya verktygen har tagits i bruk på bekostnad av grundläggande rättsprinciper.
Tillämpningen
Nämnden beslutade i juni 2024 att granska tillämpningen av 27 kap. 18 b § rättegångsbalken. Denna paragraf ger polisen möjlighet att använda hemlig avlyssning för att utreda vem som skäligen kan misstänkas för ett brott. Fokus för granskningen har varit att kontrollera om de personer som faktiskt avlyssnats är sådana som lagen tillåter.
Allvarliga brister i tillämpningen
Utredningen omfattade tio ärenden vid sex olika åklagarkammare. Resultatet visar att både åklagare och domstolar har tolkat lagen på ett sätt som strider mot dess ursprungliga syfte.
Nämnden riktar nu skarp kritik mot hur otydlig lagstiftningen har visat sig vara i praktiken. Enligt granskningen finns det en betydande risk för att enskilda personers integritet kränks på ett sätt som inte var avsett.
Följande slutsatser dras i rapporten:
- Regelverket saknar den förutsägbarhet som krävs för så ingripande åtgärder som hemlig avlyssning.
- Myndigheternas tolkning av lagen har lett till att fredade personer, som enligt grundregeln inte ska kunna avlyssnas utan skälig misstanke, ändå har drabbats.
- Lagstiftaren bör skyndsamt se över och förtydliga bestämmelsen för att säkerställa att den inte missbrukas eller tolkas för brett.
Denna granskning ligger till grund för den pågående debatten om huruvida de utökade befogenheterna för polisen har getts på bekostnad av rättssäkerheten.
Läs mer
Nu marscherar vi raskt in i George Orwells 1984 – övervakningssamhället
När demokratin försvagas inifrån – en filosofisk checklista
av Mikael Winterkvist | dec 15, 2025 | Bluesky, Övervakning, Threads

Allt fler prylar kräver en medföljande app för att styras. Sexleksaker är inget undantag. Den globala marknaden för dessa produkter förväntas toppa 80 miljarder dollar år 2030. Denna trend har lett till en oro för datainsamling.
App-anslutna sexleksaker kan samla in mycket känsliga uppgifter. Ray Walsh, expert på digital integritet vid Comparitech, nämner potentiella datatyper. Dessa inkluderar sexuell beteendedata, användningsfrekvens, intensitetsinställningar, partneranslutningar, platsdata och IP-adresser. Den sexuella beteendedatan beskriver vilken leksak som används och vilka funktioner som aktiveras.
Företagen hävdar att datainsamlingen sker för att förbättra produkterna. De använder den också för att skräddarsy marknadsföring och reklam mot användarna. Lelo bekräftar exempelvis att datainsamling används för riktade annonser.
Datamäklare
Insamlad data kan säljas vidare till Datamäklare. Dessa mäklare säljer sedan informationen till den som vill betala. Det kan inkludera myndigheter, privata utredare eller annonsörer. Datamäklare skapar en andra inkomstström för leksaksföretagen. De matchar och paketerar datan med information från andra källor. Varje app-användares data kopplas till en e-postadress, enhets-ID eller spårningscookie för att möjliggöra annonsinriktning.
Möjligheten att välja bort datadelning beror på var användaren bor. California Consumer Privacy Act är ett exempel på lagar som kräver att företag informerar konsumenter om försäljning av personlig information. Den ger också konsumenter rätten att neka delning.
Varningssignaler och skyddsåtgärder:
-
Siri och Apple: Många appar slår automatiskt på åtkomst till Siri genom funktionen ”Lär av denna app”. Apple kan då få insyn i hur ofta och när leksaken används. Det är säkrast att neka denna behörighet.
-
Wi-Fi-risker: Vissa äldre leksaker, som Svakoms Siime Eye (nu nedlagd), hade inbyggd kamera och ett enkelt standardlösenord. Det gjorde dem lätta att hacka.
-
Gästanvändning: Vissa appar, som Svakoms och We-Vibes, erbjuder gästanvändning utan att samla in data. Satisfyer Connect låter användare välja bort datainsamling innan appen startas.
-
Läs policyer: Experter rekommenderar att söka efter nyckelfraser som ”end-to-end encryption”, ”data anonymization” och ”no third-party sharing”. Vaga formuleringar som ”vi kan dela din data med betrodda partners” bör undvikas.
-
Radera data: Att bara radera appen räcker inte. För att radera lagrad data måste användaren kontakta företaget eller radera sitt användarkonto, då informationen kan sparas på företagets servrar under lång tid, som i fallet med Lelo.
Innan köp bör appens recensioner och integritetspolicy granskas noga. En integritetspolicy som är lättläst och tydligt anger datalagringstid, som Satisfyer Connect (raderar loggar var 60:e dag), är att föredra. Stäng av onödiga behörigheter i telefonens inställningar. Det skyddar mot åtkomst till kamera eller kontakter. Att stänga av behörigheter stoppar dock inte insamling av beteendedata, som inloggningsfrekvens och knapptryckningar.
Vetskap om policyerna är det enda sättet att veta om leksaken verkligen spionerar på dig.
Källa:
Wired
av Mikael Winterkvist | dec 11, 2025 | Bluesky, Övervakning, Threads

Svenska medborgare som planerar att resa till USA kan snart tvingas lämna ut sin historik på sociala medier. Ett nytt förslag från den amerikanska tull- och gränsmyndigheten (CBP) skärper kraven för inresa kraftigt, och detta gäller även för vanliga turister.
Förslaget innebär att resenärer i vissa fall, innan de beviljas inresa, måste uppge sina användarnamn på diverse sociala medieplattformar. Målet är att öka säkerheten och göra det lättare för myndigheterna att identifiera potentiella hot. Myndigheterna hävdar att det handlar om att kunna bedöma om en person är lämplig att beviljas inresa och om personen utgör en risk för landet.
Vem drabbas?
Kraven gäller i första hand de som ansöker om inresa via programmet ESTA (Electronic System for Travel Authorization), vilket de flesta svenska medborgare använder för turist- och affärsresor. ESTA tillåter medborgare från vissa länder att resa till USA utan visum i upp till 90 dagar.
Kritik och kontrovers:
Förslaget har mött omfattande kritik från organisationer som värnar om digital integritet och medborgerliga rättigheter. Kritiker menar att det utgör ett oacceptabelt intrång i privatlivet och kan leda till diskriminering baserat på åsikter som uttryckts på nätet. Det finns en oro för att myndigheter felaktigt ska tolka inlägg eller kommentarer, vilket skulle kunna leda till att oskyldiga resenärer nekas inresa.
Detta kan du behöva uppge:
Även om resenärer inte kommer att tvingas lämna ut sina lösenord, kan de bli ombedda att lista sina användarnamn på plattformar som Facebook, X (tidigare Twitter) och Instagram. Det är dock viktigt att notera att det i dagsläget är frivilligt att lämna ut denna information på ansökningsblanketterna. Det nya förslaget skulle potentiellt kunna ändra den frivilliga karaktären till ett mer eller mindre tvingande krav för att få sin ansökan behandlad.
Reglerna har ännu inte trätt i kraft. De är föremål för debatt och översyn.
Källa:
https://esta.cbp.dhs.gov/