av Mikael Winterkvist | jan 27, 2026 | Bluesky, Övervakning, Socialt, Threads

TikToks nyskapade samriskbolag i USA har uppdaterat sin integritetspolicy. Förändringen innebär att företaget nu kan samla in mer detaljerad platsdata från sina 200 miljoner amerikanska användare. Uppdateringen publicerades kort efter att investerare slutfört affären med den kinesiska ägaren ByteDance.
Från ungefärlig till exakt position
Det nya avtalet ger företaget möjlighet att samla in exakt geografisk information. Tidigare har policyn endast omfattat ungefärlig platsdata. TikTok har ännu inte kommenterat ändringen direkt till BBC. Företaget betonar dock i sina villkor att hanteringen sker enligt gällande lagstiftning. Användare ska dessutom kunna stänga av funktionen i sina enhetsinställningar.
Positioneringen via GPS har tidigare varit begränsad för amerikanska användare. Istället har informationen hämtats via SIM-kort eller IP-adresser. Den nya funktionen förväntas vara frivillig och inaktiverad som standard. Liknande datainsamling finns redan i Storbritannien och Europa genom funktionen ”Nearby Feed”.
Övervakning av AI-interaktioner
Samriskbolaget utökar även rätten att samla in information om hur användare interagerar med plattformens AI-verktyg. Detta omfattar frågor och instruktioner som skickas till tjänsten. Systemet registrerar även tid och plats för när AI-innehållet skapas.
TikTok USDS Joint Venture LLC styrs av tre huvudsakliga investerare. Molntjänstjätten Oracle har en central roll och satsar stort på infrastruktur för artificiell intelligens. Oracles ordförande Larry Ellison är en betydande donator till Republikanerna och har länge varit allierad med president Donald Trump.
Bakgrund till avtalet
Överenskommelsen avslutar flera års konflikt mellan Washington och Peking. Konflikten startade under Trumps första mandatperiod då han försökte förbjuda appen av nationella säkerhetsskäl. En lag från 2024 krävde att plattformen skulle förbjudas om inte ByteDance sålde den amerikanska verksamheten.
Syftet med det nya bolaget är att säkra amerikansk användardata och algoritmer genom omfattande säkerhetsåtgärder. Oracle ska övervaka träningen av appens rekommendationsalgoritm, som kommer att köras i företagets amerikanska molnmiljö. ByteDance behåller en minoritetsandel på knappt 20 procent i det nya bolaget.
Källa: BBC
av Mikael Winterkvist | jan 25, 2026 | Artikelserier, Bluesky, Övervakning, Reportage, Threads, Twitter

Ett av de mest användbara tipsen för iPhone-användare handlar om att undvika spårning när man delar information från webbläsaren Safari. Många adresser innehåller idag långa rader av kod som används för att följa dina rörelser på nätet.
Dela utan spårningsparametrar
När du ska skicka en länk till en vän kan du rensa den direkt i delningsmenyn. Klicka på knappen ”Alternativ” som visas högst upp i delningsfönstret. Där kan du välja att skicka länken som en vanlig PDF eller som en ren webbadress utan inbäddad spårningsdata.
Använd funktionen Stäng flikar automatiskt
Många samlar på sig hundratals öppna flikar som drar batteri och gör webbläsaren långsam. Du kan ställa in Safari så att den sköter städningen åt dig.
-
Öppna Inställningar.
-
Välj Safari.
-
Gå till Stäng flikar.
-
Välj att flikar ska stängas efter en dag, en vecka eller en månad.
Snabb åtkomst till flikar på andra enheter
Om du använder både iPad och iPhone kan du se vad som är öppet på dina andra enheter direkt från flikvyn. Scrolla längst ner på startsidan i Safari för att hitta sektionen för iCloud-flikar. Detta gör det enkelt att fortsätta läsa en artikel på en annan skärm utan att behöva leta upp adressen igen.
Läs mer
Så kontrollerar du dina tillägg i Chrome
Skydda dig mot skadliga tillägg – checklista för hemmet och kontoret
macOS Tahoe stärker skyddet för integritet och säkerhet
Så kontrollerar du att din VPN verkligen fungerar
av Mikael Winterkvist | jan 20, 2026 | Bluesky, Övervakning, Threads

Säkerhetsforskare vid CovertLabs har genom projektet Firehound avslöjat en omfattande säkerhetsbrist i ett stort antal appar på Apples App Store.
Resultaten visar att hundratals applikationer läcker känslig användardata som namn, e-postadresser och kompletta chatthistoriker.
AI-appar toppar listan över osäkra program
Säkerhetsprojektet Firehound skannar och indexerar appar som exponerar användardata på grund av felaktigt konfigurerade databaser eller osäker molnlagring. Hittills har man identifierat nästan 200 iOS-appar som läcker information i olika omfattning. Den absoluta majoriteten av dessa är kopplade till artificiell intelligens.
Värst drabbad är appen ”Chat & Ask AI” som ensam har exponerat över 406 miljoner poster från fler än 18 miljoner användare. Det rör sig om en enorm mängd privat information som legat helt öppen för den som vet var man ska leta. Även om AI-kategorin är mest representerad finns läckor inom allt från utbildning och hälsa till sociala nätverk och livsstilsappar.
En påminnelse om riskerna med snabb utveckling
Många av de drabbade apparna verkar ha lanserats snabbt för att rida på AI-vågen. Det är oklart om den bristfälliga säkerheten beror på att apparna skapats med hjälp av automatiserade kodverktyg eller om det handlar om rent slarv från utvecklarnas sida. Oavsett orsak betonar forskarna att ansvaret för att säkra användardata alltid ligger hos den som ger ut appen.
Firehound begränsar för tillfället tillgången till de mest känsliga uppgifterna i sina skanningsresultat för att förhindra ytterligare missbruk. Fullständig åtkomst prioriteras för journalister, säkerhetsexperter och polismyndigheter. Denna upptäckt fungerar som en skarp påminnelse om att vara extremt försiktig med vilken information du delar med okända AI-tjänster och chattbotar.
De mest osäkra apparna enligt Firehound
Här listas de applikationer som har identifierats med de mest omfattande dataläckorna. Flera av dessa har exponerat miljontals privata poster på grund av bristfällig säkerhet i sina databaser.

Appar med störst mängd exponerad data
-
Chat & Ask AI: Denna app toppar listan med råge. Över 406 miljoner poster har läckt ut vilket drabbar fler än 18 miljoner användare.
-
Chat AI: En av de mest populära tjänsterna i kategorin som har visat sig ha stora luckor i sin molnlagring.
-
AI Chatbot: Flera appar med liknande namn har flaggats för att de delar användarnas chatthistorik och personuppgifter med obehöriga.
-
Genie AI: En applikation som lockat många användare men som nu finns med i Firehounds index över osäkra program.
Dessa appar utgör den största risken för tillfället då mängden data som ligger öppen är exceptionellt hög. Informationen inkluderar ofta allt från användarnamn till hela konversationer som förts med de inbyggda chattbotarna.
Källa: Firehound
Läs mer
De stora läckorna står slarviga datatrålare för
Så delas din data med över 1 500 företag när du surfar
Databrokers kartlägger ditt liv på nätet – utan att du märker det
av Mikael Winterkvist | jan 17, 2026 | Bluesky, Övervakning, Threads, Twitter

I takt med att EU:s AI-akt träder i kraft flyttas makten från de stora teknikbolagen tillbaka till användaren. För den enskilde medborgaren innebär de nya reglerna inte bara ett passivt skydd, utan en aktiv möjlighet att ifrågasätta och granska de system som formar vår vardag.
Det handlar om rätten att veta när en maskin fattar beslut som påverkar din ekonomi, din hälsa eller din karriär.
Verktygen för digital självförsvar
Att begära ut data handlar om mer än att bara få en kopia på sina personuppgifter. Det handlar om att förstå logiken bakom algoritmerna. Genom att kombinera rättigheterna i GDPR med de nya kraven i AI-akten kan du agera proaktivt.
Här är de viktigaste stegen för att granska hur du profileras:
-
Begär förklaring: Om du nekas ett lån eller en försäkring har du rätt att få en begriplig förklaring av hur AI-modellen har viktat dina uppgifter.
-
Rätten till mänsklig kontakt: Du kan kräva att ett beslut som fattats automatiskt ska omprövas av en fysisk person.
-
Granska källan: Fråga företaget vilken träningsdata som ligger till grund för deras modeller och om dina egna interaktioner har använts för att förbättra systemet utan ditt medgivande.
Myndigheternas nya roll
Integritets- och dataskyddsmyndigheten fungerar som din förlängda arm i denna process. De har befogenhet att genomföra oanmälda inspektioner av de algoritmiska systemen hos både företag och myndigheter. Om du misstänker att en AI-applikation bryter mot reglerna om transparens eller dataminimering är en anmälan till dem det mest effektiva sättet att skapa förändring.
En framtid med transparens som standard
Målet med den nya lagstiftningen är att göra tekniken begriplig. Vi ska inte behöva vara programmerare för att förstå varför vi får vissa rekommendationer eller varför vi sorteras in i specifika målgrupper. Transparens är inte längre en valfri funktion för utvecklare, utan själva förutsättningen för att få verka på den europeiska marknaden.
Genom att använda dina rättigheter bidrar du till att forma en mer ansvarsfull teknikutveckling. Det är genom våra gemensamma krav på insyn som vi säkerställer att den artificiella intelligensen tjänar människan, och inte tvärtom.
Läs mer
Lenscape – Ett smidigt sätt att organisera dina bilder på Mac
Clipboard-appen PastePal finslipas – ny design och smartare funktioner
Tips från verkstaden: Maximera din produktivitet med fönstergrupper i iPadOS 26
av Mikael Winterkvist | jan 13, 2026 | Bluesky, Övervakning, Threads, Twitter

EU:s nya AI-lag, formellt kallad AI-förordningen eller Artificial Intelligence Act, är ett gemensamt regelverk som styr hur artificiell intelligens får utvecklas, säljas och användas inom Europeiska unionen.
Lagen är tänkt att skapa tydliga och enhetliga spelregler i alla medlemsländer, så att företag, myndigheter och medborgare omfattas av samma skydd och samma skyldigheter oavsett var i EU de befinner sig. Samtidigt ska regelverket göra det möjligt att fortsätta utveckla och använda AI utan att grundläggande rättigheter, säkerhet eller demokratiska värden sätts på spel.
Riskmodell
AI-förordningen bygger på en riskmodell där olika typer av AI delas in efter hur stor påverkan de kan ha på människor och samhälle.
- Vissa användningar anses så farliga att de förbjuds helt, exempelvis system som bedömer eller rangordnar människor på ett sätt som kan leda till diskriminering eller social kontroll.
- Andra system bedöms som högrisk, vilket gäller AI som används i till exempel rekrytering, kreditbedömning, brottsbekämpning eller medicinska beslut. Dessa system får användas, men endast om de uppfyller mycket strikta krav på kvalitet, dokumentation, mänsklig kontroll och spårbarhet.
- AI som inte innebär någon större risk omfattas av betydligt enklare regler, även om grundläggande krav på transparens och information fortfarande gäller.
Särskilda regler
Den nya lagen gäller även så kallade generella AI-modeller, vilket är system som kan användas för många olika uppgifter, till exempel stora språkmodeller och bildgeneratorer. Dessa modeller omfattas av särskilda regler som ska göra det tydligt hur de tränas, hur de fungerar och vilka risker de kan innebära när de används i olika sammanhang.
Stegvis
AI-förordningen trädde i kraft den 1 augusti 2024. Detta betyder att lagen från detta datum är formellt antagen och juridiskt giltig i hela EU. Reglerna börjar däremot tillämpas stegvis under flera år. De första konkreta bestämmelserna började gälla den 2 februari 2025, då förbud mot vissa typer av farlig AI samt grundläggande definitioner och kompetenskrav infördes. Nästa stora steg sker den 2 augusti 2025, då reglerna för generella AI-modeller och de nya tillsynsmyndigheterna börjar gälla. Den största delen av lagens krav blir fullt tillämpliga den 2 augusti 2026. För vissa särskilt komplexa högriskområden finns ytterligare övergångstid, vilket innebär att alla regler ska vara helt införda senast den 2 augusti 2027.
Centrala delar
I praktiken innebär detta att företag, organisationer och myndigheter som använder AI måste kartlägga vilka system de har, bedöma deras risknivå och säkerställa att de uppfyller lagens krav innan de används i skarp drift. Dokumentation, teknisk kvalitet, mänsklig tillsyn och tydlig information till användare blir centrala delar i detta arbete. Den som bryter mot reglerna riskerar kraftiga sanktioner, vilket gör att efterlevnaden blir avgörande för alla som arbetar med AI i Europa.
EU:s mål med lagen är att skapa ett samhälle där artificiell intelligens kan bidra till innovation och tillväxt, samtidigt som människor skyddas mot missbruk, godtyckliga beslut och tekniska system som ingen har kontroll över. Med AI-förordningen blir Europa den första regionen i världen med ett sammanhållet och bindande regelverk för hur AI får användas i praktiken.
Källor
Läs mer
Lämna över mina hälsodata till OpenAI och ChatGPT – aldrig!
OpenAI lanserar ChatGPT Health som din nya hälsopartner
Granskning avslöjar brister i användandet av hemlig avlyssning
av Mikael Winterkvist | jan 10, 2026 | Bluesky, Övervakning, Threads, Twitter

Säkerhets- och integritetsskyddsnämnden har i en omfattande granskning riktat skarp kritik mot hur polisen och åklagare använder hemliga tvångsmedel. Utredningen visar att avlyssning har riktats mot personer som enligt gällande lagstiftning ska vara fredade. Det som nu har kommit i dagen bekräftar de varningar som lyftes av experter redan när lagförslaget var ute på remiss.
Kärnan i kritiken rör en specifik paragraf i rättegångsbalken. Denna lagdel infördes för att polisen skulle kunna avlyssna exempelvis en anonym telefon för att identifiera en okänd gärningsman. Granskningen av ärenden vid sex olika åklagarkammare visar dock en helt annan verklighet:
- Kända personer avlyssnas utan bevis: Myndigheterna har avlyssnat redan identifierade individer, trots att bevisningen mot dem inte har nått upp till nivån för skälig misstanke.
- Rättssäkerheten rundas: Genom att använda den nya bestämmelsen har rättsväsendet i praktiken skapat en genväg för att övervaka personer man ”har ögonen på”, utan att de vanliga rättsliga kraven är uppfyllda.
- Bristande förutsebarhet hotar integriteten
Nämnden slår fast att det nuvarande regelverket brister i både tydlighet och förutsebarhet. Detta innebär en stor risk för att medborgarnas personliga integritet kränks på ett sätt som lagstiftaren aldrig avsett. När åklagare och domstolar gör egna tolkningar som strider mot lagens syfte sätts den enskildes rättsskydd ur spel.
Krav på omedelbara åtgärder
Slutsatserna i rapporten är entydiga. Lagstiftaren måste skyndsamt se över och precisera bestämmelserna för att förhindra att de missbrukas eller tolkas för brett. Den pågående debatten om polisens utökade befogenheter får nu nytt bränsle, då granskningen visar att de nya verktygen har tagits i bruk på bekostnad av grundläggande rättsprinciper.
Tillämpningen
Nämnden beslutade i juni 2024 att granska tillämpningen av 27 kap. 18 b § rättegångsbalken. Denna paragraf ger polisen möjlighet att använda hemlig avlyssning för att utreda vem som skäligen kan misstänkas för ett brott. Fokus för granskningen har varit att kontrollera om de personer som faktiskt avlyssnats är sådana som lagen tillåter.
Allvarliga brister i tillämpningen
Utredningen omfattade tio ärenden vid sex olika åklagarkammare. Resultatet visar att både åklagare och domstolar har tolkat lagen på ett sätt som strider mot dess ursprungliga syfte.
Nämnden riktar nu skarp kritik mot hur otydlig lagstiftningen har visat sig vara i praktiken. Enligt granskningen finns det en betydande risk för att enskilda personers integritet kränks på ett sätt som inte var avsett.
Följande slutsatser dras i rapporten:
- Regelverket saknar den förutsägbarhet som krävs för så ingripande åtgärder som hemlig avlyssning.
- Myndigheternas tolkning av lagen har lett till att fredade personer, som enligt grundregeln inte ska kunna avlyssnas utan skälig misstanke, ändå har drabbats.
- Lagstiftaren bör skyndsamt se över och förtydliga bestämmelsen för att säkerställa att den inte missbrukas eller tolkas för brett.
Denna granskning ligger till grund för den pågående debatten om huruvida de utökade befogenheterna för polisen har getts på bekostnad av rättssäkerheten.
Läs mer
Nu marscherar vi raskt in i George Orwells 1984 – övervakningssamhället
När demokratin försvagas inifrån – en filosofisk checklista