av Mikael Winterkvist | mar 19, 2026 | Bluesky, Mastodon, Övervakning, Threads |

FBI-chefen Kash Patel bekräftade under ett senatsförhör att myndigheten köper in rörelse- och platsdata om privatpersoner på den öppna marknaden. Enligt Patel sker inköpen av kommersiellt tillgänglig information i enlighet med konstitutionen och gällande lagstiftning, och han framhöll att datan är ett värdefullt verktyg i underrättelsearbetet.
Sedan ett domstolsbeslut 2018 (Carpenter mot USA) krävs det egentligen ett domstolsbeslut för att polisen ska få hämta ut platsdata direkt från mobiloperatörer. Genom att istället köpa informationen från privata datahandlare kan myndigheterna dock kringgå de juridiska kraven.
Oskäliga ingrepp
Senator Ron Wyden riktade skarp kritik mot agerandet och kallade det för ett allvarligt kringgående av det fjärde författningstillägget, som ska skydda medborgare mot oskäliga ingrepp. Han varnade särskilt för riskerna när massiva mängder privat information analyseras med hjälp av AI. Wyden tillhör en grupp lagstiftare som nu kräver en total översyn av hur regeringen får samla in personuppgifter.
Behovet av tydligare regler framstår som allt mer akut då flera myndigheter rört sig i gråzoner:
-
FBI: Utöver dataköpen har Kash Patel tidigare ifrågasatts för att ha använt statliga resurser för personliga ändamål, vilket skapat misstro kring hur han hanterar de integritetsskydd som finns kvar.
-
DHS: Inrikessäkerhetsdepartementet står inför en stämning efter anklagelser om olaglig övervakning av demonstranter vid tillslag mot migranter.
-
Pentagon: Försvarsdepartementet har nyligen stämplat AI-bolaget Anthropic som en leveranskedjerisk. Detta efter att företaget vägrat låta sina produkter användas för massövervakning av amerikanska medborgare.
Utvecklingen visar på en växande konflikt mellan teknikbolag som sätter upp etiska gränser och myndigheter som söker nya vägar för att övervaka befolkningen utanför domstolarnas kontroll.
Källa: Engadget
av Mikael Winterkvist | mar 14, 2026 | Bluesky, Mastodon, Övervakning, Threads, Twitter |

Smarta tv-apparater erbjuder internetanslutning och streaming, men de samlar också in enorma mängder personlig data för att sälja vidare till annonsörer.
Smarta tv-apparater är dessutom alltid är uppkopplade vilket i vart fall i teorin kan innebära att hackare kan utnyttja sårbarheter för att installera skadlig kod, stjäla inloggningsuppgifter eller komma åt inbyggda kameror och mikrofoner. I värsta fall används tv:n som en ingång till din router för att hacka hela ditt smarta hem.
FBI:s rekommendationer för säkerhet
För några år sedan gick FBI ut med en varning om riskerna och konstaterade att tillverkare och apputvecklare har möjlighet att både lyssna och titta på dig. Myndigheten betonar att du inte behöver vara rädd för att använda din tv, men du bör följa dessa riktlinjer:
-
Kartlägg funktionerna: Ta reda på exakt vad din tv kan göra. Sök på modellnumret och ord som ”mikrofon”, ”kamera” och ”integritet” om du saknar manualen.
-
Ändra standardinställningar: Lita inte på fabriksinställningarna. Byt lösenord där det går och lär dig hur du stänger av mikrofoner, kameror och datainsamling. Om det inte går att stänga av bör du överväga om du alls vill använda tjänsten.
-
Fysiska hinder: Om du inte kan stänga av en kamera i mjukvaran fungerar en bit svart eltejp över linsen som ett enkelt och effektivt skydd.
-
Säkerhetsuppdateringar: Kontrollera om tillverkaren faktiskt skickar ut säkerhetsuppdateringar och om de har gjort det historiskt.
-
Granska policyn: Läs integritetspolicyn för både tv-tillverkaren och de streamingtjänster du använder. Kontrollera vilken data de samlar in, var den lagras och vad de gör med den.
Vad experterna säger om hoten
Shane Barney, säkerhetschef på Keeper Security, och John Gallagher från Viakoo Labs förklarar att dagens elektronik har kraftfulla processorer och minne som kan utnyttjas av angripare.
Enligt Gallagher gör dessa processorer det möjligt för hackare att utvinna kryptovaluta (som Monero) eller utföra massiva överbelastningsattacker (DDoS). Den största risken med AI är att video- och ljuddata nu kan bearbetas och användas för skadliga syften mycket mer effektivt än tidigare.
Barney menar att målet sällan är att störa det du tittar på. Det verkliga värdet ligger i att använda tv:n som en väg för att nå bärbara datorer, routrar eller andra anslutna system där känsligare information finns. Ju fler uppkopplade enheter du har, desto större blir den totala risken.
Tillverkarnas egen datainsamling
För de flesta användare är den lagliga datainsamlingen från tillverkarna ett större bekymmer än hacking. Gallagher påpekar att du genom att godkänna användarvillkoren ofta ger tillverkaren rätt att övervaka aktiviteten i ditt hem. Detta kan användas för att kartlägga dina vanor, när hemmet är tomt eller för att skapa hyperrealistiska deepfakes med hjälp av AI.
Ett aktuellt exempel på integritetsproblem är Rings reklamfilm från Super Bowl 2026, där funktionen ”Search Party” kan spåra både hundar och människor utan deras samtycke, vilket visar att integritet fortfarande är en stor fråga.
Automatic Content Recognition (ACR)
ACR är en funktion som analyserar innehållet på din skärm för att rikta annonser. Barney förklarar att det inte är skadligt i sig, men att mängden beteendedata som samlas in och delas vidare i annonssystem är problematisk. Gallagher rekommenderar att du stänger av ACR helt, även om tillverkarna ofta gör dessa menyer svåra att hitta under rubriker som ”visningsdata” eller ”interaktivitet”.
Så skyddar du dig: Du bör närma dig din smarta tv med samma säkerhetstänk som en dator. Se till att programvaran är uppdaterad, granska integritetsinställningarna noga och stäng av allt som inte är nödvändigt – särskilt röststyrning, kameraåtkomst och insamling av visningsdata.
Samsung: Inaktivera ”Viewing Information Services”
Samsung kallar sin ACR-teknik för Viewing Information Services. Det är den funktion som analyserar vad du tittar på i realtid.
Här hittar du inställningen:
-
Tryck på Hem och gå till Inställningar.
-
Välj Allmänt och integritet (General & Privacy) > Villkor och integritet (Terms & Privacy).
-
Öppna Integritetsval (Privacy Choices).
-
Leta upp Viewing Information Services och avmarkera rutan eller slå av brytaren.
-
Passa även på att stänga av Intressebaserad annonsering (Interest-Based Advertising) i samma meny.
LG: Stoppa ”Live Plus”
På en LG-TV med webOS gömmer sig den viktigaste spårningen under namnet Live Plus.
Här hittar du inställningen:
-
Tryck på kugghjulet (Inställningar) på fjärrkontrollen.
-
Gå till Alla inställningar > Allmänt > System.
-
Välj Ytterligare inställningar (Additional Settings).
-
Ställ in Live Plus på Av.
-
Gå även till Annonsering (Advertisement) i samma meny och aktivera Begränsa annonsspårning (Limit AD Tracking).
Sony (Google TV/Android TV): ”Samba Interactive TV”
Sony använder ofta en tredjepartstjänst som heter Samba TV för sin innehållsidentifiering.
Här hittar du inställningen:
-
Tryck på Hem och gå till Inställningar.
-
Välj System eller Enhetsinställningar (Device Preferences).
-
Leta efter Samba Interactive TV.
-
Välj Inaktivera (Disable) för att stoppa tjänsten helt.
-
För att rensa ditt annons-ID: Gå till Inställningar > Integritet > Annonser och välj Nollställ annons-ID.
Philips och övriga med Google TV
För apparater som kör ren Google TV (som nyare Philips och TCL) ligger kontrollerna ofta direkt under ditt Google-konto.
Här hittar du inställningen:
-
Gå till Inställningar via kugghjulet i övre hörnet.
-
Välj Integritet (Privacy).
-
Gå till Användning och diagnostik (Usage & Diagnostics) och stäng av all rapportering.
-
Kontrollera även under Annonser (Ads) att Anpassade annonser är avstängt.
Kom ihåg: Om du inte använder TV:ns inbyggda appar utan istället kör via en Apple TV eller spelkonsol, är det mest effektiva att helt enkelt dra ur nätverkskabeln eller radera Wi-Fi-lösenordet i TV:ns inställningar. Då blir din ”smarta” TV en helt vanlig, säker bildskärm.
Källa: PC-Mag
av Mikael Winterkvist | mar 14, 2026 | Bluesky, Mastodon, Övervakning, Threads, Twitter

Den här texten bygger på rykten och uppgifter om att Apple jobbar på en AI-produkt som ska bäras utanpå kläderna, försedd med mikrofoner och en kamera.
Apple växlar upp tempot i utvecklingen av bärbar AI. Det handlar om ett smart hängsmycke utrustat med kameror och mikrofoner som ska bäras på utsidan av dina kläder. Enheten är designad för att se det du ser och höra det du hör i realtid. Syftet är att ge Siri den kontext som hittills saknats, men priset för denna bekvämlighet är din och andras personliga sfär.
Integritetsanalysen av ett sådant koncept är mörk. Du bär nu en maskin som konstant registrerar din omgivning, dina samtal och dina sociala interaktioner. Apple har länge profilerat sig på att skydda användardata, men med en kamera runt halsen suddas gränsen mellan privatliv och ständig övervakning ut. Du blir i praktiken en vandrande sensor åt ett av världens största techbolag.
Lägg sedan till att omgivningen avlyssnas och alla kan data samlas. Redan idag så finns det elektroniska produkter som används för att spela in samt al, möten, exempelvis och i Sverige är det förvisso tillåtet men sannolikt så reagerar de flesta över moralen och etiken i att spela in allt som sägs – utan att berätta det innan.
Strategin bakom de här produkterna är tydlig. Genom att placera hårdvaran utanpå kläderna slipper Apple de tekniska begränsningar som finns i en ficka. Du får en AI som kan varna dig för hinder, känna igen ansikten eller sammanfatta möten du precis lämnat.
Algoritm
Frågan är om du verkligen vill leva i en tillvaro där varje blick och varje viskat ord blir till träningsdata för en algoritm?
Detta är inte bara ännu en pryl i ekosystemet. Det är ett steg mot en värld där vi aldrig är helt bortkopplade. Du får visserligen en assistent som förstår din kontext bättre än någonsin, men du förlorar samtidigt rätten att vara osedd. Den sociala acceptansen för att bära en synlig kamera i vardagen kommer att bli Apples största utmaning hittills.
Min gissning är att Apple kommer att se till att allt, alla data lagras lokalt. Apple har en lång tradition av att skydda användarnas och användarnas information. Integritet är inte bara marknadsföring och PR för Apple utan det sitter djupt i företagets DNA.
Jag använder själv en sån här AI-produkt för att spela in möten. Fieldy, hänger runt halsen, spelar in ljudet och omvandlar det till text som sedan kan bearbetas. Det går sekundsnabbt att plocka ut det som sagts som text, plocka ut vilka saker som ska Götas, och vem som ska göra vad. Jag berättar alltid vad den lilla svarta saken runt min hals gör, hur jag använder AI-enheten och om någon som deltar i mötet vill ha all text, en kopia, så går det bra.
För transparensen skull ska också sägas att Fieldy är en av Magasin Macken samarbetspartners.
Glasögon
Uppgifterna om Apples produkt är fortfarande bara rykten men det finns liknande produkter, redan idag. Du kan köpa ett par glasögon, Ray Ban, med en intern skärm och med mikrofoner och kamera som fångar upp din omgivning. Det finns mikrofoner som du bär runt halsen som spelar in allt ljud, både i form av text och som ljudfil.
De här produkterna ingår i helt andra tekniska plattformar och i företag vars grundläggande affärsidé är att smala in och slöja din information. Meta, Facebooks ägare, har sådana här glasögon. Det finns en rad andra leverantörer och ett par glasögon kostar idag under tusenlappen och säljs av de stora teknikkedjorna. Det är med andra ord ingen dyr nischprodukt längre.
Det syns inte utanpå att glasögonen kan användas för att samla in allt i sin omgivning. I takt med att elektronik och batterier har kunnat göras allt mindre så blir glasögonen alltmera diskreta och du kan få AI-glasögon via din optiker så att de har samma styrka och synkorrigeringar som vilka glasögon som helst.
Noterbart är också att i marknadsföringen av alla dessa glasögon så nämns mycket sällan att data samlas in och skickas iväg – din data.
Test av Fieldy – del 1: Så slipper du sitta och anteckna under dina möten
Test av Fieldy – del 2: Dags att installera den nya AI-kompisen
Test av Fieldy – del 3: Anteckningsfunktionen sätts på hårda prov
av Mikael Winterkvist | mar 14, 2026 | Bluesky, Mastodon, Övervakning, Threads, Twitter |

All den tid du lagt på att skanna statyer och landmärken för att fånga virtuella varelser har i tysthet förvandlats till en massiv databas för kommersiell robotik. Det som såg ut som oskyldig underhållning har visat sig vara en gigantisk, gratis arbetsinsats för att träna Niantics navigeringssystem VPS.
Poängen är att insamlingen av data har skett utan att spelarna haft en aning om vad bilderna faktiskt ska användas till. Genom att locka med belöningar i spelet har Niantic fått miljontals människor att utföra det tidskrävande arbetet med att kartlägga världen i 3D – en uppgift som annars hade kostat miljarder att genomföra.
Data som byter skepnad
När du skannade en lokal staty för att klara en ”Field Research”-uppgift, skapade du i själva verket en pusselbit i ett kommersiellt navigeringsverktyg. Denna data säljs nu vidare eller används i samarbeten med företag som Coco Robotics. Det är ett tydligt exempel på hur användargenererat innehåll kan paketeras om och få ett helt nytt syfte långt efter att det samlats in.
Det som började som en digital skattjakt har blivit en grundpelare för logistikbranschen. Du har, utan att veta om det, varit med och byggt det system som gör att budrobotar kan navigera på centimeternivå där GPS går bet.
Från spel till övervakningskapitalism
Detta väcker viktiga frågor om transparens och samtycke. Även om Niantic äger rätten till den data du skapar i appen, var det få spelare som 2020 insåg att deras kameravinklar av en parkbänk sex år senare skulle vara en affärsprodukt för matleveranser.
Processen påminner om andra dolda datainsamlingar:
-
CAPTCHA-tester: Du bevisar att du är människa, men tränar samtidigt Googles AI-modeller för bildigenkänning.
-
Waze: Din positionshistorik blir till värdefull data som kan köpas av myndigheter eller polisen.
-
Pokémon Go: Din jakt på Pikachus blir till detaljerade 3D-kartor för autonoma maskiner.
Samarbetet med Coco Robotics är bara början. När robotarna börjar rulla på gatorna kommer de i sin tur att samla in ännu mer data för att uppdatera kartan. Den lekfulla ytan i Pokémon Go har visat sig vara ett effektivt sätt att få användare att frivilligt och ovetandes bygga upp ett omfattande kommersiellt övervaknings- och navigationsnätverk.
Källa: Popular Science
av Mikael Winterkvist | mar 12, 2026 | Bluesky, Mastodon, Övervakning, Threads, Twitter |

Elon Musks plattform X använder numera dina offentliga inlägg för att träna sin AI-bot Grok. Detta sedan företaget ändrade sina villkor under 2024 och datainsamlingen görs automatiskt för alla användare, om du inte säger ifrån.
Så här stoppar du plattformen från att använda din data.
Vilken data använder Grok?
Företaget delar din offentliga information med xAI, ett bolag som numera ägs av SpaceX och ansvarar för utvecklingen av generativa AI-modeller. Insamlingen omfattar allt från dina inlägg och delningar till samtal i Spaces. Din profilinformation, som biografi och visningsnamn, används också för att göra boten bättre på att förstå frågor och ge personliga svar.
Du har flera möjligheter att kontrollera hur din data hanteras. Du kan välja bort träning, radera din samtalshistorik eller göra ditt konto privat.
Så påverkas dina gamla inlägg av de nya reglerna
Ändringen av villkoren under 2024 innebar att X började använda historiska data för att träna Grok. Det betyder att dina gamla inlägg, delningar och samtal redan kan ha matats in i systemet. Även om du väljer bort framtida träning nu, raderas inte den data som redan har processats för att bygga den nuvarande modellen.
Du kan dock begränsa hur informationen används i framtiden. Genom att avaktivera inställningarna för träning och personlig anpassning stoppar du systemet från att hämta mer data från ditt konto vid nästa uppdatering av modellen. Vill du rensa bort så mycket som möjligt bör du även radera din konversationshistorik med boten. Det tar bort de specifika interaktioner du haft direkt med Grok, men påverkar inte de offentliga inlägg du gjort tidigare.
Det mest radikala steget för att skydda ditt arkiv är att göra kontot privat. Det raderar inte det som redan samlats in, men det klipper effektivt banden för all framtida dataskörd och gör dina gamla inlägg osynliga för externa sökverktyg som tränar AI.
Välj bort AI-träning
Inställningarna för att stoppa datainsamlingen ligger under menyn för integritet. Följ dessa steg för att skydda ditt innehåll:
-
Öppna Inställningar och integritet.
-
Välj Integritet och säkerhet.
-
Klicka på Grok och tredjepartssamarbetspartners.
Här hittar du tre förvalda alternativ som du bör avaktivera. Det gäller tillåtelsen för träning, personlig anpassning och historik. Klicka på Radera konversationshistorik om du har använt boten tidigare och vill rensa dina spår helt.
Gör ditt konto privat
Ett effektivt sätt att skydda dina inlägg är att göra kontot privat. Plattformen använder nämligen inte data från låsta konton för sin AI-träning. Du hittar inställningen under sektionen för publik och taggning. Aktivera Skydda dina inlägg så att endast dina följare kan se vad du skriver. En hänglåssymbol vid ditt användarnamn bekräftar att kontot är skyddat. Du kan även välja att skydda dina videor för att förhindra att de laddas ner.
av Mikael Winterkvist | mar 10, 2026 | Artificiell intelligens, Bluesky, Mastodon, Övervakning, Threads, Twitter |

En granskning från Svenska Dagbladet och Göteborgs-Posten visar att Metas nya AI-glasögon samlar in stora mängder känslig data från användare.
Materialet kan i vissa fall granskas manuellt av anställda hos underleverantörer, bland annat i Kenya, där arbetare vittnar om att de ser mycket privata situationer från människors vardag.
Glasögonen, som säljs under namnet Meta Ray-Ban, marknadsförs som en digital assistent som kan fotografera, spela in video, svara på frågor och tolka vad användaren ser. Tekniken ska fungera genom en AI-tjänst kopplad till Metas servrar. Företaget framhåller samtidigt att användaren har kontroll över sin integritet.
Granskningen visar dock att data från glasögonen måste skickas vidare till Metas system för att AI-funktionerna ska fungera. Röst, text, bilder och ibland video behandlas automatiskt i företagets infrastruktur. I Metas användarvillkor framgår också att vissa interaktioner kan granskas manuellt av människor.
En del av detta arbete utförs av så kallade dataannotatörer i Nairobi. De arbetar åt underleverantören Sama och har i uppdrag att märka upp och analysera bilder, video och ljud så att AI-systemen kan tränas. Arbetet är en central del av utvecklingen av AI-tjänster, men sker ofta i låginkomstländer där arbetskraften är billigare.
Flera anställda berättar att de ibland ser mycket privata klipp från användarnas vardag. Det kan handla om människor som går på toaletten, byter om eller befinner sig i andra intima situationer. En del material visar även bankkort, pornografi eller andra känsliga uppgifter.
Arbetarna upplever att de tittar rakt in i människors privatliv, men säger samtidigt att de inte kan ifrågasätta uppgifterna eftersom arbetet styrs av strikta sekretessavtal. Om de bryter mot reglerna riskerar de att förlora sina jobb.
Samtidigt råder osäkerhet kring hur mycket information som faktiskt samlas in och hur den används. Experter på dataskydd menar att gränsen mellan vad användaren frivilligt delar och vad som samlas in automatiskt kan vara svår att förstå.
Enligt den svenska Integritetsskyddsmyndigheten är det vanligt att användare inte inser hur mycket data som behandlas när nya AI-tjänster används. Den information som samlas in kan vara mer värdefull än själva produkten eftersom den gör det möjligt att analysera människors beteenden och rikta tjänster och annonser mer exakt.
Meta uppger i sina villkor att data kan överföras och behandlas globalt och delas med både interna enheter och externa partners. Företaget har datacenter i bland annat Sverige, Danmark och Irland, men behandlingen kan också ske på andra platser.
Granskningen visar samtidigt att kunskapen om hur glasögonen fungerar är begränsad även hos återförsäljare. Flera butiksanställda i Sverige uppger att de inte vet var data hamnar eller hur den behandlas.
För användaren framstår glasögonen som en enkel vardagsteknik. I andra änden av systemet sitter samtidigt människor som manuellt analyserar bilder och videoklipp från användarnas liv för att göra AI-systemen bättre.
En av de anställda i Nairobi sammanfattar situationen: om människor verkligen visste hur mycket data som samlas in skulle många sannolikt tveka inför att använda glasögonen.
Källa: SVD