TikToks nya ägare utökar datainsamlingen

TikToks nya ägare utökar datainsamlingen

TikToks nyskapade samriskbolag i USA har uppdaterat sin integritetspolicy. Förändringen innebär att företaget nu kan samla in mer detaljerad platsdata från sina 200 miljoner amerikanska användare. Uppdateringen publicerades kort efter att investerare slutfört affären med den kinesiska ägaren ByteDance.

Från ungefärlig till exakt position

Det nya avtalet ger företaget möjlighet att samla in exakt geografisk information. Tidigare har policyn endast omfattat ungefärlig platsdata. TikTok har ännu inte kommenterat ändringen direkt till BBC. Företaget betonar dock i sina villkor att hanteringen sker enligt gällande lagstiftning. Användare ska dessutom kunna stänga av funktionen i sina enhetsinställningar.

Positioneringen via GPS har tidigare varit begränsad för amerikanska användare. Istället har informationen hämtats via SIM-kort eller IP-adresser. Den nya funktionen förväntas vara frivillig och inaktiverad som standard. Liknande datainsamling finns redan i Storbritannien och Europa genom funktionen ”Nearby Feed”.

Övervakning av AI-interaktioner

Samriskbolaget utökar även rätten att samla in information om hur användare interagerar med plattformens AI-verktyg. Detta omfattar frågor och instruktioner som skickas till tjänsten. Systemet registrerar även tid och plats för när AI-innehållet skapas.

TikTok USDS Joint Venture LLC styrs av tre huvudsakliga investerare. Molntjänstjätten Oracle har en central roll och satsar stort på infrastruktur för artificiell intelligens. Oracles ordförande Larry Ellison är en betydande donator till Republikanerna och har länge varit allierad med president Donald Trump.

Bakgrund till avtalet

Överenskommelsen avslutar flera års konflikt mellan Washington och Peking. Konflikten startade under Trumps första mandatperiod då han försökte förbjuda appen av nationella säkerhetsskäl. En lag från 2024 krävde att plattformen skulle förbjudas om inte ByteDance sålde den amerikanska verksamheten.

Syftet med det nya bolaget är att säkra amerikansk användardata och algoritmer genom omfattande säkerhetsåtgärder. Oracle ska övervaka träningen av appens rekommendationsalgoritm, som kommer att köras i företagets amerikanska molnmiljö. ByteDance behåller en minoritetsandel på knappt 20 procent i det nya bolaget.

Källa: BBC

Integritet: Skydda dig med dolda länkval

Integritet: Skydda dig med dolda länkval

blank

Ett av de mest användbara tipsen för iPhone-användare handlar om att undvika spårning när man delar information från webbläsaren Safari. Många adresser innehåller idag långa rader av kod som används för att följa dina rörelser på nätet.

Dela utan spårningsparametrar

När du ska skicka en länk till en vän kan du rensa den direkt i delningsmenyn. Klicka på knappen ”Alternativ” som visas högst upp i delningsfönstret. Där kan du välja att skicka länken som en vanlig PDF eller som en ren webbadress utan inbäddad spårningsdata.

Använd funktionen Stäng flikar automatiskt

Många samlar på sig hundratals öppna flikar som drar batteri och gör webbläsaren långsam. Du kan ställa in Safari så att den sköter städningen åt dig.

  1. Öppna Inställningar.

  2. Välj Safari.

  3. Gå till Stäng flikar.

  4. Välj att flikar ska stängas efter en dag, en vecka eller en månad.

Snabb åtkomst till flikar på andra enheter

Om du använder både iPad och iPhone kan du se vad som är öppet på dina andra enheter direkt från flikvyn. Scrolla längst ner på startsidan i Safari för att hitta sektionen för iCloud-flikar. Detta gör det enkelt att fortsätta läsa en artikel på en annan skärm utan att behöva leta upp adressen igen.

Läs mer

Så kontrollerar du dina tillägg i Chrome

 

Skydda dig mot skadliga tillägg – checklista för hemmet och kontoret

 

macOS Tahoe stärker skyddet för integritet och säkerhet

 

Så kontrollerar du att din VPN verkligen fungerar

 

 

Släng ut spionerna: Här är AI apparna som blottar ditt privatliv

Släng ut spionerna: Här är AI apparna som blottar ditt privatliv

blank

Säkerhetsforskare vid CovertLabs har genom projektet Firehound avslöjat en omfattande säkerhetsbrist i ett stort antal appar på Apples App Store.

Resultaten visar att hundratals applikationer läcker känslig användardata som namn, e-postadresser och kompletta chatthistoriker.

AI-appar toppar listan över osäkra program

Säkerhetsprojektet Firehound skannar och indexerar appar som exponerar användardata på grund av felaktigt konfigurerade databaser eller osäker molnlagring. Hittills har man identifierat nästan 200 iOS-appar som läcker information i olika omfattning. Den absoluta majoriteten av dessa är kopplade till artificiell intelligens.

Värst drabbad är appen ”Chat & Ask AI” som ensam har exponerat över 406 miljoner poster från fler än 18 miljoner användare. Det rör sig om en enorm mängd privat information som legat helt öppen för den som vet var man ska leta. Även om AI-kategorin är mest representerad finns läckor inom allt från utbildning och hälsa till sociala nätverk och livsstilsappar.

En påminnelse om riskerna med snabb utveckling

Många av de drabbade apparna verkar ha lanserats snabbt för att rida på AI-vågen. Det är oklart om den bristfälliga säkerheten beror på att apparna skapats med hjälp av automatiserade kodverktyg eller om det handlar om rent slarv från utvecklarnas sida. Oavsett orsak betonar forskarna att ansvaret för att säkra användardata alltid ligger hos den som ger ut appen.

Firehound begränsar för tillfället tillgången till de mest känsliga uppgifterna i sina skanningsresultat för att förhindra ytterligare missbruk. Fullständig åtkomst prioriteras för journalister, säkerhetsexperter och polismyndigheter. Denna upptäckt fungerar som en skarp påminnelse om att vara extremt försiktig med vilken information du delar med okända AI-tjänster och chattbotar.

De mest osäkra apparna enligt Firehound

Här listas de applikationer som har identifierats med de mest omfattande dataläckorna. Flera av dessa har exponerat miljontals privata poster på grund av bristfällig säkerhet i sina databaser.

blank

Appar med störst mängd exponerad data
  • Chat & Ask AI: Denna app toppar listan med råge. Över 406 miljoner poster har läckt ut vilket drabbar fler än 18 miljoner användare.

  • Chat AI: En av de mest populära tjänsterna i kategorin som har visat sig ha stora luckor i sin molnlagring.

  • AI Chatbot: Flera appar med liknande namn har flaggats för att de delar användarnas chatthistorik och personuppgifter med obehöriga.

  • Genie AI: En applikation som lockat många användare men som nu finns med i Firehounds index över osäkra program.

Dessa appar utgör den största risken för tillfället då mängden data som ligger öppen är exceptionellt hög. Informationen inkluderar ofta allt från användarnamn till hela konversationer som förts med de inbyggda chattbotarna.

Källa: Firehound

Läs mer

De stora läckorna står slarviga datatrålare för

 

Så delas din data med över 1 500 företag när du surfar

 

Databrokers kartlägger ditt liv på nätet – utan att du märker det

 

 

Så tar du kontrollen: Din guide till AI-rättigheter

Så tar du kontrollen: Din guide till AI-rättigheter

blank

I takt med att EU:s AI-akt träder i kraft flyttas makten från de stora teknikbolagen tillbaka till användaren. För den enskilde medborgaren innebär de nya reglerna inte bara ett passivt skydd, utan en aktiv möjlighet att ifrågasätta och granska de system som formar vår vardag.

Det handlar om rätten att veta när en maskin fattar beslut som påverkar din ekonomi, din hälsa eller din karriär.

Verktygen för digital självförsvar

Att begära ut data handlar om mer än att bara få en kopia på sina personuppgifter. Det handlar om att förstå logiken bakom algoritmerna. Genom att kombinera rättigheterna i GDPR med de nya kraven i AI-akten kan du agera proaktivt.

Här är de viktigaste stegen för att granska hur du profileras:

  • Begär förklaring: Om du nekas ett lån eller en försäkring har du rätt att få en begriplig förklaring av hur AI-modellen har viktat dina uppgifter.

  • Rätten till mänsklig kontakt: Du kan kräva att ett beslut som fattats automatiskt ska omprövas av en fysisk person.

  • Granska källan: Fråga företaget vilken träningsdata som ligger till grund för deras modeller och om dina egna interaktioner har använts för att förbättra systemet utan ditt medgivande.

Myndigheternas nya roll

Integritets- och dataskyddsmyndigheten fungerar som din förlängda arm i denna process. De har befogenhet att genomföra oanmälda inspektioner av de algoritmiska systemen hos både företag och myndigheter. Om du misstänker att en AI-applikation bryter mot reglerna om transparens eller dataminimering är en anmälan till dem det mest effektiva sättet att skapa förändring.

En framtid med transparens som standard

Målet med den nya lagstiftningen är att göra tekniken begriplig. Vi ska inte behöva vara programmerare för att förstå varför vi får vissa rekommendationer eller varför vi sorteras in i specifika målgrupper. Transparens är inte längre en valfri funktion för utvecklare, utan själva förutsättningen för att få verka på den europeiska marknaden.

Genom att använda dina rättigheter bidrar du till att forma en mer ansvarsfull teknikutveckling. Det är genom våra gemensamma krav på insyn som vi säkerställer att den artificiella intelligensen tjänar människan, och inte tvärtom.

Läs mer

Lenscape – Ett smidigt sätt att organisera dina bilder på Mac

 

Clipboard-appen PastePal finslipas – ny design och smartare funktioner

 

Tips från verkstaden: Maximera din produktivitet med fönstergrupper i iPadOS 26

 

 

Slut på vilda västern för AI – nya lagar skyddar din integritet

Slut på vilda västern för AI – nya lagar skyddar din integritet

blank

EU:s nya AI-lag, formellt kallad AI-förordningen eller Artificial Intelligence Act, är ett gemensamt regelverk som styr hur artificiell intelligens får utvecklas, säljas och användas inom Europeiska unionen.

Lagen är tänkt att skapa tydliga och enhetliga spelregler i alla medlemsländer, så att företag, myndigheter och medborgare omfattas av samma skydd och samma skyldigheter oavsett var i EU de befinner sig. Samtidigt ska regelverket göra det möjligt att fortsätta utveckla och använda AI utan att grundläggande rättigheter, säkerhet eller demokratiska värden sätts på spel.

Riskmodell

AI-förordningen bygger på en riskmodell där olika typer av AI delas in efter hur stor påverkan de kan ha på människor och samhälle.

  • Vissa användningar anses så farliga att de förbjuds helt, exempelvis system som bedömer eller rangordnar människor på ett sätt som kan leda till diskriminering eller social kontroll.
  • Andra system bedöms som högrisk, vilket gäller AI som används i till exempel rekrytering, kreditbedömning, brottsbekämpning eller medicinska beslut. Dessa system får användas, men endast om de uppfyller mycket strikta krav på kvalitet, dokumentation, mänsklig kontroll och spårbarhet.
  • AI som inte innebär någon större risk omfattas av betydligt enklare regler, även om grundläggande krav på transparens och information fortfarande gäller.
Särskilda regler

Den nya lagen gäller även så kallade generella AI-modeller, vilket är system som kan användas för många olika uppgifter, till exempel stora språkmodeller och bildgeneratorer. Dessa modeller omfattas av särskilda regler som ska göra det tydligt hur de tränas, hur de fungerar och vilka risker de kan innebära när de används i olika sammanhang.

Stegvis

AI-förordningen trädde i kraft den 1 augusti 2024. Detta betyder att lagen från detta datum är formellt antagen och juridiskt giltig i hela EU. Reglerna börjar däremot tillämpas stegvis under flera år. De första konkreta bestämmelserna började gälla den 2 februari 2025, då förbud mot vissa typer av farlig AI samt grundläggande definitioner och kompetenskrav infördes. Nästa stora steg sker den 2 augusti 2025, då reglerna för generella AI-modeller och de nya tillsynsmyndigheterna börjar gälla. Den största delen av lagens krav blir fullt tillämpliga den 2 augusti 2026. För vissa särskilt komplexa högriskområden finns ytterligare övergångstid, vilket innebär att alla regler ska vara helt införda senast den 2 augusti 2027.

Centrala delar

I praktiken innebär detta att företag, organisationer och myndigheter som använder AI måste kartlägga vilka system de har, bedöma deras risknivå och säkerställa att de uppfyller lagens krav innan de används i skarp drift. Dokumentation, teknisk kvalitet, mänsklig tillsyn och tydlig information till användare blir centrala delar i detta arbete. Den som bryter mot reglerna riskerar kraftiga sanktioner, vilket gör att efterlevnaden blir avgörande för alla som arbetar med AI i Europa.

EU:s mål med lagen är att skapa ett samhälle där artificiell intelligens kan bidra till innovation och tillväxt, samtidigt som människor skyddas mot missbruk, godtyckliga beslut och tekniska system som ingen har kontroll över. Med AI-förordningen blir Europa den första regionen i världen med ett sammanhållet och bindande regelverk för hur AI får användas i praktiken.

Källor

 

Läs mer

Lämna över mina hälsodata till OpenAI och ChatGPT – aldrig!

 

OpenAI lanserar ChatGPT Health som din nya hälsopartner

 

Granskning avslöjar brister i användandet av hemlig avlyssning

 

 

Granskning avslöjar brister i användandet av hemlig avlyssning

Granskning avslöjar brister i användandet av hemlig avlyssning

blank

Säkerhets- och integritetsskyddsnämnden har i en omfattande granskning riktat skarp kritik mot hur polisen och åklagare använder hemliga tvångsmedel. Utredningen visar att avlyssning har riktats mot personer som enligt gällande lagstiftning ska vara fredade. Det som nu har kommit i dagen bekräftar de varningar som lyftes av experter redan när lagförslaget var ute på remiss.

Kärnan i kritiken rör en specifik paragraf i rättegångsbalken. Denna lagdel infördes för att polisen skulle kunna avlyssna exempelvis en anonym telefon för att identifiera en okänd gärningsman. Granskningen av ärenden vid sex olika åklagarkammare visar dock en helt annan verklighet:

  • Kända personer avlyssnas utan bevis: Myndigheterna har avlyssnat redan identifierade individer, trots att bevisningen mot dem inte har nått upp till nivån för skälig misstanke.
  • Rättssäkerheten rundas: Genom att använda den nya bestämmelsen har rättsväsendet i praktiken skapat en genväg för att övervaka personer man ”har ögonen på”, utan att de vanliga rättsliga kraven är uppfyllda.
  • Bristande förutsebarhet hotar integriteten

Nämnden slår fast att det nuvarande regelverket brister i både tydlighet och förutsebarhet. Detta innebär en stor risk för att medborgarnas personliga integritet kränks på ett sätt som lagstiftaren aldrig avsett. När åklagare och domstolar gör egna tolkningar som strider mot lagens syfte sätts den enskildes rättsskydd ur spel.

Krav på omedelbara åtgärder

Slutsatserna i rapporten är entydiga. Lagstiftaren måste skyndsamt se över och precisera bestämmelserna för att förhindra att de missbrukas eller tolkas för brett. Den pågående debatten om polisens utökade befogenheter får nu nytt bränsle, då granskningen visar att de nya verktygen har tagits i bruk på bekostnad av grundläggande rättsprinciper.

Tillämpningen

Nämnden beslutade i juni 2024 att granska tillämpningen av 27 kap. 18 b § rättegångsbalken. Denna paragraf ger polisen möjlighet att använda hemlig avlyssning för att utreda vem som skäligen kan misstänkas för ett brott. Fokus för granskningen har varit att kontrollera om de personer som faktiskt avlyssnats är sådana som lagen tillåter.

Allvarliga brister i tillämpningen

Utredningen omfattade tio ärenden vid sex olika åklagarkammare. Resultatet visar att både åklagare och domstolar har tolkat lagen på ett sätt som strider mot dess ursprungliga syfte.

Nämnden riktar nu skarp kritik mot hur otydlig lagstiftningen har visat sig vara i praktiken. Enligt granskningen finns det en betydande risk för att enskilda personers integritet kränks på ett sätt som inte var avsett.

Följande slutsatser dras i rapporten:

  • Regelverket saknar den förutsägbarhet som krävs för så ingripande åtgärder som hemlig avlyssning.
  • Myndigheternas tolkning av lagen har lett till att fredade personer, som enligt grundregeln inte ska kunna avlyssnas utan skälig misstanke, ändå har drabbats.
  • Lagstiftaren bör skyndsamt se över och förtydliga bestämmelsen för att säkerställa att den inte missbrukas eller tolkas för brett.

Denna granskning ligger till grund för den pågående debatten om huruvida de utökade befogenheterna för polisen har getts på bekostnad av rättssäkerheten.

Uttalande

Läs mer

Nu marscherar vi raskt in i George Orwells 1984 – övervakningssamhället

 

När demokratin försvagas inifrån – en filosofisk checklista