Google betalar miljardbelopp efter otillåten dataanvändning i Android

Google betalar miljardbelopp efter otillåten dataanvändning i Android

Google har gått med på att betala 135 miljoner dollar, motsvarande cirka 1,4 miljarder kronor, för att nå en förlikning i en grupptalan. Tvisten rör Android-användare som anklagat företaget för att ha förbrukat deras mobildata i bakgrunden utan tillåtelse.

Efter att administrativa avgifter och juridiska kostnader dragits av kommer resterande medel att fördelas mellan de drabbade användarna. Ersättningen per person är dock begränsad till maximalt 100 dollar. En domare ska nu granska avtalet för att fastställa att villkoren är skäliga innan det slutgiltiga godkännandet ges.

Systemtjänster skickade data i smyg

Processen inleddes efter uppgifter om att Android-enheter sedan november 2017 skickat information från interna systemtjänster till Googles servrar via mobilnätet. Enligt stämningsansökan skedde dessa överföringar helt i bakgrunden. Kommunikationen pågick även när användarna inte rörde sina telefoner och när skärmarna var låsta.

Användarna som drivit målet menar att dessa dolda överföringar har förbrukat dyrbar mobildata som de köpt från sina operatörer. De betonar också att överföringarna skett utan att användarna gett ett informerat samtycke.

Krav på tydligare villkor och tekniska ändringar

Förlikningen innebär inte bara ekonomisk ersättning utan tvingar även Google till flera förändringar:

  • Tydligare information: Google Play:s användarvillkor, hjälpsidor och startguider för nya telefoner måste nu tydligt beskriva hur bakgrundsdata används.

  • Aktivt samtycke: Nya Android-användare ska hädanefter ge ett uttryckligt godkännande vid installationen av enheten.

  • Teknisk översyn: Google ska inaktivera en specifik inställning för bakgrundsdata som enligt målsäganden tidigare inte har fungerat som utlovat.

Google nekar till att ha gjort något fel men väljer ändå att ingå förlikningen för att undvika en utdragen och kostsam rättsprocess. Fallet har redan pågått i över fem år och har innefattat granskningar av både interna dokument och hemlig källkod.

TikToks nya ägare utökar datainsamlingen

TikToks nya ägare utökar datainsamlingen

blank

TikToks nyskapade samriskbolag i USA har uppdaterat sin integritetspolicy. Förändringen innebär att företaget nu kan samla in mer detaljerad platsdata från sina 200 miljoner amerikanska användare. Uppdateringen publicerades kort efter att investerare slutfört affären med den kinesiska ägaren ByteDance.

Från ungefärlig till exakt position

Det nya avtalet ger företaget möjlighet att samla in exakt geografisk information. Tidigare har policyn endast omfattat ungefärlig platsdata. TikTok har ännu inte kommenterat ändringen direkt till BBC. Företaget betonar dock i sina villkor att hanteringen sker enligt gällande lagstiftning. Användare ska dessutom kunna stänga av funktionen i sina enhetsinställningar.

Positioneringen via GPS har tidigare varit begränsad för amerikanska användare. Istället har informationen hämtats via SIM-kort eller IP-adresser. Den nya funktionen förväntas vara frivillig och inaktiverad som standard. Liknande datainsamling finns redan i Storbritannien och Europa genom funktionen “Nearby Feed”.

Övervakning av AI-interaktioner

Samriskbolaget utökar även rätten att samla in information om hur användare interagerar med plattformens AI-verktyg. Detta omfattar frågor och instruktioner som skickas till tjänsten. Systemet registrerar även tid och plats för när AI-innehållet skapas.

TikTok USDS Joint Venture LLC styrs av tre huvudsakliga investerare. Molntjänstjätten Oracle har en central roll och satsar stort på infrastruktur för artificiell intelligens. Oracles ordförande Larry Ellison är en betydande donator till Republikanerna och har länge varit allierad med president Donald Trump.

Bakgrund till avtalet

Överenskommelsen avslutar flera års konflikt mellan Washington och Peking. Konflikten startade under Trumps första mandatperiod då han försökte förbjuda appen av nationella säkerhetsskäl. En lag från 2024 krävde att plattformen skulle förbjudas om inte ByteDance sålde den amerikanska verksamheten.

Syftet med det nya bolaget är att säkra amerikansk användardata och algoritmer genom omfattande säkerhetsåtgärder. Oracle ska övervaka träningen av appens rekommendationsalgoritm, som kommer att köras i företagets amerikanska molnmiljö. ByteDance behåller en minoritetsandel på knappt 20 procent i det nya bolaget.

Källa: BBC

Integritet: Skydda dig med dolda länkval

Integritet: Skydda dig med dolda länkval

blank

Ett av de mest användbara tipsen för iPhone-användare handlar om att undvika spårning när man delar information från webbläsaren Safari. Många adresser innehåller idag långa rader av kod som används för att följa dina rörelser på nätet.

Dela utan spårningsparametrar

När du ska skicka en länk till en vän kan du rensa den direkt i delningsmenyn. Klicka på knappen “Alternativ” som visas högst upp i delningsfönstret. Där kan du välja att skicka länken som en vanlig PDF eller som en ren webbadress utan inbäddad spårningsdata.

Använd funktionen Stäng flikar automatiskt

Många samlar på sig hundratals öppna flikar som drar batteri och gör webbläsaren långsam. Du kan ställa in Safari så att den sköter städningen åt dig.

  1. Öppna Inställningar.

  2. Välj Safari.

  3. Gå till Stäng flikar.

  4. Välj att flikar ska stängas efter en dag, en vecka eller en månad.

Snabb åtkomst till flikar på andra enheter

Om du använder både iPad och iPhone kan du se vad som är öppet på dina andra enheter direkt från flikvyn. Scrolla längst ner på startsidan i Safari för att hitta sektionen för iCloud-flikar. Detta gör det enkelt att fortsätta läsa en artikel på en annan skärm utan att behöva leta upp adressen igen.

Läs mer

Så kontrollerar du dina tillägg i Chrome

 

Skydda dig mot skadliga tillägg – checklista för hemmet och kontoret

 

macOS Tahoe stärker skyddet för integritet och säkerhet

 

Så kontrollerar du att din VPN verkligen fungerar

 

 

Släng ut spionerna: Här är AI apparna som blottar ditt privatliv

Släng ut spionerna: Här är AI apparna som blottar ditt privatliv

blank

Säkerhetsforskare vid CovertLabs har genom projektet Firehound avslöjat en omfattande säkerhetsbrist i ett stort antal appar på Apples App Store.

Resultaten visar att hundratals applikationer läcker känslig användardata som namn, e-postadresser och kompletta chatthistoriker.

AI-appar toppar listan över osäkra program

Säkerhetsprojektet Firehound skannar och indexerar appar som exponerar användardata på grund av felaktigt konfigurerade databaser eller osäker molnlagring. Hittills har man identifierat nästan 200 iOS-appar som läcker information i olika omfattning. Den absoluta majoriteten av dessa är kopplade till artificiell intelligens.

Värst drabbad är appen ”Chat & Ask AI” som ensam har exponerat över 406 miljoner poster från fler än 18 miljoner användare. Det rör sig om en enorm mängd privat information som legat helt öppen för den som vet var man ska leta. Även om AI-kategorin är mest representerad finns läckor inom allt från utbildning och hälsa till sociala nätverk och livsstilsappar.

En påminnelse om riskerna med snabb utveckling

Många av de drabbade apparna verkar ha lanserats snabbt för att rida på AI-vågen. Det är oklart om den bristfälliga säkerheten beror på att apparna skapats med hjälp av automatiserade kodverktyg eller om det handlar om rent slarv från utvecklarnas sida. Oavsett orsak betonar forskarna att ansvaret för att säkra användardata alltid ligger hos den som ger ut appen.

Firehound begränsar för tillfället tillgången till de mest känsliga uppgifterna i sina skanningsresultat för att förhindra ytterligare missbruk. Fullständig åtkomst prioriteras för journalister, säkerhetsexperter och polismyndigheter. Denna upptäckt fungerar som en skarp påminnelse om att vara extremt försiktig med vilken information du delar med okända AI-tjänster och chattbotar.

De mest osäkra apparna enligt Firehound

Här listas de applikationer som har identifierats med de mest omfattande dataläckorna. Flera av dessa har exponerat miljontals privata poster på grund av bristfällig säkerhet i sina databaser.

blank

Appar med störst mängd exponerad data
  • Chat & Ask AI: Denna app toppar listan med råge. Över 406 miljoner poster har läckt ut vilket drabbar fler än 18 miljoner användare.

  • Chat AI: En av de mest populära tjänsterna i kategorin som har visat sig ha stora luckor i sin molnlagring.

  • AI Chatbot: Flera appar med liknande namn har flaggats för att de delar användarnas chatthistorik och personuppgifter med obehöriga.

  • Genie AI: En applikation som lockat många användare men som nu finns med i Firehounds index över osäkra program.

Dessa appar utgör den största risken för tillfället då mängden data som ligger öppen är exceptionellt hög. Informationen inkluderar ofta allt från användarnamn till hela konversationer som förts med de inbyggda chattbotarna.

Källa: Firehound

Läs mer

De stora läckorna står slarviga datatrålare för

 

Så delas din data med över 1 500 företag när du surfar

 

Databrokers kartlägger ditt liv på nätet – utan att du märker det

 

 

Så tar du kontrollen: Din guide till AI-rättigheter

Så tar du kontrollen: Din guide till AI-rättigheter

blank

I takt med att EU:s AI-akt träder i kraft flyttas makten från de stora teknikbolagen tillbaka till användaren. För den enskilde medborgaren innebär de nya reglerna inte bara ett passivt skydd, utan en aktiv möjlighet att ifrågasätta och granska de system som formar vår vardag.

Det handlar om rätten att veta när en maskin fattar beslut som påverkar din ekonomi, din hälsa eller din karriär.

Verktygen för digital självförsvar

Att begära ut data handlar om mer än att bara få en kopia på sina personuppgifter. Det handlar om att förstå logiken bakom algoritmerna. Genom att kombinera rättigheterna i GDPR med de nya kraven i AI-akten kan du agera proaktivt.

Här är de viktigaste stegen för att granska hur du profileras:

  • Begär förklaring: Om du nekas ett lån eller en försäkring har du rätt att få en begriplig förklaring av hur AI-modellen har viktat dina uppgifter.

  • Rätten till mänsklig kontakt: Du kan kräva att ett beslut som fattats automatiskt ska omprövas av en fysisk person.

  • Granska källan: Fråga företaget vilken träningsdata som ligger till grund för deras modeller och om dina egna interaktioner har använts för att förbättra systemet utan ditt medgivande.

Myndigheternas nya roll

Integritets- och dataskyddsmyndigheten fungerar som din förlängda arm i denna process. De har befogenhet att genomföra oanmälda inspektioner av de algoritmiska systemen hos både företag och myndigheter. Om du misstänker att en AI-applikation bryter mot reglerna om transparens eller dataminimering är en anmälan till dem det mest effektiva sättet att skapa förändring.

En framtid med transparens som standard

Målet med den nya lagstiftningen är att göra tekniken begriplig. Vi ska inte behöva vara programmerare för att förstå varför vi får vissa rekommendationer eller varför vi sorteras in i specifika målgrupper. Transparens är inte längre en valfri funktion för utvecklare, utan själva förutsättningen för att få verka på den europeiska marknaden.

Genom att använda dina rättigheter bidrar du till att forma en mer ansvarsfull teknikutveckling. Det är genom våra gemensamma krav på insyn som vi säkerställer att den artificiella intelligensen tjänar människan, och inte tvärtom.

Läs mer

Lenscape – Ett smidigt sätt att organisera dina bilder på Mac

 

Clipboard-appen PastePal finslipas – ny design och smartare funktioner

 

Tips från verkstaden: Maximera din produktivitet med fönstergrupper i iPadOS 26

 

 

Slut på vilda västern för AI – nya lagar skyddar din integritet

Slut på vilda västern för AI – nya lagar skyddar din integritet

blank

EU:s nya AI-lag, formellt kallad AI-förordningen eller Artificial Intelligence Act, är ett gemensamt regelverk som styr hur artificiell intelligens får utvecklas, säljas och användas inom Europeiska unionen.

Lagen är tänkt att skapa tydliga och enhetliga spelregler i alla medlemsländer, så att företag, myndigheter och medborgare omfattas av samma skydd och samma skyldigheter oavsett var i EU de befinner sig. Samtidigt ska regelverket göra det möjligt att fortsätta utveckla och använda AI utan att grundläggande rättigheter, säkerhet eller demokratiska värden sätts på spel.

Riskmodell

AI-förordningen bygger på en riskmodell där olika typer av AI delas in efter hur stor påverkan de kan ha på människor och samhälle.

  • Vissa användningar anses så farliga att de förbjuds helt, exempelvis system som bedömer eller rangordnar människor på ett sätt som kan leda till diskriminering eller social kontroll.
  • Andra system bedöms som högrisk, vilket gäller AI som används i till exempel rekrytering, kreditbedömning, brottsbekämpning eller medicinska beslut. Dessa system får användas, men endast om de uppfyller mycket strikta krav på kvalitet, dokumentation, mänsklig kontroll och spårbarhet.
  • AI som inte innebär någon större risk omfattas av betydligt enklare regler, även om grundläggande krav på transparens och information fortfarande gäller.
Särskilda regler

Den nya lagen gäller även så kallade generella AI-modeller, vilket är system som kan användas för många olika uppgifter, till exempel stora språkmodeller och bildgeneratorer. Dessa modeller omfattas av särskilda regler som ska göra det tydligt hur de tränas, hur de fungerar och vilka risker de kan innebära när de används i olika sammanhang.

Stegvis

AI-förordningen trädde i kraft den 1 augusti 2024. Detta betyder att lagen från detta datum är formellt antagen och juridiskt giltig i hela EU. Reglerna börjar däremot tillämpas stegvis under flera år. De första konkreta bestämmelserna började gälla den 2 februari 2025, då förbud mot vissa typer av farlig AI samt grundläggande definitioner och kompetenskrav infördes. Nästa stora steg sker den 2 augusti 2025, då reglerna för generella AI-modeller och de nya tillsynsmyndigheterna börjar gälla. Den största delen av lagens krav blir fullt tillämpliga den 2 augusti 2026. För vissa särskilt komplexa högriskområden finns ytterligare övergångstid, vilket innebär att alla regler ska vara helt införda senast den 2 augusti 2027.

Centrala delar

I praktiken innebär detta att företag, organisationer och myndigheter som använder AI måste kartlägga vilka system de har, bedöma deras risknivå och säkerställa att de uppfyller lagens krav innan de används i skarp drift. Dokumentation, teknisk kvalitet, mänsklig tillsyn och tydlig information till användare blir centrala delar i detta arbete. Den som bryter mot reglerna riskerar kraftiga sanktioner, vilket gör att efterlevnaden blir avgörande för alla som arbetar med AI i Europa.

EU:s mål med lagen är att skapa ett samhälle där artificiell intelligens kan bidra till innovation och tillväxt, samtidigt som människor skyddas mot missbruk, godtyckliga beslut och tekniska system som ingen har kontroll över. Med AI-förordningen blir Europa den första regionen i världen med ett sammanhållet och bindande regelverk för hur AI får användas i praktiken.

Källor

 

Läs mer

Lämna över mina hälsodata till OpenAI och ChatGPT – aldrig!

 

OpenAI lanserar ChatGPT Health som din nya hälsopartner

 

Granskning avslöjar brister i användandet av hemlig avlyssning