av Mikael Winterkvist | sep 3, 2021 | Övervakning

Den amerikanska myndigheten FTC (motsvarande Konsumentverket) har bannlyst spyware-tillverkaren Spyfone och dess vd Scott Zuckerman. Detta sedan bolaget avslöjats med att ha samlat in data, utan tillstånd och utan att informera användare. Information som sedan gjorts tillgängligt på nätet, utan något som helst skydd.
Spyfones bristande säkerhet och slarviga hantering av personuppgifter resulterade i att information, från enskilda där spionprogrammet har installerats, fick känslig och personlig information exponerad på nätet. FTC bannlyser nu Spyfone och VD:n Scott Zuckerberg från övervakningsutrustning.
Partners
Spyfone är ett program och en app som marknadsför som ett program som kan användas av oroliga föräldrar för att hålla kolla på sina barn. Spyfone används snarare, och oftare, för att spionera på partners, sambo och maka/make.
av Mikael Winterkvist | sep 3, 2021 | Övervakning

Irlands övervakningsmyndighet för skyddet av UE-medborgarnas personliga data och integritet har bötfällt WhatsApp, som ägs av Facebook, med 225 miljoner Euro – motsvarande nästan 2,3 miljarder svenska kronor.
Utslaget kommer efter en tre år lång utredning för misstänkte brott och övertramp av GPDR som infördes i unionen 2018. Den irländska myndigheter fungerar som tillsynsmyndighet för hela EU och de nu utdömda böterna är de högsta som myndigheten historiskt någonsin har dömt ut.
Allvarliga
I myndighetens beslut skrivs att WhatsApp har begått svåra och allvarliga brott mot lagstiftningen.
Det innefattar behandling av data som samlats in mellan flera av bolagen som tillhör Facebook, skriver myndigheten i ett uttalande.
I det 266 sidor långa utslaget finns exempel på hur WhatsApp samlat in information om användare som inte har registrerat sig för tjänsten och som hämtats in från registrerade användare. Den informationen har de berörda inte haft någon möjlighet att vare sig kontrollera eller styra vilka som får tillgång till informationen. Det handlar om meddelanden som skickats vidare och där WhatsApp har samlat in information utan tillstånd och utan att informera användarna.
“They go to the heart of the general principle of transparency and the fundamental right of the individual to protection of his/her personal data which stems from the free will and autonomy of the individual to share his/her personal data in a voluntary situation such as this.”
EU
av Mikael Winterkvist | aug 29, 2021 | Krönikor, Övervakning

Under mina år inom säkerhetsbranschen, data- och informationssäkerhet, så sades det ofta att det här med säkerhet är svårsålt. Jag vet nu att det finns något som är ännu mera svårsålt – rättssäkerhet, frågor om övervakning och grundläggande frågor om frihet.
Innan du nu tror att jag dragit på mig offerkoftan så vill jag bara säga (skriva) att det inte handlar om bitterhet över att inte bli läst, inte alls. Det är bara ett måhända lite trött konstaterande att när det handlar om övervakning fri- och rättighetsfrågor så är vi rätt som följer utvecklingen och som är oroade i minoritet.
Slutsatsen
Jag drar den slutsatsen efter att ha backat bland allt som jag skrivit i ämnet och kan konstatera att sett till hur många som läst alla texterna så ligger de statistiskt i botten. Det kan naturligtvis förklaras av att jag är en usel skribent, att jag helt enkelt skriver dåligt. Nu är jag inte säker på att det riktigt förhåller sig så eftersom en notis om Pokémon GO läses av 2-3 gånger fler läsare eller att de texter som toppar statistiken handlar om ”heta” filmer och tv-serie på våra streamingtjänster. Så cyniskt så är det så att sex säljer och rättighets- och frihetsfrågor inte gör det. Det om vi sätter likhetstecken mellan säljer och att bli läst.
Det är oroande eftersom traditionellt så är det alltid så att en inskränkning som görs i våra friheter nästan aldrig återinförs. Tvärtom så visar historien på ett nedåtsluttande plan där grundläggande fri- och rättigheter stegvis rivs upp, ändras och inskränks.
Avlyssning
Det fanns en tid då det var svårt att få tillstånd för kameraövervakning. Det fanns också en tid då ett grundkrav för att polisen och SÄPO skulle få använda avlyssning var en misstanke om brott, ett grovt brott. Det ansågs så viktigt för den enskildes integritet att en domstol skulle pröva om det var befogat med avlyssning eller inte. Det var en viktig fråga ur demokratisynpunkt, för en enskildes tilltro till staten och samhället att vi som medborgare skulle veta att staten inte kunde hitta på vad som helst eller att vi kunde bli avlyssnade i våra egna hem – med mindre än att det fanns en misstanke om att grovt brott.
Det var vackert men det är ett minne blott.
Den utvecklingen har i stort sett genomförts utan någon större debatt. Vi har utan större protester släppt fri- och rättigheter därför att det alltid har funnits någonting i samhällsutvecklingen som kvävt all debatt. Den här gången är det skjutningar på gator och tog och gängkriminella.
Låt mig uttrycka det så här – det är förbannat ensamt på barrikaderna så var är du?
av Mikael Winterkvist | aug 24, 2021 | Krönikor, Övervakning

CSAM är barnporr. Det är dokumenterade övergrepp mot barn, minderåriga, och det är sådant material som Apple har sökt efter i mail via iCloud sedan 2019 och som Apple nu kommer att söka efter i bilder som ska lagras i Apples molntjänst iCloud (i USA).
I diskussionen så har olika tekniska termer använts vilket gör att det är lagt att förlora fokus på vad saken egentligen gäller – övergrepp riktade mot barn, sexuella övergrepp. Child Sexual Abuse Material (CSAM) är digitala fingeravtryck för bilder som föreställer, dokumenterar, övergrepp – barnporr.
Tekniken gör det möjligt att scanna en bild utan att behöva analysera innehållet, vad bilden föreställer, för att kunna avgöra att det är en bild som kan misstänkas för att vara barnporr. Apple har meddelat att scanning efter CSAM kommer att göras i USA med start efter det att de nya versionerna av Apples operativsystem lanseras senare i höst.
Mail
Nu kommer uppgifter om att Apple redan använder tekniken och har gjort det sedan 2019. Folk går i taket, debattens vågor går höga och Apples kritiker antyder att Apple mörkat detta och fört användarna bakom ljuset. Apple har tydligt och klart förklarat vad som gäller för iCloud och tjänsten i sina användarregler. Problemet är det klassiska – vi användare läser sällan eller aldrig innantill, vi skummar på sin höjd regelverket, scrollar snabbt förbi – utan att läsa det Apple vill berätta och förklara.
Apple uses image matching technology to help find and report child exploitation. Much like spam filters in email, our systems use electronic signatures to find suspected child exploitation. We validate each match with individual review. Accounts with child exploitation content violate our terms and conditions of service, and any accounts we find with this material will be disabled.
Det är vad Apple skrev på en tidigare version av sina användarregler och det finns mycket snarlika villkor idag med den skillnaden att nu finns scanning av bilder som ska lagras i iCloud med. Apple
Alla andra
Facebook, Microsoft, Twitter, Google och en rad andra aktörer ute på nätet scannar redan med liknande tekniska lösningar och har gjort så i flera år men det finns en viktig skillnad mellan Apples metod och de övrigas – den första delen av scanningen görs lokalt, när en bild läggs i kön för att laddas upp till Apples iCloud. Det har lett till anklagelser om att det handlar om en bakdörr. Apple försvarar valet av lösning med att ingen data överförs till Apple – om det inte hittas något misstänkt. Användaren kontrollerar då fortfarande sin information.
Bakdörr
Kritiker har kallat funktionen, lösningen för en bakdörr och nu kommer också uppgifter att två utvecklare som byggt en liknande lösning valde att överge den därför att de ansåg att det var för uppenbart att den skulle kunna missbrukas exempelvis av en diktator och diktatur. Apple har svarat på den kritiken och sagt att det finns säkerhetsfunktioner inbyggda i funktionen som gör att om någon försöker använda den för att scanna efter något annat än CSAM så kommer det att snabbt avslöjas. Apple har också deklarerat att de inte kommer att tillåta att funktionen, scanningen används till något annat än CSAM.
I sammanhanget så är det ju inte helt oviktigt att notera att den kritik som riktas mot Apple inte riktas mot Google, Facebook, Twitter eller Microsoft. Hur deras tekniska lösning ser ut vet vi mycket lite om men det ska också sägas – det framgår av deras användarvillkor att bilder scannas. Ingen mörkar, eller ens försöker att mörka. Det är bara vi användare som är urusla på att läsa innantill.
Pest eller kolera
Jag har fått frågan om hur jag ser på Apples besked om CSAM (inte för att mina åsikter är mer värda än någon annan men då) – jag gillar inte att scanningen görs lokalt även om jag förstår att Apple valt mellan en lösning där scanning och resultat ligger i händerna på Apple eller en lösning där användaren fortfarande har kontroll över sin information. Jag tycker också att Apples funktion landar mycket nära en bakdörr men jag har samtidigt ingen bättre lösning som tar hänsyn både till den enskildes integritet och det faktum att barnporr är olagligt att inneha i de flesta länder. Jag hade önskat att vi sluppit att ens föra diskussionen, att det fanns andra metoder, samtidigt som jag är övertygad om att Apples beslut inte varit något lätt beslut.
Däremot har jag inte ändrats uppfattning – detta är ett nödvändigt ont för att få stopp på rovdjuren därute, pedofilerna.
av Mikael Winterkvist | aug 20, 2021 | Övervakning

Ryssland kräver att Apple ska plocka bort Alexei Navalnys, oppositionspolitiker, app från App Store. Samma krav har ställts till Gooogle.
Alexei Navalny har en egen app med information, nyheter och Putinregimen har blockerat ett 50-tal webbplatser och även en del andra appar och program som kan kopplas till den ryska oppositionen. Nu kommer krav riktade till Apple och Google att appen ska plockas bort ur den ryska delen av App Store.
Roskomnadzor (RKN) requires Apple and Google to remove the application ”Navalny” from their services App Store and Google Play, as it is used to promote the activities of organizations recognized as extremist and banned in the Russian Federation.
Interfax
av Mikael Winterkvist | aug 20, 2021 | Övervakning
The Verge har kommit över intern information, inifrån Apple, som bekräftar att Apple har haft information om att iCloud används för att distribuera barnporr.
Redan när Apple gick ut med informationen om att CSAM skulle implementeras så skrev jag att det var sannolikt så att Apple har fått indikationer, tydliga sådana om att iCloud används för att distribuera barnporr.
Det kan vara så att Apple själva har fått indikationer på hur stort och omfattande problemet med spridning av bilder och videor är. Glöm inte heller bort att Apple upprepade gånger deklarerat att en del i Apples grundläggande värderingar är att Apples tjänster ska vara vara säkra för barn. Det går att kritisera Apple för alldeles för rigida regler runt App Store för att ta ett exempel men Apple vill ha det så för att alla föräldrar ska veta att Apple försöker skapa och upprätthålla en säker miljö ur flera aspekter runt App Store.
Siffrorna som skaver när det gäller Apples scanning av bilder
Omfattande
Enligt Apple så är distributionen omfattande.
”The spotlight at Facebook etc is all on trust and safety (fake accounts, etc). In privacy they suck. Our priorities are the inverse. Which is why we are the greatest platform for distributing child porn, etc.”
Orden är Eric Friedmans, chef inom Apple, och orden kommer från ett mail som skickats inom Apple och som ingår i alla de mail som begärts ut och som lagrats hos domstolen i målet och tvisten mellan Apple och Epic Games.
Logisk – vad skulle kunna få Apple att utveckla en implementera CSAM – fullt medvetna om den debatt som beslutet skulle medföra. Apple har hela tiden insett att det skulle bli diskussion om beslutet att införa CSAM. I en vågskålen den debatten och i den andra indikationer på att iCloud används för att distribuera stora mängder barnporr.
Av två onda saker så valde Apple det mindre onda.