av Mikael Winterkvist | aug 17, 2021 | Övervakning

Google scannar uppladdade bilder, på sina servrar, i sina system – ute på nätet. Facebook scannar också uppladdade bilder, på sina system, sina servrar ute på nätet, liksom Twitter, Microsoft och många andra. Allt sker ute i molnen där också resultaten lagras och samlas in. Apples lösning skiljer sig på en viktig punkt – scanningen görs, i det första steget lokalt.
För tydlighetens skulle ska sägas:
- Det är inte bilderna i sig som scannas. Det görs ingen analys av det bilderna föreställer.
- Bilderna scannas efter ett digitalt fingeravtryck som stämmer överens med CSAM, Child Sexual Abuse Material
- CSAM är en databas med digitala fingeravtryck från kända, olagliga bilder – barnporr
- Alla bilder scannas inte lokalt i din iPhone eller iPad
- Det är enbart bilder som ska laddas upp till iCloud som scannas
- Funktionen införs i USA, och bara i USA, senare i höst då iOS 15 lanseras.
Praktisk så spelar det sista säkerligen liten eller ingen roll då de flesta av Apples användare också använder iCloud. I sammanhanget är det också viktigt att klargöra att iCloud är Apples molntjänst, Apples servrar och Apples lagring vilket innebär att Apple har ett ansvar för att se till att deras system inte används för att lagra material som det är olagligt att inneha. Något som det finns lagkrav på i vissa delstater i USA och det finns lagförslag som går i den riktningen att det kan komma att bli ett lagkrav i hela USA och även i andra länder. Även EU diskuterar om lagförslag och nya regler som går i samma håll.
Lokalt
Apple har valt att göra den första delen av scanningen, lokalt, i din iPhone. Vilket generellt är en dålig lösning och det finns mer än en som anser att Apple nu implementerat en bakdörr i iOS. När det gäller bakdörrar så är regeln enkel – gör det absolut inte. Apples försvar för att göra den första delen av scanningen är att om den scanningen inte ger någon träff så finns inga resultat, inga data som visar att något har scannats hos Apple. Allt är som tidigare – dina bilder laddas upp, Apple har inga data, ingen hos Apple vet eller kan se att något har hänt.
Här finns en viktig skillnad mot många andra aktörer. De scannar alla bilder, lagrar resultaten hos sig vilket i sig kan utgöra en säkerhetsrisk. Det är därför Apple har valt den här lösningen. Inga data ska finnas hos Apple som inte ska vara med i ekvationen om inte många bilder visar sig matcha fingeravtryck hos CSAM. Då lagras data i det som kallas för Safety Vouchers vilket betyder att informationen krypteras och skyddas och den kan inte kommas åt mer än av Apples personal.
Antaganden
Det ska sägas för nyansens och balansen skull att mycket av de beskrivningar som finns kommer från Apple och de bygger på en rad antaganden – så som att krypteringen inte ska kunna knäckas, att Apple inte drabbas intrång med datastöld som följd. Det är beskrivningar som i mångt och mycket litar på lösningen och de skydd som finns runt den. Det ska också sägas att så beskriver Google, Facebook, Twitter, Microsoft med flera också sina lösningar – de anses vara säkra, skyddade och pålitliga.
För en utomstående är det svårt, för att inte säga mycket svårt att uttolka vad som är vad så i slutändan så handlar det om att göra en bedömning om vem eller vilka du litar på.
Apple gör den första delen av scanningen, lokalt – vilket är huvudanledningen till den hårda kritik som Apple har fått. Scanningen görs i din iPhone om bilderna ska laddas upp till iCloud.
Det är det debatten handlar om – Apple ger sig tillgång till din enhet.
av Mikael Winterkvist | aug 15, 2021 | Övervakning

Lina Khan är 32 år gammal, har en juridikexamen, är professor i juridik och chef för den amerikanska myndigheten FTC, Federal Trade Commission. Hon kan också bli de stora amerikanska tech-bolagens värsta mardröm och i en intervju med brittiska the Guardian så säger Khan att bolagen har skäl till att vara oroliga.
Lina Khan är inte bara ovanlig som kvinna på en så hög post – hon är också den yngsta kvinnan som innehaft posten som chef för FTC. Redan innan hon utsågs så har hon gjort sig ett namn som hård kritiker av de stora bolagen, Amazon, Google, Microsoft, Apple, Facebook med flera. Lina Khan har skrivit flera akademiska avhandlingar som riktar hård kritik mot de hör bolagens dominans på marknaden och Khan anser att deras inflytande är direkt skadligt för konsumenter – i det här fallet amerikanska konsumenter.
Monopolföretag
Hennes utnämning fick Facebook och Amazon att reagera direkt och ställa krav om att Lina Khan inte ska få delta i beslut som rör konkurrensfrågor. De anser att Khan är diskvalificerad därför att det är känt vad hon tycker. Lina Khan skrev en artikel i Yale Law Journal 2017, som blev mycket uppmärksammad, med innebörden att de amerikanska lagarna som ska skydda konsumenternas intressen och som ska förebygga att det skapas stora, dominerande monopolföretag inte fungerar. Hela lagstiftningen måste reformeras och skrivas om, skrev Khan.
I texten så räknar Lina Khan upp en rad saker som hon anser är brister i den nuvarande lagstiftningen:
- Uppköp av konkurrenter – Facebook och Amazon har köpt upp andra företag för att behålla kontrollen över marknaden
- Verksamheter som drivs med förlust – både Facebook, Google och Amazon har anklagats för att sälja produkter och tjänster med förlust för att slå undan benen på konkurrenter.
- Kontroll och monopol – Apple och Google kontrollerar sina mobila plattformar
- Bolagen är ett hot mot konsumenter genom sin blotta storlek – Apple värderas till över 2 biljoner, Microsoft till 1.6 biljoner och de övriga företagen till över en biljon, dollar.
Detta utmynnade i en lång rapport på 451 sidor 2019 i Lina Khans roll som rådgivare till kongressen juridiska utskott där Google och Amazon pekas ut för att med olika metoder slå ut alla konkurrenter och stärka sitt grepp om marknaden.
Politikerna
Hennes utnämning som chef för FTC har hyllats av demokraterna Elisabeth Warren och Amy Klobuchar och mottagits med försiktig optimism även bland republikaner – även om det finns kritiker bland republikanska politiker. Det finns ett politiskt klimat där konsumentgrupper, enskilda användare och små och medelstora företag förenas i sin kritik av de stora amerikanska techjättarna. Ett politisk klimat som påverkar även republikaner. Dessutom så finns det en rad enskilda händelser som fått alltmer uppmärksamhet i amerikanska medier. Frågan finns högt uppe på agendan och när Lina Khan hördes av kongressen innan hon utsågs så räknade hon upp uppköp gjorda av Facebook – Instagram, Giphy och WhatsApp – som gjorts för att stoppa konkurrens. Lina Khan menar att köpen gjorts, av Facebook, för att snabbt och enkelt bli av med en konkurrent.
FTC har också enhälligt röstat igenom konsumenternas rätt att få sina prylar reparerade, ”The Right to Repair” vilket bland andra Apple motsatt sig.
En 32-åring juridikprofessor kan bli techbolagens värsta mardröm och hon säger att bolagen har skäl till att vara oroliga.
The Guardian
av Mikael Winterkvist | aug 13, 2021 | Övervakning

Apples beslut att inför en scanning av bilder för att sedan jämföra dem med digital fingeravtryck, CSAM, har lett till en intern debatt, inom Apple, där anställda uttrycker oro för beslutet.
I en intern kanal på Slack så har debatten lett till över 800 meddelanden där anställda protesterat mot att CSAM ska implementeras i samband med lanseringen av de nya versionerna av Apple operativsystem senare i höst. Farhågorna inom Apple är i stort desamma som den hårda kritik Apple har fått från bland andra Electronical Frontier Foundation, EFF, och en rad andra. Det befaras att tekniken som används för att scanna de bilderna och för att göra matchningen mot CSAM också kan användas för att söka efter annan information och att tekniken skulle kunna missbrukas av repressiva regimer, exempelvis.
Förtroendet
Internt finns också en oro för att Apple nu förstör sitt rykte som ett företag som står upp för den en skildes integritet, skydd av användarnas information och att Apple urholkar värdet av sitt varumärke och det förtroende som byggts under många år. Et annat argument som också läggs fram av Apples egna anställda att Apple nu visar att det går att scanna och kontrollera information – lokalt, i användarens enhet.
Apple har hela tiden sagt att de kommer att vägra att använda funktionen för annat ändamål än CSAM och i uttalanden och i olika dokument så har Apple förklarat att funktionen har byggts på sådant sätt att det inte heller ska vara tekniskt möjligt – vilket inte lugnat de egna anställda.
Police and other agencies will cite recent laws requiring ”technical assistance” in investigating crimes, including in the United Kingdom and Australia, to press Apple to expand this new capability, the EFF said.
”The infrastructure needed to roll out Apple’s proposed changes makes it harder to say that additional surveillance is not technically feasible,” wrote EFF General Counsel Kurt Opsahl.
Reuters
av Mikael Winterkvist | aug 12, 2021 | Övervakning

Erik Neuenschwander hanterar integritetsfrågor inom Apple. Han har titeln Head of Privacy inom Apple. I en längre intervju med Techchunch så har Erik Neuenschwander svarat på frågor om hur Apple kommer att hantera CSAM, den kontroversiella tekniska funktion som införs i USA senare i höst och som kommer att användas för att kontrollera användas bilder som ska lagts i iCloud.
De flesta av de som idag erbjuder en molntjänst, lagring av data ute på nätet använder redan CSAM, Google, Microsoft med flera. Det finns en skillnad dock mellan Apples funktion och överisas – scannern görs lokalt, i din enhet, när bilden läggs i kön för att skickas till iCloud. Apple har publicerat en FAQ med svar och frågor runt CSAM.
Nedan har jag saxat en del frågor och svar ur Techchrunchs intervju
Integritet
Apple har haft som mål att ta tillvara barnens intressen och skydda barn samtidigt som den enskildes integritet inte komprometteras.
So the development of this new CSAM detection technology is the watershed that makes now the time to launch this. And Apple feels that it can do it in a way that it feels comfortable with and that is ‘good’ for your users?
That’s exactly right. We have two co-equal goals here. One is to improve child safety on the platform and the second is to preserve user privacy. And what we’ve been able to do across all three of the features is bring together technologies that let us deliver on both of those goals.

Annan information
En nyckelfråga i sammanhanget är om Apple kan tvingas att använda den tekniska lösningen för att scanna efter annan information än bilder.
One of the bigger queries about this system is that Apple has said that it will just refuse action if it is asked by a government or other agency to compromise by adding things that are not CSAM to the database to check for them on-device. There are some examples where Apple has had to comply with local law at the highest levels if it wants to operate there, China being an example. So how do we trust that Apple is going to hew to this rejection of interference if pressured or asked by a government to compromise the system?
Well first, that is launching only for U.S., iCloud accounts, and so the hypotheticals seem to bring up generic countries or other countries that aren’t the U.S. when they speak in that way, and the therefore it seems to be the case that people agree U.S. law doesn’t offer these kinds of capabilities to our government.
But even in the case where we’re talking about some attempt to change the system, it has a number of protections built in that make it not very useful for trying to identify individuals holding specifically objectionable images. The hash list is built into the operating system, we have one global operating system and don’t have the ability to target updates to individual users and so hash lists will be shared by all users when the system is enabled. And secondly, the system requires the threshold of images to be exceeded so trying to seek out even a single image from a person’s device or set of people’s devices won’t work because the system simply does not provide any knowledge to Apple for single photos stored in our service. And then, thirdly, the system has built into it a stage of manual review where, if an account is flagged with a collection of illegal CSAM material, an Apple team will review that to make sure that it is a correct match of illegal CSAM material prior to making any referral to any external entity. And so the hypothetical requires jumping over a lot of hoops, including having Apple change its internal process to refer material that is not illegal, like known CSAM and that we don’t believe that there’s a basis on which people will be able to make that request in the U.S. And the last point that I would just add is that it does still preserve user choice, if a user does not like this kind of functionality, they can choose not to use iCloud Photos and if iCloud Photos is not enabled no part of the system is functional.
Enligt Erik Neuenschwander så finns det inga möjligheter att göra ändringar i den tekniska lösningen så att det går att scanna en viss användare. Funktionen är generell och global, även om den i höst först införs i USA, och bara Fårö de användare som lagrar data i iCloud. Det finns också en gräns för hur många digitala träffar mot CSAM som måste uppnås innan ett konto flaggas som att det kan misstänkas att det innehåller olagligt material, olagliga bilder. Därefter kommer personal från Apple att granska de digitala fingeravtrycken och bilderna för att se om det verkligen handlar om olagliga bilder.
Du kan läsa hela intervjun här.
av Mikael Winterkvist | aug 7, 2021 | Övervakning

Child Sexual Abuse Material (CSAM) är en databas med fingeravtryck (checksummor) på bilder som hittats i samband med polisutredningar och som visar övergrepp mot barn. Vid lanseringen av Apples nya operativsystem nu i höst så införs en scanning av bilder som ska laddas upp till iCloud mot CSAMs databas. Så här fungerar funktionen.
Sedan Apple meddelade att det kommer en funktion som scannar och kontrollerar bilder som ska laddas upp till iCloud så har Apple fått hård kritik men också beröm för att funktionen införs. I debatten har flera helt felaktiga uppgifter florerat – så här fungerar (kommer funktionen att fungera) CSAM och de övriga funktioner som Apple inför när de nya versionerna lanseras.
Funktionerna handlar om två saker:
- Bilder som ska lagras i iCloud scannas och ett fingeravtryck tas fram (CSAM)
- Bilder som skickas till och från minderåriga analyseras och nakenbilder ”blurras”
När införs funktionerna?
Senare i höst, i samband med lanseringen av iOS 15, iPadOS 15 och macOS Monterey.
Införs CSAM överallt, globalt?
Nej, CSAM införs först i USA och sedan har Apple meddelat att funktionen komme införas land för land, inte stort ellr globalt.
Scannas alla mina bilder?
Alla dina bilder scannas inte och det är inte bilderna som scannas utan en bild förses med ett fingeravtryck som körs mot CSAM. Kan bildens checksumma/fingeravtryck matchas mot CSAM, och bilden ska skickas till iCloud, så kommer en anställd från Apple att tillkallas och sedan kan informationen lämnas över till polis.
Scannas bilderna i min iPhone?
Ska bilden laddas upp till iCloud, Apples molntjänst, så plockas ett fingeravtryck fram, lokalt i din enhet – din Mac, din iPhone eller iPad. Fingeravtrycket tas fram lokalt, i din enhet, av säkerhetsskäl. Hela den här processen är dessutom starkt krypterad och ingen kan se vad dina bilder innehåller. Processen hanterar en checksumma eller ett fingeravtryck med en massa siffror som körs mot en databas med fingeravtryck från bilder på övergrepp mot barn.
Kan jag stoppa scanningen?
Det finns ingen inställning. Vill du inte att det ska tas fingeravtryck på dina bilder, som du ska skicka till iCloud, så är det enda sättet att slå av lagring av bilder i iCloud.
Kommer Apple att scanna mina meddelanden också?
Det är en helt annan funktion i iMessages som införs för barn. Använder ett barn iMessage och om detta barn får nakenbilder skickade till sig så kan barnets vårdnadshavare att få en varning i form av en dialogruta. Den aktuella bilden kommer också att ”blurras”. Funktionen är inte knuten till Apples meddelandefunktion iMessages utan den omfattar hela meddelandefunktionen alltså även SMS. Bilden kontrolleras när den skickas och när den tas emot och funktionen påverkar inte ”end-to-end” krypteringen.
Observera också att funktionen inte aktiveras för alla – enbart för minderåriga, för barn och att hur funktionen fungerar är beroende på vilka inställningar som görs. Bilder som skickas till och från minderåriga analyseras, alltså innehållet i bilden/bilderna. Funktionen använder inte CSAMs databas ska också tilläggas. De dialogrutor som visas finns längst upp (se bilden).
Är det bara Apple som använder CSAM?
Nej, Google, Facebook, Twitter, Microsoft och en rad sociala medier, bloggfunktioner och lagringstjänster använder liknande funktioner för att försöka att stoppa spridningen av barnporr.
Om funktioner införs för att stoppa barnporr – varför alla dessa varningar och varför får Apple kritik?
Därför att det kan ses som ett intrång i den enskildes integritet och samma teknik, att ta fram fingeravtryck för bilder, kan användas för dokument, videor och annan information. Samma teknik skulle kunna användas för att stoppa kritik mot en regim, leta efter aktivister och demokratiförespråkare av en diktatur. För just de här aktuella funktionerna så kräver det Apples medverkan men det skulle Apple (teoretiskt) kunna tvingas till med lagar.
Är det inte bara att ändra i en bild, göra den svartvit eller beskära den för att komma runt CSAM?
Nej, fingeravtrycket ändras inte om du redigerar bilden eller gör om den.
Om en pedofil inte vill att bilderna ska scannas kan inte gren bara slå av iCloud då?
Jo, och det är något kritikerna också har framfört. Hela funktionen riskerar att bli ett tomt slag i luften.
Kommer funktionen att slå larm för en enda bild, det kan ju vara ett falsklarm, vara fel?
Apple lär sätta en gräns för hur många bilder som ska matcha CSAM innan en anställd inom Apple tillkallas för att granska bilderna och innan informationen lämnas över till polis. Exakt vilka gränser eller exakt hur det kommer att hanteras har Apple inte lämnat information om. Granskningen görs manuellt, någon kommer att tittar på bilderna, de bilder som matchats mot CSAM, och det ska säkerställa att ingen anklagas oskyldigt. Nu ska tilläggas att fingeravtrycken i CSAM är från bilder på dokumenterade övergrepp, brott, mot barn.
Varför inför Apple funktionen?
Av flera skäl – ett viktigt skäl är att amerikansk lag kräver det. Lagen kräver att den som lagrar bilder, videor och annan information är skyldig att anmäla misstänkta övergrepp mot barn. Det andra skälet är naturligtvis för att försöka att skydda barn.
Var kan jag läsa mer?
Apple
Apple kommer att scanna bilder för att stoppa övergrepp mot barn
Har Apple öppnat Pandoras Box nu?
Apple får hård kritik från Edward Snowden och EFF
av Mikael Winterkvist | aug 6, 2021 | Övervakning

Apples nya, kommande funktion att scanna bilder inkluderar inte alla bilder och inte bilder som lagrats i din iPhone. Apple kan inte heller scanna bilder som lagrats i en säkerhetskopia, även om den lagras i iCloud.
Apple har nu bekräftat en del tekniska detaljer för hur CSAM-scanningen ska fungera:
- Apples CSAM-scanning görs när bilden ska laddas upp till iCloud
- Bilder som inte ska lagras, med iCloud avslaget scannas inte
- Apple kan inte heller scanna bilder som redan har lagrats i en säkerhetskopia, även om kopian ligger i iCloud
Using another technology called threshold secret sharing, the system ensures the contents of the safety vouchers cannot be interpreted by Apple unless the iCloud Photos account crosses a threshold of known CSAM content. The threshold is set to provide an extremely high level of accuracy and ensures less than a one in one trillion chance per year of incorrectly flagging a given account.
MacRumors
Tandlös funktion
Frågan är då om funktionen inte blir tämligen tandlös i och med att allt det en pedofil behöver göra är att slå av iCloud. Något som, gissningsvis, de som byter och lagrar bilder på övergrepp mot barn redan har gjort. Det innebär att inga bilder scannas och att inga checksummor jämförs med CSAMs databas.
Det som istället kan bli följden är att många laglydiga, helt vanliga användare väljer att slå av iCloud för att slippa att få sina bilder scannade. En följd av det kan bli sämre säkerhet, totalt, för Apple-kollektivet och att bildfunktionen via iCloud slås av. Tilltron för Apple och för iCloud får sig sannolikt en knäck – frågan är hur omfattande det minskade förtroendet för Apple då kan bli. Det får framtiden utvisa.
- Tror någon på fullt allvar att nätets pedofiler inte snabbt kommer att få lära sig att slå av iCloud?
- Tror någon på fullt allvar att Apples funktion kommer att leda till att fler misstänkta anmäls?
Apples beslut, som resulterat i hård kritik, som skadat Apples förtroende bland sina användare riskerar att bli ett tomt slag i luften som i realiteten inte kommer att rädda ett enda barn eller gripa en enda pedofil.
I så fall infaller sig frågan – varför?