Det finns två viktig aspekter som fallit bort i debatten runt Apples beskedet om att införa en funktion som tar fram fingeravtryck för bilder som sedan körs mot CSAMs databas – lagkrav och hur många misstänkta fall som Apple rapporterar till myndigheterna årligen.
CSAM används av Facebook, Twitter, Google och en lång rad av tjänsteleverantörer ute på nätet och har använts i flera år. enkelt uttrycket så är Apple sist av de riktigt stora aktörerna med att införa en tekniskt lösning.
Under förra året så rapporterade Apple 265 fall av misstänkta övergrepp mot barn. Samma år rapporterade Facebook 20.3 miljoner misstänkta fall av övergrepp mot barn till myndigheterna.
U.S. law requires tech companies to flag cases of child sexual abuse to the authorities. Apple has historically flagged fewer cases than other companies. Last year, for instance, Apple reported 265 cases to the National Center for Missing & Exploited Children, while Facebook reported 20.3 million, according to the center’s statistics. That enormous gap is due in part to Apple’s decision not to scan for such material, citing the privacy of its users.
Till de siffrorna och det enorma gapet mellan två av nätets största aktörer – Apple och Facebook, ska läggas ett lagkrav. Du är skyldig, enligt amerikansk lag att rapportera misstänkta övergrepp mot barn. Det är inte detsamma som att du är skyldig att införa tekniska lösningar som aktivt letar efter misstänkt aktivitet men om Apple rapporterar 265 fall under ett år och Facebook rapporterar 20.3 miljoner misstänkta fall samma år så är det svårt att säga att Apple aktivitet gör särskilt mycket för att stoppa spridningen av barnporr.
Kryptering
Apples strategi med användandet av olika typer av kryptering har hela tiden varit att plocka bort sig själva, Apple, ur ekvationen. Utom på en punkt – säkerhetskopior lagrade i iCloud. Apple kan dekryptera innehållet och lämna ut det om exempelvis en domstol kräver det. Apple kan inte ta del av informationen i iMessage eller andra delar av sina egna operativsystem – om användaren aktiverat kryptering fullt ut. Informationen i iCloud däremot har Apple kunnat ”låsa” upp och det har funnits planer på att kryptera även iCloud hårdare men av olika skäl så har Apple inte gjort verklighet av de planerna.
Ett skäl kan vara att användaren, du och jag, ska kunna återvinna information om något har gått snett och vi har tappt/glömt bort alla lösenord. Ett annat att Apple inte vill hamna på samma sida som pedofiler, terrorister och grova kriminella. Apple har hårdnackat vägrat att hjälpa till med att låsa upp en iPhone eller iPad och även tagit strid i domstol för att inte kunna tvingas att utveckla bakdörrar eller specialversioner av iOS som kan användas för att låsa upp enheter. Apple har däremot inte varit lika hårda för det som lagras hos Apple, i iCloud.
Kryptering
Införandet av CSAM kan vara det första steget för att gå vidare och skydda även all information i iCloud med hård kryptering – och plocka bort Apple ur ekvationen.
Steg 1 – inför CSAM så att Apple slipper hamna i sitsen att anklagas för att skydda pedofiler
Steg 2 – inför hårdare kryptering, samma höga nivå som i en iPhone, iPad eller en Mac-dator även för informationen som lagras i iCloud.
Steg 3 – Apple är borta ur ekvationen.
Sedan talar som sagt siffrorna ett övertydligt språk – 265 anmälda fall mot 20.3 miljoner.
