Apple förklarar varför CSAM-funktionen övergavs – och det är exakt det kritikerna varnade för

av | sep 3, 2023 | Mastodon, Reportage

När Apple berättade mer om en kommande funktion som var avsedd att scanna efter bilder på övergrepp riktade mot barn, CSAM, så dröjde det inte längre förrän funktionen och hur den var utförd fick hård kritik. Till slut ändrade sig Apple, drog tillbaka funktionen, och övergav planerna.

Frågan är infekterad och den har upprört känslor både innanför dörrarna på Apples högkvarter i Cupertino som utanför. EFF har protesterat mot Apples planer samtidigt som olika organisationer som slåss för och som bevakar barnens rättigheter har applåderat Apples beslut.

Debattens vågor gick höga i augusti 2021 och under flera månader efteråt tills Apples beslöt att dra tillbaka funktionen.

Berättat varför

Nu har Apple berättat varför, vilka grunder som låg bakom beslutet, i december förra året, att skrota funktionen. Det Apple gjorde var att trycka på paus i utvecklingen och lanseringen av CSAM-funktionen och sedan direkt efter det inleda en serie möten med olika organisationer, säkerhetsexperter, integritetskunniga och forskare. Apple gick igenom en lång period där de samlade in data, information och underlag för att sedan fatta ett beslut i frågan.

”Material för sexuella övergrepp mot barn är avskyvärt och vi är fast beslutna att bryta kedjan av tvång och inflytande som gör barn mottagliga för det”, skrev Erik Neuenschwander, Apples chef för användarintegritet och barnsäkerhet, i företagets svar till Heat Initiative. Han tillade dock att företaget, efter att ha samarbetat med en rad integritets- och säkerhetsforskare, grupper för digitala rättigheter och förespråkare för barnsäkerhet, drog slutsatsen att det inte kunde gå vidare med utvecklingen av en CSAM-skanningsmekanism, inte ens en som byggts specifikt för att bevara integriteten .

Wired

Apple insåg till slut att funktionen skulle kunna leda till nya problem där scanningen skulle kunna missbrukas och användas för att scanna efter annan information än CSAM. Intrånget i den enskildes integritet bedömdes också vara för stort.

Heat Initiative leds av Sarah Gardner, tidigare vicepresident för externa frågor för den ideella organisationen Thorn, som arbetar med att använda ny teknik för att bekämpa barnexploatering online och sexhandel. År 2021 hyllade Thorn Apples plan att utveckla en iCloud CSAM-skanningsfunktion. Gardner sa i ett e-postmeddelande till VD Tim Cook onsdagen den 30 augusti, som Apple också delade med WIRED, att Heat Initiative tyckte att Apples beslut att döda funktionen var ”en besvikelse”.

Här kan du läsa hela kommunikationen mellan Apple och Heat Initiative

[dearpdf id=”263973″ ][/dearpdf]

Länkar

Så här fungerar Child Sexual Abuse Material (CSAM) och scanningen av bilder

 

 

0 kommentarer


Mikael Winterkvist

Fyrabarns-far, farfar, morfar och egen företagare i Skellefteå med kliande fingrar. Jag skriver om fotografering, sport, dataprylar, politik, nöje, musik och film. Vid sidan av den här bloggen så jobbar jag med med det egna företaget Winterkvist.com. Familjen består av hustru, fyra barn (utflugna) och fem barnbarn.

Jag har hållit på med datorer sedan tidigt 1980-tal och drev Artic BBS innan Internet knappt existerade. Efter BBS-tiden har det blivit hemsidor, design, digitala medier och trycksaker. Under tiden som journalist jobbade jag med Mac men privat har det varit Windows som har gällt fram till vintern 2007. Då var det dags att byta och då bytte vi, företaget, helt produktionsplattform till macOS. På den vägen är det.

_____________________________________________________________________________________

Anmäl dig till Magasin Mackens nyhetsbrev

Du får förhandsinformation om Macken, våra planer och du får informationen, först och direkt till din mail. Vi lovar att inte skicka din information vidare och vi lovar att inte skicka ut mer än max ett nyhetsbrev per månad.

Anmäl dig här

_____________________________________________________________________________________

De senaste inläggen: