När Apple berättade mer om en kommande funktion som var avsedd att scanna efter bilder på övergrepp riktade mot barn, CSAM, så dröjde det inte längre förrän funktionen och hur den var utförd fick hård kritik. Till slut ändrade sig Apple, drog tillbaka funktionen, och övergav planerna.
Frågan är infekterad och den har upprört känslor både innanför dörrarna på Apples högkvarter i Cupertino som utanför. EFF har protesterat mot Apples planer samtidigt som olika organisationer som slåss för och som bevakar barnens rättigheter har applåderat Apples beslut.
Debattens vågor gick höga i augusti 2021 och under flera månader efteråt tills Apples beslöt att dra tillbaka funktionen.
Berättat varför
Nu har Apple berättat varför, vilka grunder som låg bakom beslutet, i december förra året, att skrota funktionen. Det Apple gjorde var att trycka på paus i utvecklingen och lanseringen av CSAM-funktionen och sedan direkt efter det inleda en serie möten med olika organisationer, säkerhetsexperter, integritetskunniga och forskare. Apple gick igenom en lång period där de samlade in data, information och underlag för att sedan fatta ett beslut i frågan.
”Material för sexuella övergrepp mot barn är avskyvärt och vi är fast beslutna att bryta kedjan av tvång och inflytande som gör barn mottagliga för det”, skrev Erik Neuenschwander, Apples chef för användarintegritet och barnsäkerhet, i företagets svar till Heat Initiative. Han tillade dock att företaget, efter att ha samarbetat med en rad integritets- och säkerhetsforskare, grupper för digitala rättigheter och förespråkare för barnsäkerhet, drog slutsatsen att det inte kunde gå vidare med utvecklingen av en CSAM-skanningsmekanism, inte ens en som byggts specifikt för att bevara integriteten .
Apple insåg till slut att funktionen skulle kunna leda till nya problem där scanningen skulle kunna missbrukas och användas för att scanna efter annan information än CSAM. Intrånget i den enskildes integritet bedömdes också vara för stort.
Heat Initiative leds av Sarah Gardner, tidigare vicepresident för externa frågor för den ideella organisationen Thorn, som arbetar med att använda ny teknik för att bekämpa barnexploatering online och sexhandel. År 2021 hyllade Thorn Apples plan att utveckla en iCloud CSAM-skanningsfunktion. Gardner sa i ett e-postmeddelande till VD Tim Cook onsdagen den 30 augusti, som Apple också delade med WIRED, att Heat Initiative tyckte att Apples beslut att döda funktionen var ”en besvikelse”.
Här kan du läsa hela kommunikationen mellan Apple och Heat Initiative
[dearpdf id=”263973″ ][/dearpdf]
Länkar
Så här fungerar Child Sexual Abuse Material (CSAM) och scanningen av bilder
0 kommentarer