Det är nu över ett år sedan Apple presenterade nya funktioner för att automatiskt scanna efter bilder som är barnporr. Initiativet hyllades men Apple sätt att scanna efter brottsliga bilder som är bevis för övergrepp fick hård kritik. Till slut backade Apple och sköt funktionerna på framtiden.
Apple hade planer på att scanna. bilder, innan de laddades upp till iCloud, alltså lokalt på användarens enhet vilket möttes av hård kritik. Det finns en databas med det som kallas Child Sexual Abuse Material (CSAM) och bilder som skulle laddas upp till Apples moln, iCloud, skulle kontrolleras mot denna databas. Det innebär inte att bilderna i sig scannas utan speciella checksummor, en slags ID-kod, som kan användas för att upptäcka barnpornografiska bilder.
Tidigare tillkännagav vi planer för funktioner som är avsedda att skydda barn från rovdjur som använder kommunikationsverktyg för att rekrytera och utnyttja dem och hjälpa till att begränsa spridningen av barns sexuella övergreppsmaterial. Baserat på feedback från kunder, förespråkningsgrupper, forskare och andra har vi beslutat att ta ytterligare tid under de kommande månaderna för att samla in insatser och göra förbättringar innan vi släpper dessa kritiskt viktiga barnsäkerhetsfunktioner.
Bekräftade
Sedan dess har det varit helt tyst. Apple har inte svarat på frågor gällande CSAM eller vilka planer som finns. I december 2021 bekräftade Apple att det fortfarande finns planer på att scanna efter barnporr men Apple ville inte berätta hur. Detta är nu inget ovanligt när det gäller Apple. Det är som bekant ett hemlighetsfullt företag som berättar något när de verkligen har något att berätta.
0 kommentarer