Nyligen avslöjade New York Times att föräldrar anmälts sedan de sina barn, nakna, vilket resulterat i att Googles scanning markerat bilderna och slagit larm. Apple drog tillbaka sin lösning och sitt system efter hårda kritik men nuet är inte samma typ av lösning – Magasin Macken reder ut begreppen.
Låt oss börja med Apple lösning:
Apples lösning byggde på att bilder som skulle laddas upp till iCloud scannades efter CSAM vilket kan beskrivas som ett digitalt fingeravtryck. Apple scannar alltså inte bilderna i sig utan säker efter fingeravtryck som kan knytas till bekräftade bilder på övergrepp mot barn.
Googles lösning:
Google har en AI-lösning som scannar bilderna i sig – alltså hela bilderna och sedan görs en analys, med hjälp av mjukvara.
Det är en högst väsentlig skillnad mellan systemen – Apple scannar inte bilderna utan söker efter ett digitalt fingeravtryck och det gör att när det kommer till felaktiga varningar, falsk larm, så är risken minimal. Googles lösning däremot bygger på AI och mjukvara och logiskt så ökar risken för falska larm.
Lästipset: Pappa fotograferade sonen för att skicka bilder till läkare – anmäldes som sexbrottsling

0 kommentarer