Apple je objavio detalje sustava za pronalaženje materijala za seksualno zlostavljanje djece (CSAM) na uređajima korisnika u SAD-u.
Prije nego što se slika pohrani na iCloud fotografije, tehnologija će tražiti podudarnosti već poznatog CSAM-a.
Apple je rekao da će, ako pronađe kompromitirajuće materijale, recenzent procijeniti i prijaviti korisnika policiji.
No, stručnjaci se brinu da bi autoritarne vlade mogle koristiti tu tehnologiju za špijuniranje svojih građana.
Apple je rekao da će nove verzije iOS-a i iPadOS-a, koje bi trebale biti objavljene kasnije ove godine, imati “nove aplikacije kriptografije koje će pomoći u ograničavanju širenja CSAM-a na internetu te da istovremeno osmišljavaju privatnost korisnika.
Sustav funkcionira tako da uspoređuje slike s bazom poznatih slika seksualnog zlostavljanja djece koju su sastavili američki Nacionalni centar za nestalu i iskorištavanu djecu (NCMEC) i druge organizacije za zaštitu djece.
Više pročitajte ovdje.
PO/ Foto: Pexels/Martin Sanchez





