Apple a prezentat softul care poate găsi fotografii cu abuzuri sexuale împotriva minorilor 

2 luni in urmă 21

Fotografiile care urmează să fie stocate în iCloud Photos urmează să fie scanate de un soft care poate determina dacă este sau nu vorba de imagini în care apar abuzuri sexuale asupra copiilor, anunță BBC. Apple a anunțat joi detalii despre sistemul de găsire a imaginilor cu abuzuri sexuale asupra copiilor (Child Sexual Abuse Material – CSAM) pe dispozitivele clienților. În cazul în care programul identifică o posibilă fotografie care indică un astfel de abuz, un operator va evalua situația și va raporta utilizatorul forțelor de ordine.

Cu toate acestea, există îngrijorări privind confidențialitatea datelor, deoarece, teoretic, aplicația putând fi extinsă pentru a scana telefoanele pentru conținut interzis sau chiar urmărind afinitățile politice ale utilizatorului.

Apple a spus că noile versiuni de iOS și iPadOS, care urmează să fie lansate în cursul acestui an, vor avea „noi aplicații de criptografie, pentru a ajuta la limitarea răspândirii CSAM în online, însă cu protejarea confidențialității utilizatorilor”.

Sistemul funcționează prin compararea imaginilor cu o bază de date cu imagini cunoscute de abuz sexual asupra copiilor, realizată de Centrul Național pentru Copii Dispăruți și Exploatați (NCMEC) și alte organizații de siguranță a copiilor.

sursa foto: Pexels

Citeşte Articolul Întreg pe Sursă