Lupta împotriva pornografiei infantile: Apple dorește să scaneze dispozitivele cu fotografii abuzive

Last updated:

Începând din toamna anului 2021, Apple dorește să utilizeze un proces complex cu potrivirea imaginilor prin „hashuri” pentru a se potrivi cu fotografiile utilizatorilor americani care utilizează serviciul de stocare online intern iCloud pentru fotografii cu o listă de materiale pornografice pentru copii cunoscute. Așa-numitele „hashuri” sunt un tip de amprentă digitală a unei imagini care trebuie comparată cu fotografiile utilizatorului.

Astfel de hashuri de conținut pornografic pentru copii deja cunoscut ar trebui încărcate pe dispozitivele Apple și apoi comparate cu fotografiile utilizatorilor. Cu această metodă, o posibilă copie a fotografiei respective poate fi văzută sub imaginile utilizatorilor. Cu toate acestea, originalul nu poate fi restaurat din fotografie.

Apple verifică fotografiile pentru pornografie infantilă

De îndată ce procesul duce la un meci, fotografiile suspecte ar trebui să fie furnizate cu un certificat. Cu ajutorul acestui certificat, Apple poate deschide în mod excepțional imaginile relevante după ce le-a încărcat pe iCloud și le poate supune unei verificări. Cu toate acestea, sistemul ar trebui să funcționeze numai după un anumit număr de accesări.

Dacă materialul pornografic infantil este de fapt descoperit în timpul verificării Apple, compania raportează descoperirea organizației neguvernamentale americane NCMEC (Centrul național pentru copii dispăruți și exploatați). Această organizație poate informa apoi autoritățile responsabile.

Conținutul nou nu poate fi descoperit

Utilizatorii a căror comparație a dezvăluit material pornografic pentru copii nu vor fi anunțați despre descoperire. Totuși, contul utilizatorului respectiv va fi blocat ca urmare. Fotografiile de abuz care urmează să fie utilizate pentru comparație cu fotografiile utilizatorilor sunt furnizate de o organizație de protecție a copilului.

Cu toate acestea, deoarece pentru comparație se folosește doar material pornografic existent pentru copii, tehnologia nu poate fi utilizată pentru a detecta noi imagini care arată abuzuri sexuale asupra copiilor. Se pot lua măsuri numai împotriva fotografiilor identificate atunci când le comparăm cu o bază de date cu imagini de abuz existente.

Experții se tem că sistemul va fi utilizat în alte scopuri decât cele prevăzute

În plus, activiștii pentru drepturile civile și cercetătorii în domeniul securității IT critică faptul că este chiar posibilă sincronizarea fișierelor pe dispozitive. S-ar putea întâmpla ca un astfel de sistem să fie utilizat în mod greșit și hashurile pentru alte conținuturi să fie canalizate pe dispozitive. De exemplu, guvernele autoritare ar avea capacitatea de a solicita Apple să includă în baza de date alt conținut decât hash-uri și să exercite astfel supravegherea politică.

Apple respinge această critică și apără măsurile planificate împotriva pornografiei infantile. Procesul este conceput în așa fel încât hashurile de alt conținut să nu poată ajunge în secret pe dispozitive. În plus, Apple ar respinge orice încercare a guvernelor de a utiliza metoda pentru a căuta alt conținut. Nu este de temut supravegherea în masă cu noua tehnologie.