Explicat: Cum va scana Apple pentru imagini de exploatare a copiilor pe dispozitive și de ce ridică sprâncene
Se așteaptă inițial să fie disponibile în Statele Unite, caracteristicile includ utilizarea de noi tehnologii pentru a limita răspândirea CSAM online, în special prin intermediul platformei Apple.

Apple a anunțat asta actualizările de software la sfârșitul acestui an vor aduce noi funcții care va ajuta la protejarea copiilor de prădătorii care folosesc instrumente de comunicare pentru a-i recruta și exploata și va limita răspândirea materialului de abuz sexual asupra copiilor (CSAM).
Se așteaptă inițial să fie disponibile în Statele Unite, caracteristicile includ utilizarea de noi tehnologii pentru a limita răspândirea CSAM online, în special prin intermediul platformei Apple.
Apoi va exista protecție pe dispozitiv pentru copii împotriva trimiterii sau primirii de conținut sensibil, cu mecanisme de alertare a părinților în cazul în care utilizatorul are vârsta sub 13 ani. Apple va interveni și atunci când Siri sau Search sunt folosite pentru a căuta subiecte legate de CSAM .
Ce tehnologie face Apple pentru a preveni răspândirea CSAM online?
Într-o postare pe blog, Apple a explicat că va folosi aplicații de criptare prin iOS și iPadOS pentru a potrivi imaginile CSAM cunoscute stocate pe iCloud Photo. Tehnologia va potrivi imaginile de pe iCloud-ul unui utilizator cu imagini cunoscute furnizate de organizațiile pentru siguranța copiilor. Și acest lucru se face fără a vedea imaginea și doar căutând ceea ce este ca o potrivire a amprentei. În cazul în care există potriviri care depășesc un prag, Apple va raporta aceste situații Centrului Național pentru Copii Dispăruți și Exploatați (NCMEC).
Apple a clarificat că tehnologia sa ține cont de confidențialitatea utilizatorilor și, prin urmare, baza de date este transformată într-un set de hashe-uri care nu poate fi citit, care este stocat în siguranță pe dispozitivele utilizatorilor. Acesta a adăugat că, înainte ca orice imagine să fie încărcată pe iCloud, sistemul de operare o va potrivi cu hashurile CSAM cunoscute folosind o tehnologie criptografică numită intersecție set privat. Această tehnologie va determina, de asemenea, un meci fără a dezvălui rezultatul.
În acest moment, dispozitivul creează un voucher de siguranță criptografic cu rezultatul meciului și date suplimentare criptate și îl salvează pe iClouds împreună cu imaginea. Tehnologia de partajare secretă Threshold asigură că aceste vouchere nu pot fi interpretate de Apple decât dacă contul iCloud Photos depășește un prag de conținut CSAM cunoscut. Acest prag, susține blogul, a fost instituit pentru a oferi un nivel extrem de ridicat de acuratețe și asigură mai puțin de o șansă la un trilion pe an de a semnala incorect un anumit cont. Deci, este puțin probabil ca o singură imagine să declanșeze o alertă.
Dar dacă pragul este depășit, Apple poate interpreta conținutul tichetelor de siguranță și poate examina manual fiecare raport pentru o potrivire, poate dezactiva contul utilizatorului și poate trimite un raport către NCMEC. Apple a spus că utilizatorii vor putea face recurs dacă cred că au fost semnalați greșit.
în valoare netă de Ivana Trump
Cum funcționează celelalte funcții?
Noua siguranță a comunicațiilor Apple pentru Mesaje va estompa o imagine sensibilă și va avertiza copilul despre natura conținutului. Dacă este activat din backend, copilului i se poate spune și că părinții lor au fost alertați despre mesajul pe care l-au vizualizat. Același lucru se va aplica dacă copilul decide să trimită un mesaj sensibil. Apple a spus că Messages va folosi învățarea automată de pe dispozitiv pentru a analiza atașamentele de imagini și pentru a determina dacă o fotografie este explicită din punct de vedere sexual și că Apple nu va avea acces la mesaje. Caracteristica va veni ca o actualizare a conturilor configurate ca familii în iCloud pentru cele mai recente versiuni ale sistemului de operare.
De asemenea, odată cu actualizarea, atunci când un utilizator încearcă să caute potențiale subiecte CSAM, Siri și Search vor explica de ce acest lucru ar putea fi dăunător și problematic. Utilizatorii vor primi, de asemenea, îndrumări cu privire la modul de a depune un raport privind exploatarea copiilor dacă o solicită.
| Explicat: Cum și de ce Google va oferi mai multă protecție copiilor online
De ce face Apple acest lucru și care sunt preocupările ridicate?
Marile companii tehnologice au fost de ani de zile sub presiune pentru a restrânge utilizarea platformei lor pentru exploatarea copiilor. Multe rapoarte au subliniat de-a lungul anilor cum nu sa făcut suficient pentru a împiedica tehnologia să facă conținut CSAM disponibil pe o scară mai largă.
Cu toate acestea, anunțul Apple a fost întâmpinat cu critici, mulți subliniind cum acesta este exact genul de tehnologie de supraveghere pe care multe guverne și-ar dori să o aibă și ar fi plăcut să o folosească greșit. Faptul că acest lucru a venit de la Apple, care a fost multă vreme adeptul intimității, i-a surprins pe mulți.
valoare paramore netă
De asemenea, experții în criptografie precum Matthew Green de la Universitatea Johns Hopkins și-au exprimat temerile că sistemul ar putea fi folosit pentru a încadra oameni nevinovați trimițându-le imagini menite să declanșeze potrivirile pentru CSAM. Cercetătorii au reușit să facă acest lucru destul de ușor, a spus el pentru NPR, adăugând că este posibil să păcăliți astfel de algoritmi.
Dar The New York Times l-a citat pe șeful Apple pentru confidențialitate, Erik Neuenschwander, spunând că aceste funcții nu vor însemna nimic diferit pentru utilizatorii obișnuiți.
Dacă stocați o colecție de material CSAM, da, acest lucru este rău pentru dvs., a spus el publicației.
Buletin informativ| Faceți clic pentru a primi cele mai bune explicații ale zilei în căsuța dvs. de e-mail
Alte companii mari de tehnologie au tehnologii similare?
Da. De fapt, Apple este un participant relativ târziu pe scenă, deoarece Microsoft, Google și Facebook au alertat agențiile de aplicare a legii despre imaginile CSAM. Apple a rămas în urmă, deoarece orice astfel de tehnologie ar fi fost împotriva angajamentului său mult promovat față de confidențialitatea utilizatorilor. Drept urmare, în 2020, când Facebook a raportat 20,3 milioane de încălcări CSAM către NCMEC, Apple a putut raporta doar 265 de cazuri, a raportat The New York Times.
Abia acum a reușit să găsească tehnologia care să facă acest lucru fără a afecta utilizatorii obișnuiți sau cel puțin să-i sperie. Cu toate acestea, după cum a arătat reacția inițială, este încă un drum pe frânghie.
Imparte Cu Prietenii Tai: