Apple potwierdza, że ​​wstrzymało plany wdrożenia systemu wykrywania CSAM
0

Apple potwierdza, że ​​wstrzymało plany wdrożenia systemu wykrywania CSAM

0

W 2021 roku Apple ogłosiło szereg nowych funkcji bezpieczeństwa dzieci. Dotyczy to także wykrywanie materiałów zawierających seksualne wykorzystywanie dzieci (CSAM) dla zdjęć iCloud. Jednak posunięcie to było szeroko krytykowane ze względu na obawy dotyczące prywatności. Po zawieszeniu go na czas nieokreślony Apple potwierdziło teraz, że zaprzestało planów wprowadzenia systemu wykrywania CSAM.

W tym samym dniu, w którym firma ogłosiła zaawansowaną ochronę danych z kompleksowym szyfrowaniem wszystkich danych iCloud, położyła również kres nigdy nie opublikowanemu skanowi CSAM. Wiadomość została potwierdzona przez wiceprezesa Apple ds. inżynierii oprogramowania Craiga Federighi.

Kiedy ogłoszono skanowanie CSAM, Apple powiedziało, że Zdjęcia iCloud będą w stanie wykryć nieodpowiednie materiały na zdjęciach użytkowników. Odbywałoby się to na podstawie bazy danych skrótów obrazów CSAM. W ten sposób firma byłaby w stanie wykryć takie zdjęcia na urządzeniu bez konieczności oglądania zdjęć użytkowników. Mimo to skanowanie CSAM spotkało się z dużą krytyką ze strony użytkowników.

Okazuje się, że Apple zdecydowało teraz, że lepiej byłoby wstrzymać plany wdrożenia systemu wykrywaniam CSAM. Warto jednak zauważyć, że inne funkcje bezpieczeństwa dzieci, takie jak ograniczenia dotyczące iMessage, są nadal dostępne w systemie iOS.

źródło: 9to5mac.com

Oceń post

SKOMENTUJ

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *