Apple potwierdza, że wstrzymało plany wdrożenia systemu wykrywania CSAM
W 2021 roku Apple ogłosiło szereg nowych funkcji bezpieczeństwa dzieci. Dotyczy to także wykrywanie materiałów zawierających seksualne wykorzystywanie dzieci (CSAM) dla zdjęć iCloud. Jednak posunięcie to było szeroko krytykowane ze względu na obawy dotyczące prywatności. Po zawieszeniu go na czas nieokreślony Apple potwierdziło teraz, że zaprzestało planów wprowadzenia systemu wykrywania CSAM.
