iMagazine

Apple opóźnia wdrożenie wykrywania pornografii dziecięcej (CSAM)

W zeszłym miesiącu Apple ogłosił kilka nowych, mających zapewnić bezpieczeństwo dzieci i osób nieletnich, przed pornografią dziecięcą. Wykrywanie jej z wykorzystaniem baz systemu CSAM w zdjęciach iCloud wzbudziło szereg kontrowersji. Apple poinformowało że „poświęci dodatkowy czas”, aby udoskonalić te funkcje przed ich publicznym udostępnieniem. Nie podano nowej daty.

czytaj