Apple opóźnia wdrożenie wykrywania pornografii dziecięcej (CSAM)

W zeszłym miesiącu Apple ogłosił kilka nowych, mających zapewnić bezpieczeństwo dzieci i osób nieletnich, przed pornografią dziecięcą. Wykrywanie jej z wykorzystaniem baz systemu CSAM w zdjęciach iCloud wzbudziło szereg kontrowersji. Apple poinformowało że „poświęci dodatkowy czas”, aby udoskonalić te funkcje przed ich publicznym udostępnieniem. Nie podano nowej daty. iOS/iPadOS 15 i macOS Monterey będą chroniły nas i nasze dzieci przed pornografią W oświadczeniu dla serwisu 9to5Mac Apple powiedziało: … Czytaj dalej Apple opóźnia wdrożenie wykrywania pornografii dziecięcej (CSAM)