Apple opóźnia wdrożenie wykrywania pornografii dziecięcej (CSAM)

06/09/2021, 13:44 · · · 0

W zeszłym miesiącu Apple ogłosił kilka nowych, mających zapewnić bezpieczeństwo dzieci i osób nieletnich, przed pornografią dziecięcą. Wykrywanie jej z wykorzystaniem baz systemu CSAM w zdjęciach iCloud wzbudziło szereg kontrowersji. Apple poinformowało że „poświęci dodatkowy czas”, aby udoskonalić te funkcje przed ich publicznym udostępnieniem. Nie podano nowej daty.

iOS/iPadOS 15 i macOS Monterey będą chroniły nas i nasze dzieci przed pornografią

W oświadczeniu dla serwisu 9to5Mac Apple powiedziało:

„W zeszłym miesiącu ogłosiliśmy nasze plany dotyczące funkcji, które mają pomóc chronić dzieci. W oparciu o informacje zwrotne od klientów, grup poparcia, badaczy i innych podmiotów, zdecydowaliśmy się poświęcić dodatkowy czas w nadchodzących miesiącach na zebranie dalszych opinii i wprowadzenie ulepszeń przed wydaniem tych, niezwykle ważnych dla świata, funkcji bezpieczeństwa”.

To już kolejne z zapowiedzianych w iOS i iPadOS 15 funkcji, których Apple nie wdroży wraz z premierą systemów na jesieni tego roku1. Zdecydowanie firma stała się bardziej ostrożna, a nadchodzące systemy ustanowiły historyczny rekord Apple pod względem wstrzymanych do pierwszego wydania funkcjonalności.

  1. Przyp. korekty: Niekoniecznie wraz z premierą, ale jesień kończy się w grudniu, więc jest jeszcze czas na wprowadzenie CSAM w tym roku.


źródło9to5mac

0

Krzysztof Kołacz

👨🏻‍💻 Piszę tutaj. 🎙 O technologii, biznesie i sporcie rozmawiam w podcaście: boczemunie.pl. 🍋 Jestem Brand Managerem FreshMail.pl. 🏃🏻‍♂️ Biegam. Parzę i piję ☕️ specialty. 👉 krzysztofkolacz.pl