Apple opóźnia wdrożenie wykrywania pornografii dziecięcej (CSAM)
W zeszłym miesiącu Apple ogłosił kilka nowych, mających zapewnić bezpieczeństwo dzieci i osób nieletnich, przed pornografią dziecięcą. Wykrywanie jej z wykorzystaniem baz systemu CSAM w zdjęciach iCloud wzbudziło szereg kontrowersji. Apple poinformowało że „poświęci dodatkowy czas”, aby udoskonalić te funkcje przed ich publicznym udostępnieniem. Nie podano nowej daty.
iOS/iPadOS 15 i macOS Monterey będą chroniły nas i nasze dzieci przed pornografią
W oświadczeniu dla serwisu 9to5Mac Apple powiedziało:
„W zeszłym miesiącu ogłosiliśmy nasze plany dotyczące funkcji, które mają pomóc chronić dzieci. W oparciu o informacje zwrotne od klientów, grup poparcia, badaczy i innych podmiotów, zdecydowaliśmy się poświęcić dodatkowy czas w nadchodzących miesiącach na zebranie dalszych opinii i wprowadzenie ulepszeń przed wydaniem tych, niezwykle ważnych dla świata, funkcji bezpieczeństwa”.
To już kolejne z zapowiedzianych w iOS i iPadOS 15 funkcji, których Apple nie wdroży wraz z premierą systemów na jesieni tego roku1. Zdecydowanie firma stała się bardziej ostrożna, a nadchodzące systemy ustanowiły historyczny rekord Apple pod względem wstrzymanych do pierwszego wydania funkcjonalności.
- Przyp. korekty: Niekoniecznie wraz z premierą, ale jesień kończy się w grudniu, więc jest jeszcze czas na wprowadzenie CSAM w tym roku. ↩