Mastodon
Zdjęcie okładkowe wpisu Apple opóźnia wdrożenie wykrywania pornografii dziecięcej (CSAM)

Apple opóźnia wdrożenie wykrywania pornografii dziecięcej (CSAM)

0
Dodane: 2 lata temu

W zeszłym miesiącu Apple ogłosił kilka nowych, mających zapewnić bezpieczeństwo dzieci i osób nieletnich, przed pornografią dziecięcą. Wykrywanie jej z wykorzystaniem baz systemu CSAM w zdjęciach iCloud wzbudziło szereg kontrowersji. Apple poinformowało że „poświęci dodatkowy czas”, aby udoskonalić te funkcje przed ich publicznym udostępnieniem. Nie podano nowej daty.

iOS/iPadOS 15 i macOS Monterey będą chroniły nas i nasze dzieci przed pornografią

W oświadczeniu dla serwisu 9to5Mac Apple powiedziało:

„W zeszłym miesiącu ogłosiliśmy nasze plany dotyczące funkcji, które mają pomóc chronić dzieci. W oparciu o informacje zwrotne od klientów, grup poparcia, badaczy i innych podmiotów, zdecydowaliśmy się poświęcić dodatkowy czas w nadchodzących miesiącach na zebranie dalszych opinii i wprowadzenie ulepszeń przed wydaniem tych, niezwykle ważnych dla świata, funkcji bezpieczeństwa”.

To już kolejne z zapowiedzianych w iOS i iPadOS 15 funkcji, których Apple nie wdroży wraz z premierą systemów na jesieni tego roku1. Zdecydowanie firma stała się bardziej ostrożna, a nadchodzące systemy ustanowiły historyczny rekord Apple pod względem wstrzymanych do pierwszego wydania funkcjonalności.

  1. Przyp. korekty: Niekoniecznie wraz z premierą, ale jesień kończy się w grudniu, więc jest jeszcze czas na wprowadzenie CSAM w tym roku.

Krzysztof Kołacz

👨🏻‍💻 Technologia, kawa i my sami. 🎙 W podcaście „Bo czemu nie?”. 📰 W newsletterze „The Menu Bar” oraz tutaj. Kocham 🏃🏻‍♂️ i ☕️ specialty.

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .