Mastodon
Zdjęcie okładkowe wpisu Apple opóźnia wdrożenie wykrywania pornografii dziecięcej (CSAM)

Apple opóźnia wdrożenie wykrywania pornografii dziecięcej (CSAM)

0
Dodane: 3 lata temu

W zeszłym miesiącu Apple ogłosił kilka nowych, mających zapewnić bezpieczeństwo dzieci i osób nieletnich, przed pornografią dziecięcą. Wykrywanie jej z wykorzystaniem baz systemu CSAM w zdjęciach iCloud wzbudziło szereg kontrowersji. Apple poinformowało że „poświęci dodatkowy czas”, aby udoskonalić te funkcje przed ich publicznym udostępnieniem. Nie podano nowej daty.

iOS/iPadOS 15 i macOS Monterey będą chroniły nas i nasze dzieci przed pornografią

W oświadczeniu dla serwisu 9to5Mac Apple powiedziało:

„W zeszłym miesiącu ogłosiliśmy nasze plany dotyczące funkcji, które mają pomóc chronić dzieci. W oparciu o informacje zwrotne od klientów, grup poparcia, badaczy i innych podmiotów, zdecydowaliśmy się poświęcić dodatkowy czas w nadchodzących miesiącach na zebranie dalszych opinii i wprowadzenie ulepszeń przed wydaniem tych, niezwykle ważnych dla świata, funkcji bezpieczeństwa”.

To już kolejne z zapowiedzianych w iOS i iPadOS 15 funkcji, których Apple nie wdroży wraz z premierą systemów na jesieni tego roku1. Zdecydowanie firma stała się bardziej ostrożna, a nadchodzące systemy ustanowiły historyczny rekord Apple pod względem wstrzymanych do pierwszego wydania funkcjonalności.

  1. Przyp. korekty: Niekoniecznie wraz z premierą, ale jesień kończy się w grudniu, więc jest jeszcze czas na wprowadzenie CSAM w tym roku.

Krzysztof Kołacz

🎙️ O technologii i nas samych w podcaście oraz newsletterze „Bo czemu nie?”. ☕️ O kawie w podcaście „Kawa. Bo czemu nie?”. 🏃🏻‍♂️ Po godzinach biegam z wdzięczności za życie.

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .