iMagazine

Apple opóźnia wdrożenie wykrywania pornografii dziecięcej (CSAM)

W zeszłym miesiącu Apple ogłosił kilka nowych, mających zapewnić bezpieczeństwo dzieci i osób nieletnich, przed pornografią dziecięcą. Wykrywanie jej z wykorzystaniem baz systemu CSAM w zdjęciach iCloud wzbudziło szereg kontrowersji. Apple poinformowało że „poświęci dodatkowy czas”, aby udoskonalić te funkcje przed ich publicznym udostępnieniem. Nie podano nowej daty.

czytaj

iOS/iPadOS 15 i macOS Monterey będą chroniły nas i nasze dzieci przed pornografią

Apple wprowadza trzy funkcje do swoich systemów operacyjnych, których zadaniem będzie ochrona najmłodszych przed pornografią. Biorąc pod uwagę obecną wolną amerykankę w „internetach”, co akurat bardzo sobie cenię jako dorosły, cieszy mnie każda tego typu akcja, która będzie chronić niepełnoletnich i jednocześnie nie ograniczać wolności dorosłych.

czytaj