Mastodon
Zdjęcie okładkowe wpisu iOS/iPadOS 15 i macOS Monterey będą chroniły nas i nasze dzieci przed pornografią

iOS/iPadOS 15 i macOS Monterey będą chroniły nas i nasze dzieci przed pornografią

11
Dodane: 3 lata temu
fot. Jeferson Gomes

Apple wprowadza trzy funkcje do swoich systemów operacyjnych, których zadaniem będzie ochrona najmłodszych przed pornografią. Biorąc pod uwagę obecną wolną amerykankę w “internetach”, co akurat bardzo sobie cenię jako dorosły, cieszy mnie każda tego typu akcja, która będzie chronić niepełnoletnich i jednocześnie nie ograniczać wolności dorosłych.

Messages

Wiadomości będą wykorzystywały machine learning, aby ostrzegać użytkowników o potencjalnie wrażliwych treściach, jednocześnie „zachowując prywatność komunikacji m.in. przed Apple” (to akurat nie jest do końca prawda, bo jeśli korzystamy z iClouda, to Apple posiada nasz klucz do szyfrowanych danych).

Gdy użytkownik otrzyma np. pornograficzne zdjęcie, fotografia będzie zamazana, a dziecko-user zobaczy ostrzeżenie, dodatkowe informacje w temacie i zapewnienie, że ma prawo nie patrzeć na takie zdjęcia. Ponadto, otrzyma informację, że jeśli otworzy to zdjęcie, to jego rodzice zostaną o tym powiadomieni. Sytuacja będzie wyglądała podobnie, gdy to dziecko-user będzie takie zdjęcia wysyłało.

Analiza zdjęć dokonywana jest na urządzeniu, więc Apple nic nie wiem o tych działaniach i nie widzi tych treści. Funkcja będzie dostępna dla rodzinnych kont iCloud w iOS 15, iPadOS 15 i macOS Monterey w późniejszym terminie.

Ograniczanie rozprzestrzeniania się pornografii dziecięcej

iOS i iPadOS będą potrafiły wykorzystać kryptografię do ograniczania rozprzestrzeniania się dziecięcej poronografii w obrębie iCloud Photos. Wykrywanie takich zdjęć czy wideo pozwoli Apple dostarczać informacje do odpowiednich służb, walczących z takimi osobami.

Ta funkcja będzie umiała rozpoznać znane zdjęcia zawierające pornografię dziecięcą przetrzymywane w iCloud Photos. Takie zdjęcia będą zgłaszane do National Center for Missing and Exploited Children (NCMEC), który współpracuje z innymi agencjami w USA.

Wykrywanie takich treści odbywa się zachowując prywatność użytkownika poprzez porównywanie hashów zdjęć na urządzeniu (nie w chmurze iCloud) z hashami nadesłanymi przez NCMEC i innych organizacji zajmującymi się bezpieczeństwem dzieci. Te hashe (w tym wypadku hash to, w dużym skrócie, zdjęcie opisane za pomocą ciągu, składającego się z cyfr i liter). Dzięki zastosowaniu kryptografii, funkcja może sprawdzić czy któreś zdjęcia odpowiadają zapisanym hashom bez zdradzania wyniku. Wynik jest zaszyfrowany i dołączony do zdjęcia, które jest trzymane w iCloud Photos). Ten wynik może zostać odczytany przez Apple tylko, gdy jest pozytywny (zdjęcie przedstawia znaną pornografię dziecięcą). Raporty takich zdjęć są ręcznie weryfikowane i informacje o użytkowniku posiadające takie zdjęcia zostają przekazane do NCMEC. Dodatkowo konto użytkownika jest blokowane. Można się od tej decyzji odwołać, jeśli użytkownik uważa, że popełniono błąd.

Siri i Search

Siri i funkcja wyszukiwania w iOS będą dodatkowo posiadały rozszerzone informacje na ten temat, pomagające w sytuacjach zagrożenia, oraz będą mogły również interweniować, gdy użytkownik wyszukuje informacji na ten temat.


Balans w takich sytuacjach wydaje się być świetnie zachowany przez Apple. Znana dziecięca pornografia będzie identyfikowana, a użytkownicy posiadający takie treści będą zgłaszani odpowiednim służbom.

Całość jednocześnie nie zabije sextingu, czyli wysłania sobie nagich zdjęć pomiędzy użytkownikami. Całkowicie rozumiem potrzeby poznawania intymnej części świata przez nastolatków, którzy stawiają pierwsze kroki w tej sferze, ale pamiętajcie o paru podstawowych zasadach:

  • Panowie – nie wysyłamy dick pics (zdjęć penisa) osobom, które wyraźnie o nie nie poprosiły. Zachowajcie trochę klasy. Jeśli jakaś Pani będzie je chciała, to o nie poprosi.
  • Panie i Panowie – nie rozpowszechniamy takich zdjęć i nie pokazujemy im nikomu. Jeśli prowadzicie pikantną korespondencję z większą liczbą osób, to zachowajcie dyskretność (no chyba, że mówimy tutaj o figurach geometrycznych i wszyscy się na to zgadzają – wyraźnie!).
  • Panie – panowie są przeważnie zdecydowanie bardziej prostolinijni mentalnie. Określajcie swoje potrzeby i granice wyraźnie i zrozumiale, tak aby nie było żadnych wątpliwości.
  • „Nie” oznacza nie. Nie „tak”, nie „może”. Nie. Jest kilka wyjątków, ale je będziecie musieli poznać na własnej skórze  w późniejszych latach swojego życia (zalecam ostrożność).

Wojtek Pietrusiewicz

Wydawca, fotograf, podróżnik, podcaster – niekoniecznie w tej kolejności. Lubię espresso, mechaniczne zegarki, mechaniczne klawiatury i zwinne samochody.

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .

Komentarze: 11

W artykule brakuje mi akapitu o tym ze ofc walka z dziecięca pronografia nie podlega dyskusji, jednak kiedy w przyszłości okaże się ze {jedzenie fasolki szparagowej*} (*tutaj kazdy wstawia co mu się podoba) jest wątpliwe moralnie lub zabronione przez prawo – to mają na na widelcu? Interesująca perspektywa doprawdy.

Nie, nie mają na widelcu, jest to baza hashy CSAM, do takiej bazy nie trafią zdjęcia fasolki szparagowej czy innych niechcianych rzeczy bo ty by taką bazę skompromitowało, a wtedy nikt z branży IT by jej nie stosował.

Co więcej, ta baza jest jedna dla wszystkich iPhonów, więc nie da się “targetować” jednostek.

I finalnie, nawet jeśli rząd zmusi NCMEC do wstawianie do bazy zdjęć molestowanych dzieci, zdjęć innych rzeczy, to w przedostatnim kroku, pracownik Apple, po wielu “trafieniach” na danym koncie iCloud, weryfikuje je ręcznie.

Wtedy, jeśli to nie będą zdjęcia dot. “child abuse”, NCMEC się zdyskredytuje, Apple będzie wiedziało, że NCMEC gra nieczysto, a konto iCloud i tak nie zostanie przekazane policji.

Także naprawdę jest tu wiele przystanków, na których taki spisek może się wywalić.

Jeśli do tej pory ktoś uznawał Apple za firmę dbającą o prywatność to tutaj nic nie powinno się zmienić.

• To właśnie Apple odmawiało FBI współpracy nad odzyskiwaniem danych z iPhone’a.
• To właśnie Apple stawia najdalej idące zabezpieczenia przed śledzeniem.

Teraz dodali, jak im się wydawało, funkcję która niesie wartość dodaną dla społeczeństwa, to jest wykrywanie zdjęć molestowania dzieci.

Musieli to dodać bo:
a) inne firmy już to dawno miały,
b) dysproporcje w zgłaszanych materiałach były już przeogromne, kiedy Facebook zgłaszał około ~30 milionów zdjęć z child abuse, Apple zgłaszało zaledwie 3000 sztuk,
c) to faktycznie pozytywna zmiana, raczej nikt nie jest temu przeciwny.
https://www.theverge.com/2020/2/7/21128223/child-abuse-videos-report-facebook-twitter-snap-google-microsoft

Apple udostępniło FAQ rozpisujące jak to dokładnie przebiega:
https://www.apple.com/child-safety/pdf/Expanded_Protections_for_Children_Frequently_Asked_Questions.pdf

Także reasumując, jest to silnik NeuralHash, generujący hash zdjęcia (więc nawet nie porównywane jest zdjęcie) do porównania z bazą CSAM, tylko przed wrzuceniem danego pliku do chmury.

Jeśli ktoś nie wierzy, że jest tak jak mówi Apple, to oszukuje sam siebie. Przecież iOS ma zamknięty kod źródłowy, więc teoretycznie, jeśli chcieliby śledzić i analizować w inny sposób, to by to po prostu zrobili, bez ogłaszania niczego.

A widzisz różnicę między wrzucaniem zdjęć do sieci, a trzymaniem na kupionym za ciężkie pieniądze prywatnym sprzęcie ?

Tak i zdjęcia trzymane na kupionym “za ciężkie pieniądze prywatnym sprzęcie” nie są porównywane z hashami, for the n-th time…

Chodzi o to, że to jest mój sprzęt prywatny, a Google itd. Porównuje coś na co wyraziłem zgodę umieszczając w ich serwisach, do tego ktoś/człowiek może przeglądać moje prywatne zdjęcia bo algorytm się pomylił…
Już w necie są przykłady jak łatwo oszukać i jak zawodne są tego typu „algorytmy”.

Jest „coś” jeszcze gorszego, mianowicie istnieje możliwość zniszczenia komuś życia wgrywają na jego tel zdjęcia o „pewny profilu”, nawet zdalnie nie jest to jakiś wielki wyczyn – co widać po atakach na ludzi pod kątem wyciągania danych/kasy z kont bankowych. W przypadku Google i spółki, łatwiej jest się bronić, natomiast mój telefon, laptop to już inna bajka…
Jest to mega niebezpieczna sytuacja, mega!
W prosty sposób będzie można komuś zniszczyć życie/szantażować!.

Jeszcze raz napisze może zrozumiesz, wrzucanie na FB a sytuacja z apple to różne sprawy, kwestia mojej decyzji, tu nie mam wyboru, prócz rezygnacji z usługi Apple/funkcjonalności, ale nadal na moim tel zostaje furtka, ta furtka przy ułomności ludzkiej, przeoczenia/błędów daje dodatkowe możliwości „innym”, jest to otwieranie furtki dla inwigilacji rządowej/złych ludzi, może nie w Europie „ na dziś” ale w Chinach na bank itd.

Człowiek uczciwy nie musi się obawiać niczego prócz ludzi nieuczciwych…

I kto to pisze? Serio? Odwrócenie sytuacji, w której bez udowodnienia winy jesteś niewinny. To teraz już domniemanie niewinności nie będzie obowiązywać? Nakaz w sprawie przeszukania nie będzie konieczny? Przecież to prywatna własność (zdjęcia), a algorytm jak zakwalifikuje to zadenuncjuje. Prywatność to sfera, która po takim działaniu jabca, przestaje istnieć.

I jeszcze to, co kończy ten szokujący wpis. Świat nie jest tak nieskomplikowany jak sobie pan redaktor tutaj radośnie wypisuje. Normalnie nie wierzę w to, co czytam… Ludzkie postępowanie, sposoby komunikacji, szczególnie w sferze seksu, w sferze intymnej, to nie prosty schemat TAK/NIE, jak można w ogóle takie coś sugerować? I to ma teraz oceniać ALGORYTM? To jakie są intencje, jaka jest interpretacja ludzkich zachowań ma być wypadkową maszynowego nauczania i decyzji oprogramowania co jest, a co nie jest patologią? Tego nie da się “ogarnąć”, zresztą narzędzie do świntuszenia, które nagle stanie się narzędziem samo-denuncjacji chyba samo się komentuje.

Każdy specjalista, każdy seksuolog, jak przeczyta sobie o tym pomyśle jabca to się za głowę złapie!

PS. Obecnie walka z dziecięcą pornografią to często walka z tym, co jest w darknecie. To jest patola, ale “dobre” Apple nie udostępni swoich technologii, swoich zasobów big data by z tym walczyć. Tego zrozumieć nie idzie…

Są dwa tematy rzucane przy okazji wprowadzenia dodatkowej „uzasadnionej” inwigilacji…
Pierwszy to terroryści – ciekawe jakie dane są w kwestii zatrzymań/ofiary ewentualne-, jak to się ma do wypadków śmiertelnych po pijaku…
No i drugi tem z którym nikt nie będzie dyskutował to Pedofillia.
Jeden i drugi temat „otwiera” furtki do inwigilacji, początkowo w wersji lite a potem…

Ja wiem ktoś napisze uczciwy nie m co się obawiać, ale przytoczę dla tych osób fajny tekst :

Uczciwa osoba nie musi się obawiać nikogo prócz tych nieuczciwych…

A na poziomie ostatnich ataków na osoby prywatne, szantaży, wyroków ludzkich bez zagłębienia się w temat, nie zrobisz tego to ujawnię to, nawet jeśli jest to „nic” to wiemy jak takie „nic” jest wstanie w dzisiejszych czasach zniszczyć komuś reputacje, zanim udowodni, że „nic” to „nic”.

Przykładem niech będzie „pegasus” miał być kontrolowany, tylko na przestępców a finalnie najwięcej szpiegowanych było dziennikarzy… Przecież z założenia są uczciwi i nic nie mają do ukrycia…

Wielu osób ma skonfigurowany dostęp do kamery na lock-screen’ie, prawda? (swipe-left i robimy zdjęcie – mega wygodna sprawa). Wielu osób ma włączone iCloud photos.
Teraz tak – wiemy że to nie są zwykłe “dokładne” hashe, tylko hashe “podobieństwa” – czyli jeśli zrobimy zdjęcie czarno-białe, podetniemy zdjęcie albo zmodyfikujemy inaczej – to hashe będą się zgadzać, prawda? Pewnie to znaczy też, że jeśli tego typu zdjęcie wydrukujemy, a później zrobimy temu wydrukowi zdjęcie – to hash będzie się zgadzać…
Rozumiecie do czego piję? Nie? A więc teraz jeśli wkurzy was szef w pracy, mąż/żona czy rodzic, robimy taki prosty myk:
1. Pozyskujemy w darknecie zdjęcia co do których mamy pewność że są w bazie
2. Drukujemy
3. Bierzemy telefon nielubianej osoby – może być zablokowany
4. Włączamy kamerę (swipe-left w większości przypadków)
5. Robimy tym telefonem zdjęcia zdjęciom z punktu 2 – im więcej zdjęć tym lepiej
6. (opcjonalnie) najlepiej jeśli telefon jest w zasięgu znanej sieci wifi i podepniemy go pod ładowarkę, by szybciutko wszystko się wysłało do iCloud.
7. Konto tej osoby prawie natychmiastowo będzie zablokowane, zdjęcia przejrzy człowiek i zgłosi do policji. Teraz to problem tego człowieka jak wytłumaczy w sądzie że to nie on robił te zdjęcia.

Co robić?
a. nie używać iCloud
b. nie aktualizować się do iOS 15
c. przestać używać iPhone/Mac, doszkolić się i używać sprzęt bazujący na Linux. (nie Android oczywiście)