CSAM wkrótce obowiązkowy w UE?
Komisja Europejska publikuje projekt ustawy w sprawie obowiązkowego wykrywania materiałów zawierających seksualne wykorzystywanie dzieci na platformach cyfrowych.
Projekt ustawy, która może wymagać od firm technologicznych, takich jak Apple i Google, identyfikowania, usuwania i zgłaszania organom ścigania nielegalnych zdjęć przedstawiających wykorzystywanie dzieci na swoich platformach, trafiła na stół.
Według przecieku propozycji uzyskanej przez Politico, KE uważa, że dobrowolne działania podjęte przez niektóre firmy cyfrowe do tej pory „okazały się niewystarczające” w przeciwdziałaniu coraz częstszemu nadużywaniu usług internetowych, w celu udostępniania treści związanych z seksualnym wykorzystywaniem dzieci.
Po miesiącach lobbingu, grupy reprezentujące firmy technologiczne i organizacje zajmujące się prawami dziecka podobno czekają, aby zobaczyć, jak surowe mogą być przepisy i jak będą działać bez konieczności skanowania przez firmy technologiczne treści użytkowników. Ta praktyka została uznana za nielegalną przez Trybunał Sprawiedliwości Unii Europejskiej w 2016 r.
Komisarz ds. wewnętrznych KE, Ylva Johansson, powiedziała, że istnieją rozwiązania techniczne, które zapewniają bezpieczeństwo rozmów podczas wyszukiwania nielegalnych treści, ale eksperci ds. cyberbezpieczeństwa nie zgadzają się z tym.
UE nie powinna proponować rzeczy, które są technologicznie niemożliwe.
– powiedziała w rozmowie z Politico Ella Jakubowska. Jakubowska jest doradcą politycznym w European Digital Rights (EDRi), sieci 45 organizacji pozarządowych (NGO).
Pomysł, że setki milionów ludzi w UE miałyby komunikację prywatną, w której mają uzasadnione oczekiwanie, że jest to prywatna, a tymczasem miałaby ona być skanowana 24 godziny na dobę, jest bezprecedensowy.
– dodała.
Posłowie do PE są jednak dalecy od porozumienia w tej sprawie. Reagując na wyciek propozycji, centrowy eurodeputowany Renew Europe Moritz Körner powiedział Politico, że propozycja Komisji oznaczałaby, że „prywatność cyfrowej korespondencji byłaby martwa”.
Apple opóźnia wdrożenie wykrywania pornografii dziecięcej (CSAM)
Apple w sierpniu 2021 r. ogłosiło planowany pakiet nowych funkcji bezpieczeństwa, w tym skanowanie bibliotek iCloud Photos pod kątem CSAM i bezpieczeństwa komunikacji, aby ostrzec dzieci i ich rodziców podczas odbierania lub wysyłania zdjęć o charakterze jednoznacznie seksualnym. Ta ostatnia i prawdopodobnie mniej kontrowersyjna funkcja jest już dostępna na platformie iMessage. Metoda skanowania w poszukiwaniu CSAM nie została jeszcze wdrożona.
Protesty przeciwko CSAM na iOS pod wieloma sklepami Apple w USA
Po ogłoszeniu przez Apple funkcje te zostały skrytykowane przez szerokie grono osób i organizacji, w tym badaczy bezpieczeństwa, Electronic Frontier Foundation (EFF), byłego szefa bezpieczeństwa Facebooka, polityków, grupy polityczne, badaczy uniwersyteckich, a nawet niektórych pracowników Apple.
Większość krytyki dotyczyła planowanego przez Apple wykrywania CSAM na urządzeniu, które zostało potępione przez naukowców za poleganie na niebezpiecznej technologii graniczącej z inwigilacją i wyszydzone za nieskuteczność w identyfikowaniu obrazów przedstawiających seksualne wykorzystywania dzieci.
Jednak Apple twierdzi, że jego plany dotyczące wykrywania CSAM nie zmieniły się od września, co sugeruje, że wykrywanie CSAM w jakiejś formie zostanie wprowadzone. Być może więcej dowiemy się podczas nadchodzącego WWDC 2022.
Komisja Europejska wymusi na Apple porzucenie portu Lighting?