Kwestia tego, czy jesteśmy w stanie poświęcić prywatność w internecie na rzecz bezpieczeństwa, przewija się już od wielu lat. Ilu ludzi, tyle opinii - brytyjski rząd jednak stawia sprawę jasno.
Role się odwróciły. Brytyjski rząd krytykuje Facebooka za szyfrowanie komunikatora... i chwali Apple

Służby z Wielkiej Brytanii jakiś czas temu apelowały o to, aby skanować treści wysyłane przez użytkowników w celu zabezpieczenia przed wykorzystywaniem seksualnym dzieci. Rząd UK zabrał głos w tej sprawie, popierając ten apel oraz twierdząc, że CSAM od Apple jest idealnym rozwiązaniem - Priti Patel w swoim piśmie potwierdziła owo stanowisko, krytykując przy okazji plany Facebooka za… zbyt dużą prywatność dla użytkowników.
Czym w ogóle jest CSAM od Apple?
Gigant z Cupertino pierwsze plany dotyczące CSAM przedstawił około rok temu - od tamtej pory jednak temat stoi w miejscu, do tego stopnia, że większość ludzi o tym zapomniała. Jak widać, nie brytyjski rząd.
Moduł wykrywa CSAM (Children Sexual Abuse Material), czyli dziecięcą pornografię, która może być przechowywana na kontach iCloud użytkowników. Jak wyjaśnił Krzysztof Rojek w swoim tekście, w tym celu specjalny algorytm będzie badał zdjęcia na iPhone'ach przed ich wysłaniem na iCloud i porównywał je ze znajdującymi się w bazie sygnaturami dla zdjęć CSAM. Jeżeli zostanie znalezione powiązanie, algorytm nie uruchamia od razu alarmu, ale przesyła na iCloud zdjęcie wraz ze specjalnym, niewidocznym dla użytkownika zgłoszeniem, iż CSAM został wykryty. Jeżeli liczba zgłoszeń przekroczy pewną wartość krytyczną (więcej niż 30 dopasowań), do akcji wchodzi pracownik Apple, który weryfikuje, czy rzeczywiście mamy tu do czynienia z takimi materiałami, czy też algorytm się pomylił. Jeżeli faktycznie wykryje nieprawidłowości, przygotowywane jest zgłoszenie do National Center for Missing and Exploited Children.
Chociaż program działa w zdecydowanie słusznej sprawie, taki pomysł wywołał mnóstwo wątpliwości nie tylko wśród ekspertów do spraw cyberbezpieczeństwa, ale również użytkowników czy nawet pracowników firmy. Apple, które w dobie wszystkich wydarzeń w branży tech wypada całkiem nieźle jeśli chodzi o prywatność użytkowników, w tej kwestii “zawiodło” wiele osób i nie spotkało się ze zbyt optymistycznym odbiorem tego pomysłu.
Brytyjski rząd nie ma jednak wątpliwości, że takie rozwiązanie jest doskonałe
Rząd Wielkiej Brytanii nie ma jednak żadnych wątpliwości co do CSAM i otwarcie przyznaje, że to doskonałe rozwiązanie. Według rządu UK monitorowanie treści użytkowników w ten sposób jest idealnym balansem na granicy bezpieczeństwa i prywatności. Government Communications Headquarters twierdzi nawet, że technologia ta pozwala na jednoczesną ochronę dzieci i dbanie o prywatność użytkowników.
Brytyjski rząd już od długiego czasu jest ogromnym przeciwnikiem szyfrowania end-to-end, który sprawia, że wiadomości i wysyłane treści z danego kanału komunikacyjnego mogą zostać odczytane tylko i wyłącznie przez członków konwersacji i nikt inny nie ma do tego dostępu. Coś, czego oczekuje większość z nas. Najpopularniejszym obecnie komunikatorem wykorzystującym szyfrowanie E2E jest Signal, lecz wkrótce, za sprawą Messengera, może się to zmienić.
Facebook wreszcie chce zagwarantować użytkownikom pełną prywatność. Wielka Brytania jednak nie popiera takiego rozwiązania
Meta, która ma dość kiepską renomę w kwestii szanowania prywatności swoich użytkowników, ogłosiła jakiś czas temu, że testuje szyfrowanie end-to-end dla Facebooka i Instagrama. Całość ma wejść w życie w przyszłym roku, a firma Zuckerberga zapewnia, że będzie to domyślne ustawienie dla prywatnych rozmów na platformach Mety.
Patel uważa jednak, że takie rozwiązanie nie jest słuszne, tłumacząc, że E2E bez CSAM to katastrofalny i niebezpieczny pomysł, który może przynieść tragiczne rezultaty. Fakt, social media to niebezpieczne miejsce, będące niejednokrotnie narzędziem dla pedofilów. W momencie, kiedy wprowadzone zostanie szyfrowanie end-to-end, nikt nie będzie w stanie tego wykryć. Wielka Brytania uważa, że kontrolowanie wysyłanych treści to absolutna podstawa i konieczność.
Czy CSAM może stać się wymogiem prawnym? Ciężko powiedzieć - warto jednak zaznaczyć, że Apple zamilkło w tej sprawie, a ze strony firmy z nadgryzionym jabłkiem w logo zniknęły jakiekolwiek informacje dotyczące narzędzia polującego na dziecięcą pornografię. To sugeruje, że gigant z Cupertino po cichu chciał się wycofać ze swojej decyzji, która wzbudziła całą masę kontrowersji. Teraz może zostać jednak zmuszony do zabrania głosu.
Źródło: 9to5Mac
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu