Sprawdź jaki laptop Intel Evo jest najlepszy dla Ciebie Więcej
Apple

Apple walczy z dziecięcą pornografią. Miks dobrych i groźnych rozwiązań

KK
Krzysztof Kurdyła
29

Sprawa poszanowania prywatności danych, w kontekście jednoczesnej konieczności zapobiegania i łapania przestępców od dawna budzi kontrowersje. Niezwykle trudno jest znaleźć złoty środek. Teraz próbuje tego Apple, ale mam wrażenie, że niechcący może stworzyć backdoora idealnego.

Kilka dni temu świat obiegła informacja o tym, że Apple tworzy system walki z pornografią dziecięcą, który będzie analizował zdjęcie trzymane w iCloud, oznaczał je i w przypadku przekroczenia jakiejś ich ilości przekazywał wyznaczonym pracownikom do oceny. Ci zaś, po dalszych analizach będą decydować co dalej z tym robić. Choć walka z pornografią dziecięcą jest rzeczą, która powinna być na każdym poziomie zintensyfikowana, informacja wzbudziła wiele kontrowersji, dotyczących tego, co oznacza to dla prywatności nas wszystkich. W odpowiedzi na burzę Apple doprecyzowało wiele informacji, ale raczej nie obniży to temperatury sporu.

Co Apple zrobi?

Apple wprowadza trzy narzędzia, które mają pomóc w walce z pornografią dziecięcą. Są to:
- wbudowanie dodatkowych informacji dotyczących tej kwestii w Siri i wyszukiwarkę
- kontrola rodzicielska nad aplikacją Wiadomości
- system wykrywania nielegalnych zdjęć, zwany CSAM
Pierwsze dwa elementy nie budzą żadnych kontrowersji, ba, nadzór nad Wiadomościami wydaje się bardzo dobrym pomysłem. Kontrowersje, moim zdaniem słuszne, budzi punkt ostatni. Ale jedźmy po kolei.

Rozwiązania dobre

Nad Siri nie ma się co rozwodzić. System ma zostać „nakarmiony” danymi pomocnymi dla osób szukających w tych kwestiach pomocy. Ma też reagować na wyszukiwanie rzeczy mogących prowadzić na strony o tego typu tematyce i informować o zagrożeniach z tym związanych.

Drugie rozwiązanie pozwoli włączyć rodzicom, którzy utworzyli Chmurę Rodzinną, nadzór rodzicielski nad Wiadomościami. Objęte tym mechanizmem zostaną więc wiadomości SMS, MMS i iMessage. Opcja będzie działać w pełnym zakresie na kontach dzieci do lat 13 i domyślnie będzie wyłączona.

Po jej włączeniu, jeśli po odszyfrowaniu odebranej wiadomości lub przy próbie wysyłki przez dziecko, iOS odnajdzie tam treści o charakterze seksualnym, powiadomi rodziców, a dziecko otrzyma ostrzeżenie o niebezpieczeństwie.

Młodzież w wieku 13 - 18 lat będzie z kolei ostrzegana, ale już bez powiadamiania rodziców. Wszystko ma odbywać się wyłącznie w ramach Chmury Rodzinnej, żadne informacje nie trafią do Apple, ani do żadnych organów ścigania.

Rozwiązania złe

Tutaj przechodzimy do punktu ostatniego, bardzo groźnego w mojej ocenie. System stworzony przez Apple ma działać w oparciu o identyfikatory z bazy zdjęć uznanych za dziecięcą pornografię. Jest to baza NCMEC czyli National Center for Missing and Exploited Children, założona i prowadzona przez rząd amerykański.

System Apple będzie porównywał hashe z bazą, a po wykryciu pewnej ilości (nie wiadomo jakiej) zdjęć nimi opatrzonych prześle informację do rozpatrzenia swoim pracownikom. Ci, jeśli uznają, że sprawa ma znamiona celowego działania, przekaże sprawę odpowiednim służbom.

Wspomniane odciski, to specjalnie wygenerowane na podstawie kluczowych cech zdjęć hashe, które są w stanie przetrwać takie manipulacje jak zmiana kolorów czy kadrowanie. Czyli, analizę przeprowadza wspomniana organizacja, a iPhony nie analizują zdjęcia w sensie analizy treści, tylko porównują ich matematyczne opisy.

To zabezpiecza użytkownika przed tym, że ktoś zrobi zdjęcie swojemu dziecku w wannie i w ten sposób trafi na listę podejrzanych. To dobrze, ale problemy moim zdaniem są znacznie... wyższego rzędu.

Po pierwsze, system pozwala ograniczać ślady w przypadku gdy chce się kogoś w pornografię wkopać. W sytuacjach związanych z rozwodami, biznesem czy polityką takie rzeczy się zdarzają. Tam jednak ktoś musi zostawić ślad w postaci donosu, śledztwa etc. tutaj sprawę załatwi algorytm i trwająca dość długi czas procedura.

Backdoor idealny?

To jednak rzecz, której obawiałbym się mniej, bardziej niepokojące jest to, że Apple stworzył... najłatwiejszy w obsłudze backdoor o jakim słyszałem. Po niewielkich modyfikacjach może pozwolić na wyszukiwanie dowolnych treści, ze znacznie większą precyzją, niż analizujące po zawartości systemy.

Tak naprawdę jestem w stanie sobie wyobrazić prosty interfejs-marzenie dla każdego rządu. Będzie na nim lista baz z odpowiednio ohashowanych zdjęciami, np. placem Tienianmen. Następnie byłoby pole w którym można ustawić ilość koniecznych „podejrzanych” zdjęć, aby system zareagował. Trzecim polem będzie agencja, do której mają trafić podejrzane wyniki. Oczywiście to uproszczenie, ale mam nadzieję, że łapiecie o co mi chodzi.

Wszystko na podstawie prostej ustawy, która ze względu na obawy o np. możliwe szpiegostwo, przekaże zarządzanie takimi systemami instytucjom rządowym. Na pytanie co zrobiłoby Apple, przedstawiciel firmy odpowiedział, że Apple odrzuci wszelkie takie żądania ze strony rządów: „Poinformujemy ich, że nie zbudowaliśmy tego, co im się wydaje”.

Wam pozostawię ocenę, czy faktycznie Apple będzie takie twarde, szczególnie poza Stanami Zjednoczonymi. Sytuacja z iCloud w Chinach pokazuje, że Apple po prostu będzie zmuszone poddać się przepisom lokalnego prawa. Dodam też, że pozorne zachowanie prywatności jakie „oferuje” ten system, pozwali moim zdaniem łatwiej przejąć nadzór nad nim nawet w Stanach.

I to właśnie jest najbardziej dla mnie przerażające, Apple stworzył prościutkie narzędzie, dając pozory poszanowania prywatności, które w zdeterminowanych rękach można szybko i łatwo zamienić w narzędzie nadzoru nad dowolnymi tematami.

Znacznie prościej, niż w teoretycznie znacznie gorszych i mniej godnych zaufania systemach Google czy Microsoftu. Te są mniej przejrzyste, i aby rząd mógł położyć na nich łapę, musi sporo pieniędzy, zasobów i ludzi w to zainwestować. W rozwiązaniu Apple wystarczy prosty algorytm haszujący zdjęcia o zadanej tematyce, który dodatkowo będzie działał na platformie mającej większe zaufanie użytkowników. Chociaż... mechanizm jest tak kuszący, że nie zdziwię się, jeśli rządy wymuszą jego implementację także na innych platformach.

Źródła: [1], [2], [3]

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Więcej na tematy: