Apple

Z apple.com znika info o CSAM, narzędziu polującym na dziecięcą pornografię

Krzysztof Kurdyła
Z apple.com znika info o CSAM, narzędziu polującym na dziecięcą pornografię
1

W wakacje opisywaliśmy na Antyweb mechanizm CSAM, mają pozwolić Apple na analizę zdjęć użytkowników iCloud, przygotowany tak, aby wyłapywać posiadaczy dziecięcej pornografii, a jednocześnie zapewnić prywatność uczciwym użytkownikom. Zadanie okazało się trudniejsze, niż zakładano.

CSAM znika ze stron

Jak zauważyli dziennikarze jednego z największych serwisów specjalizujących się w tematyce Apple, MacRumors, w grudniu Apple zaktualizowało stronę internetową opisującą funkcje zapewniające bezpieczeństwo dzieci. Wykasowało z niej wszystkie odniesienia dotyczące kontrowersyjnego mechanizmu CSAM, którego wprowadzenie do systemów operacyjnych firmy planowano początkowo na ten rok.

O ile sama walka z pornografią dziecięcą kontrowersyjna nie jest, to mechanizm, który stworzono w Cupertino jest niezwykle groźny dla wszystkich. CSAM otwiera rządom banalnie prostą w użyciu tylną furtkę do przeszukiwania wszystkich danych użytkowników pod kątem dowolnego tematu. Wystarczy, że zostanie wydana decyzja administracyjna nakazująca firmie przeszukiwanie innych baz z cyfrowymi odciskami, na przykład takich zawierających zdjęcia o tematyce politycznej, i CSAM może zmienić się w skuteczne narzędzie opresji.

Co prawda koncern bardzo szybko oświadczył, że nie przychyli się do takich żądań, ale to może być względną prawdą tylko w Stanach Zjednoczonych i może Europie, gdzie firma może sobie pójść na wojnę sądową. W przypadku krajów o, nazwijmy to, innej kulturze prawnej, CSAM to narzędzie-marzenie dla każdej służby bezpieczeństwa. Apple pod ciężarem krytyki się zreflektowało jeszcze we wrześniu i ogłosiło, że mechanizm CSAM zostanie jeszcze raz przeanalizowany, a jego wprowadzenie się opóźni.

Próba naprawy

Najwyraźniej w Cupertino zauważono, że CSAM otwiera szeroką bramę wjazdową do ekosystemu Apple, a jej zabezpieczenie nie będzie łatwe. Informacje o mechanizmie zostały usunięte, pozostała jedynie dokumentacja PDF.  Serwis The Verge dowiedział się, że projekt nie został co prawda skasowany, ale Apple potrzebuje znacznie więcej czasu na jego analizę i próbę stworzenia lepszego machanizmu zabezpieczeń.

Osobiście mam wątpliwości, czy to się może udać, problem leży w samej idei tego narzędzia, odwoływania się do zewnętrznych baz i cyfrowych odcisków. Ciężko sobie wyobrazić, jak Apple byłoby w stanie ten problem obejść, samo takiej bazy nie jest w stanie wytworzyć, co więcej, w przypadku pornografii nie ma prawa jej stworzyć.

Wydaje się, że jedyną opcją byłoby ukrycie tego, że taki mechanizm w ogóle funkcjonuje, ale to z kilku przyczyn wydaje się nierealne. Po pierwsze, aby użyć czegoś, jako dowodu przed sądem trzeba wykazać, jak się w jego posiadanie weszło. Po drugie, przy dzisiejszych technologiach wykrycie takiego mechanizmu przez białych hakerów byłoby kwestią niezbyt długiego czasu. Po trzecie, wszyscy o nim już wiedzą.

Co gorsza, mam wrażenie, że sprawa była na tyle głośna medialnie, że w niektórych krajach mogą już trwać prace nad przepisami umożliwiającymi narzucenie twórcom systemów obowiązku wprowadzenia podobnych mechanizmów. To oczywiście moja spekulacja, ale będąc szefem służb w kraju inwigilującym obywateli, na pewno na pomysł Apple zwróciłbym uwagę, choćby właśnie ze względu na typowo applowską „elegancję” i elastyczność tego rozwiązania.

Jak walczyć?

Problem namierzania dziecięcej pornografii jest niezwykle skomplikowany, właśnie przez to, że proponowane w ostatnim czasie narzędzia skupiają się na przeszukiwaniu wszystkiego, co znalazło w sieci. To musi zderzyć się z problemem utrzymania jako takiej prywatności uczciwych użytkowników sieci, może też generować problemy z celnością wyników. W jaką stronę więc pójść?

Narzędzia nadzoru rodzicielskiego, takie jak te, które już pojawiły się w iOS czy otwarte listy przestępców seksualnych w sieci nie budzą niczyjego sprzeciwu. Dofinansowanie oddziałów policyjnych aktywnie poszukujących źródeł pornografii tego typu czy systemu zgłaszania tych przestępstw chroniącego ofiary takich przestępstw nawet ułamkiem kwoty, która wydawana jest na budowę mechanizmów takich jak CSAM, byłoby moim zdaniem znacznie bardziej efektywne.

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu