Bezpieczeństwo w sieci

Technologie wykrywające dziecięcą pornografię nie są kompletne. Największe firmy zawodzą

Kacper Cembrowski
6

Technologie wykrywania dziecięcej pornografii to niezbędny element i zwyczajnie czysta konieczność. Niestety, lecz żadne rozwiązanie największych firm nie jest kompletne.

Oczywiście, zawsze przy rozmowach na temat podobnych technologii i algorytmów mamy w głowie temat prywatności. Kwestia tego, czy stawiamy prywatność czy bezpieczeństwo na pierwszym miejscu jest częstym tematem w sieci - niezależnie od tego, po jakiej stronie stoimy, wszyscy jesteśmy zgodni w temacie szkodliwości rozpowszechniania dziecięcej pornografii i skali tego problemu. Z tego względu zwyczajnie wszelkie technologie, których celem jest wykrycie CSAM (Children Sexual Abuse Material), powinny być rozwijane.

PhotoDNA - popularne, lecz wadliwe narzędzie Microsoftu

Jedną z technologii, której celem jest wykrycie CSAM, jest PhotoDNA od Microsoftu. Po rozwiązanie giganta z Redmond sięga całe mnóstwo popularnych firm, takich jak Facebook, Instagram, Twitter czy Adobe. Sposób działania jest dość tradycyjny - oprogramowanie tworzy unikalny podpis cyfrowy dowolnego obrazu, a następnie porównuje go z innymi zdjęciami, aby znaleźć podobieństwa - w momencie, kiedy pojawią się bliźniacze elementy do tych przedstawiających zakazane treści, grafika lub wideo jest od razu usuwane i oczywiście wyciągane są z tego konsekwencje.

Całość brzmi naprawdę sensownie, do tego jest używana przez ogromne firmy. Dlaczego więc wymieniamy PhotoDNA wśród narzędzi, które nie są kompletne? Szkopuł tkwi w tym, że jeśli fragment takiej treści nie należy do określonej bazy danych Microsoftu, jest nowszy niż te wprowadzone lub został zmodyfikowany, algorytm go pominie - w związku z czym, całość jest zaskakująco łatwa do złamania. “Przemycenie” nielegalnych treści przez bramki PhotoDNA wcale nie jest zatem takie trudne - co sprawia, że zaufanie do całości zdecydowanie się zmniejsza.

Źródło: Microsoft

Niedawno informowaliśmy o tym, że Twitter w celu zwiększenia swoich przychodów myślał nad tym, żeby zostać konkurencją dla OnlyFans i monetyzować pornografię. Luki w PhotoDNA były głównym elementem, który powstrzymał social media z niebieskim ptakiem w logo przed tą decyzją - narzędzie Microsoftu zwyczajnie jest za mało zaawansowane, żeby można było na tym opierać podobną działalność.

NeuralHash, czyli wielki plan Apple, który… zniknął

Moduł giganta z Cupertino o nazwie NeuralHash miał wykrywać CSAM, które może być przechowywana na kontach iCloud użytkowników. W tym celu specjalny algorytm miał badał zdjęcia na iPhone'ach przed ich wysłaniem na iCloud i porównywał je ze znajdującymi się w bazie sygnaturami dla zdjęć CSAM. Jeżeli zostanie znalezione powiązanie, algorytm nie uruchamia od razu alarmu, ale przesyła na iCloud zdjęcie wraz ze specjalnym, niewidocznym dla użytkownika zgłoszeniem, iż CSAM został wykryty. Jeżeli liczba zgłoszeń przekroczy pewną wartość krytyczną (więcej niż 30 dopasowań), do akcji wchodzi pracownik Apple, który weryfikuje, czy rzeczywiście mamy tu do czynienia z takimi materiałami, czy też algorytm się pomylił. Jeżeli faktycznie wykryje nieprawidłowości, przygotowywane jest zgłoszenie do National Center for Missing and Exploited Children.

Pomysł Apple zyskał ogromne poparcie wśród brytyjskiego rządu - sęk w tym, że do tej pory Apple wyłącznie nabrało wody w usta. Chociaż program działa w zdecydowanie słusznej sprawie, taki pomysł wywołał mnóstwo wątpliwości nie tylko wśród ekspertów do spraw cyberbezpieczeństwa, ale również użytkowników czy nawet pracowników firmy. Apple, które w dobie wszystkich wydarzeń w branży tech wypada całkiem nieźle jeśli chodzi o prywatność użytkowników, w tej kwestii “zawiodło” wiele osób i nie spotkało się ze zbyt optymistycznym odbiorem tego pomysłu. Mając na uwadze, że po fali krytyki firma na której czele stoi Tim Cook całkowicie zamilkła w tej sprawie, a ze strony internetowej Apple zniknęły jakiekolwiek informacje o NeuralHash, można przypuszczać, że ich moduł wykrywania CSAM zapadł się pod ziemię.

Google Content Safety API. Najlepsze i jednocześnie najgorsze

Google również opracowało kilka lat temu własny algorytm wykrywający CSAM. Sposób działania jest taki sam, jak w poprzednich przypadkach - tutaj jednak można znaleźć najmniej informacji o jakiejkolwiek wadliwości… lecz były przypadki, w których algorytmy te sprawiały problemy w nieco inny sposób, co jest spowodowane za mało rozwiniętą sztuczną inteligencją.

Jakiś czas temu przedstawialiśmy historię mężczyzny, który widząc opuchliznę na genitaliach swojego małego syna, przed wizytą w szpitalu na prośbę lekarza, wysłał mu zdjęcia rany. Content Safety API zadziałało, wszystkie konta Google mężczyzny zostały zablokowane, a dodatkowo sprawa od razu trafiła na policję, która momentalnie rozpoczęła śledztwo w sprawie ojca. Przez blokadę kont Google, nie była jednak w stanie od razu się z nim skontaktować.

Źródło: Depositphotos

AI nie jest w stanie rozróżnić medycznych i nagłych potrzeb od faktycznego wykorzystywania i rozpowszechniania pornografii dziecięcej. Systemy blokujące takich użytkowników również nie pomagają w rozwiązaniu sytuacji - i jeśli algorytm przeciwko CSAM zadziała, to tworzy się mnóstwo problemów.

Niestety, lecz w tej chwili nie ma żadnego dobrego rozwiązania tego problemu i najwięksi giganci albo nie są w stanie dostatecznie tych algorytmów ulepszyć, albo wycofują się z tego pomysłu i pozostawiają to innym.

Stock Image from Depositphotos

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu