Apple

Apple wstrzymuje implementację algorytmu wykrywającego pedofilskie treści

Kamil Świtalski
19

Po burzy która przetoczyła się po zapowiedzi nowej funkcji, Apple zabrało głos i postanowiło wstrzymać się z implementacją nowej funkcji w nadchodzącym iOS 15.

Kilka tygodni temu w internecie zawrzało. Apple ogłosiło, że w iOS 15 wprowadzą technologię skanującą zdjęcia użytkowników w poszukiwaniu dziecięcej pornografii. Dogłębnie na ten temat rozpisał się już Krzysztof w swoim tekście Apple walczy z dziecięcą pornografią. Miks dobrych i groźnych rozwiązań, a swój punkt widzenia chwilę później przedstawił także Jakub w artykule Apple "szpieguje" OD LAT, by łowić pedofilów. Nie mam z tym problemu. Temat prowokował wiele dyskusji, użytkownicy dość mocno wyrażali swoje zaniepokojenie związane z potencjalnymi nadużyciami w wykorzystaniu takich algorytmów. Pod naciskiem różnych organizacji i bardzo negatywnego odzewu ze strony klientów, Apple zdecydowało się wstrzymać implementację algorytmów skanujących zdjęcia w poszukiwaniu nielegalnych treści.

Jeszcze nie w iOS 15. Apple wstrzymuje się z wprowadzeniem algorytmu poszukującego pedofilskich treści

Przedstawiając zaprezentowaną funkcję, Krzysztof pisał:

(...) moduł, który wykrywa CSAM (Children Sexual Abuse Material), czyli dziecięcą pornografię, która może być przechowywana na kontach iCloud użytkowników. W tym celu specjalny algorytm będzie badał zdjęcia na iPhone'ach przed ich wysłaniem na iCloud i porównywał je ze znajdującymi się w bazie sygnaturami dla zdjęć CSAM. Jeżeli zostanie znalezione powiązanie, algorytm nie uruchamia od razu alarmu, ale przesyła na iCloud zdjęcie wraz ze specjalnym, niewidocznym dla użytkownika zgłoszeniem, iż CSAM został wykryty. Jeżeli liczba zgłoszeń przekroczy pewną wartość krytyczną, do akcji wchodzi pracownik Apple, który weryfikuje, czy rzeczywiście mamy tu do czynienia z takimi materiałami, czy też algorytm się pomylił. Jeżeli faktycznie wykryje nieprawidłowości, przygotowane jest zgłoszenie do National Center for Missing and Exploited Children. Funkcja, póki co, będzie więc działała na terenie USA.

Apple postanowiło dać sobie na wstrzymanie i w rozmowie z TechCrunch oficjalnie potwierdziło, że przedstawione w ubiegłym miesiącu plany związane z ochroną najmłodszych póki co zdecydowali się wstrzymać implementację nowych funkcji. Przed ich wprowadzeniem chcą dopracować wszystkie algorytmy by zapewnić 100% bezpieczeństwa każdej ze stron. Prawdopodobnie chcą tutaj przede wszystkim odnieść się do wszystkich uwag które mają specjaliści ds. bezpieczeństwa, snujący rozmaite wizje nadużyć związanych z wykorzystaniem takiej funkcji by narobić komuś problemów.

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Więcej na tematy: