Apple

Apple nie będzie szukać w chmurze iCloud dziecięcej pornografii. Dlaczego?

Piotr Kurek
0

Apple oficjalnie potwierdziło, że system CSAM skanujący zdjęcia przesyłane do chmury iCloud nie zostanie zaimplementowany. To efekt wprowadzenia przez firmę nowych opcji bezpieczeństwa, które mają gwarantować pełne szyfrowanie danych przechowywanych w chmurze.

W sierpniu ubiegłego roku Apple poinformowało o pracach nad wprowadzeniem do systemu iOS technologii skanującej zdjęcia użytkowników w poszukiwaniu dziecięcej pornografii. Internet szybko zareagował - i to bardzo krytycznie. Na łamach Antyweb pojawiło się też kilka interesujących tekstów, z którymi warto się zapoznać. Krzysztof we wpisie Apple walczy z dziecięcą pornografią. Miks dobrych i groźnych rozwiązań dogłębnie przyjrzał się temu rozwiązaniu, a swój punkt widzenia chwilę później przedstawił także Jakub w artykule Apple "szpieguje" OD LAT, by łowić pedofilów. Nie mam z tym problemu. Na reakcję społeczności nie trzeba było długo czekać - podobnie jak na ruch ze strony samego Apple.

Pod naciskiem różnych organizacji i bardzo negatywnego odzewu ze strony klientów, firma zdecydowała się wstrzymać implementację algorytmów skanujących zdjęcia w poszukiwaniu nielegalnych treści - mimo aprobaty m.in. Unii Europejskiej, która chętnie widziałaby możliwość inwigilacji komunikatorów. Początkowo mówiono o konieczności dopracowania technologii w taki sposób, by wszystko było jawne i klarowne, jednak Apple zamiotło sprawę pod dywan, usunęło ze swojej strony wszystkie informacje o CSAM i zapomniało o całym zamieszaniu. Do teraz. Przy okazji przedstawienia nowych rozwiązań związanych z bezpieczeństwem naszych danych na iOS (i nie tylko), przedstawiciele amerykańskiej firmy zabrali głos w sprawie CSAM.

CSAM do piachu. Apple zapomina o technologii skanowania zdjęć w poszukiwaniu dziecięcej pornografii

W rozmowie z The Wall Street Journal Craig Federighi potwierdził, że Apple wycofało się z wprowadzenia systemu CSAM - tłumaczył to m.in. ogromną krytyką ze strony organizacji zajmujących się ochroną i bezpieczeństwem danych, ekspertów wyrażających swoje obawy, że może on być wykorzystywany przez władze lub hakerów w celu uzyskania dostępu do wrażliwych informacji w telefonie. Zamiast rozwiązań umożliwiających skanowanie zdjęć w chmurze, Apple do sprawy podchodzi z nieco innej strony - oddając rodzicom narzędzia ułatwiające kontrolę tego, co ze swoim iPhonem robią ich dzieci. To m.in. "Bezpieczeństwo komunikacji" - funkcja dostępna z poziomu "Czasu przed ekranem", którą można włączyć zdanie i pozwala na włączenie dodatkowych zabezpieczeń w postaci alertów o nagich zdjęciach. Po włączeniu tej opcji pojawiają się również ostrzeżenia gdy użytkowników próbuje wysłać lub odebrać w aplikacji Wiadomości zdjęcia, które zawierają nagość.

Oficjalne informacje o zrezygnowaniu z dalszych prac nad CSAM towarzyszyły wczorajszym zapowiedziom rozszerzonych opcji bezpieczeństwa, z których użytkownicy sprzętów Apple będą mogli korzystać już niebawem. Szyfrowane kopie zapasowe, wiadomości, zdjęcia, i inne treści wysyłane do Chmury nie będą widoczne dla Apple - a co za tym idzie, także dla służb (przynajmniej według zapewnień Apple). Wszystkie klucze niezbędne do odszyfrowania tych informacji będą przechowywane lokalnie i tylko zaufane urządzenia użytkownika będą miały do nich dostęp.

Firma rozszerza też zabezpieczenia iMessage - aplikacja będzie miała możliwość informowania nas czy rozmówca, z którym prowadzimy rozmowę, jest tym, za kogo się podaje. Weryfikacja kluczy bezpieczeństwa ma być również przydatna wtedy, gdy istnieje ryzyko ataku hakerskiego lub za pomocą narzędzi inwigilacyjnych typu Pegasus - wtedy w iMessage mają pojawić się ostrzeżenia o możliwości ingerencji stron trzecich.

Stock Image from Depositphotos

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu