Nie można odwrócić pewnego procesu - coraz mocniejsze oddziaływanie mediów społecznościowych na dzieci. Izolowanie najmłodszych od zdobyczy technologii jest wskazane, ale głównie w zakresie długości korzystania z nich. Social media to w mojej opinii nie jest miejsce dla młodych poniżej pewnego wieku. Próg wiekowy powyżej 13 lat uważam za całkiem rozsądny: jednak w dalszym ciągu mamy kilka ładnych lat do pełnoletności. No i dwa lata do tzw. "wieku zgody", który w Polsce wynosi 15 lat.
Tego o Meta (Facebooku) nie wiedziałeś, ale powinieneś jeżeli jesteś rodzicem
Niektórzy uważają, że w Polsce "wiek zgody" został ustalony nader nisko i powinien wynosić lat 16. Inaczej twierdzi pewien kontrowersyjny polityk - ale nie sprowadzajmy tego materiału do wieku zgody oraz stanowisk polityków. To nie jest istotne. Istotne jest to, że Facebook - często krytykowany za to, w jaki sposób obchodzi się z danymi ludzi - pewne mechanizmy chroniące dzieci ma i wykorzystuje. Opracowuje również kolejne, które miejmy nadzieję zmniejszą ryzyko nadużyć. Z pierwszej ręki informujemy o tym, co w gronie możliwości Facebooka jest, a co nie istnieje.
Jesteś rodzicem i wrzucasz zdjęcie swojego dziecka z basenu
Sharenting jest problemem mediów społecznościowych. Dlatego między innymi nie korzystam z Facebooka. Meta niech się na mnie nie obraża: po prostu to social medium przestało mi odpowiadać. Przeniosłem się na Twittera i jest mi z tym dobrze. Poza tym, odkąd nie przeglądam bezmyślnie rzeczy podsuwanych mi przez jakikolwiek algorytm (na Twitterze widzę tylko to, co chcę i tam zaglądam rzadziej niż w porównaniu do Facebooka), jest mi dobrze. Facebook, czy Instagram nie ostrzeże Cię przed tym, że zdjęcie Twojego dziecka może być nieodpowiednie. Nikt o zdrowych zmysłach nie będzie odczuwać podniecenia seksualnego na widok dziecka na basenie. Ale zwyrodnialec już tak. Sądzę, że mechanizm ograniczający sharenting powinien zostać wdrożony ze względu o dobrostan dzieci, które dorosną i nie będą chciały by intymne zdjęcia latały po Internecie.
Natomiast, jeżeli na zdjęciu pojawi się kontrowersyjna nagość lub ktoś oznaczy to za nieodpowiednie i zespół moderatorski uzna że zgłoszenie jest uzasadnione - materiał poleci i zostaniesz o tym powiadomiony. Sądzę, że groźnie wyglądające usunięcie materiału, wiadomość od automatu mogą być poczytane jako zbyt duży kaliber i osoba której zgłoszenie dotyczyło... może się jedynie zirytować i niczego nie nauczyć. Nie uciekniemy przed tym, że algorytmy "przeczesują" nasze wiadomości w poszukiwaniu spamu, algorytmy również przeczesują nasze zdjęcia. Korzystasz z Google Photos (Zdjęcia Google)? Masz tam zdjęcia psa? Wpisz "pies". Zobaczysz swojego pupila, a także pupila sąsiada, ciotki, brata i jakiegokolwiek innego - o ile ich fotografie masz w swojej bibliotece. Jesteś zły na "czesanie" zdjęć za pomocą algorytmu? Nie powinieneś, zgodziłeś się na warunki użytkowania.
Oczywiście, od każdej decyzji możesz się odwołać. I tutaj Facebook widzi swój najważniejszy mechanizm chroniący przed "false positive'ami". Chociaż nie będzie on w stanie ochronić przed rzeczami, które nie są super-oczywiste.
Nauczyciel wysyła zaproszenia do znajomych do swoich nowych uczniów. W jeden dzień wysłał takich zaproszeń 40
Nauczyciel, czy groomer? Grooming to nawiązywanie znajomości z dziećmi za pomocą m. in. internetu celem uwiedzenia ich i wykorzystania seksualnego. Grooming w Polsce opisuje m. in. art. 200a Kodeksu Karnego, chociaż wykorzystać seksualnie małoletniego można i przez Internet - na przykład wysyłając zdjęcia lub wiadomości o charakterze erotycznym.
Problem jest w tym, że algorytm nie rozpoznaje tego czy nauczyciel jest nauczycielem. Widzi jedynie, że dorosły wykonał X próśb o dołączenie do grona znajomych. Algorytm nie zgłasza nikogo od razu na policję, ale może spowodować, że wdrożone zostaną mechanizmy ograniczające możliwości osób, które mają niedobre zamiary wobec dzieci. Może być tak, że przestaną one widzieć dzieci w sugestiach dołączania do grona znajomych. Ale wysłanie dużej ilości zaproszeń do grona znajomych wcale nie musi być jedynym czynnikiem przesądzającym o wprowadzeniu ograniczeń.
Może być tak, że jeden z takich prewencyjnych mechanizmów zostanie włączony w momencie, gdy w swoim profilu użyjesz sformułowania które według algorytmu jest podejrzane. Nie wiem, czy "lubię dzieci" się liczy i wolę tego nie sprawdzać. Nie wiem również tego, ile algorytm potrzebuje takich sygnałów, żeby zadziałać. Skanowane przez algorytm są również opisy grup - co bardzo istotne, może on dzięki swojemu wytrenowaniu reagować na wszelkie próby używania kodu.
Meta jest zgodne z nowym pomysłem KE odnośnie skanowania wiadomości w poszukiwaniu znamion pedofilii
Tyle, że Facebook robi to już teraz, a Komisja Europejska chce to robić na życzenie i na nie zahashowanych treściach. Jednak chodzi o to, aby przekazać komuś pełne treści wiadomości a nie hashe, celem ich przeskanowania. Ale czy mamy pewność co do tego, czy nasze wiadomości skanuje algorytm? W przypadku Facebooka - graniczy to z pewnością: taki gigant mając nawet armię moderatorów liczącą kilkadziesiąt tysięcy osób, nie będzie w stanie przerobić absolutnie wszystkiego. Messenger nie ma szyfrowania E2E w standardzie - za to WhatsApp ma, a ten należy do Meta. I tu dochodzimy do tego, że WhatsApp musiałby przestać być szyfrowany end-to-end, żeby być w zgodzie z nowym pomysłem Komisji Europejskiej, którą chyba rozbolała główka i nie rozumie dzisiejszych technologii. Jeżeli Messenger stałby się rozwiązaniem E2E w standardzie, to służby musiałyby rekwirować urządzenia - skoro tak bardzo chcą wchodzić nam w korespondencję.
Różnica między Meta (Facebookiem), a Komisją jest taka że na zasady korzystania z usług się zgadzasz i wiesz, do kogo trafiają dane. W tych zasadach gigant zarzeka się, że nie wykorzysta tych danych źle i gdyby mu udowodniono obchodzenie się z danymi w nieprawidłowy sposób - naraziłby się na falę pozwów. Służby to inna sprawa, z nimi niczego nie podpisujesz. Wygrać pozew można, ale odpowiedzialność jest rozproszona. Otwiera to prostą drogę do inwigilacji, która nie powinna być standardem - powinna być ostatecznością. Jeżeli znajdzie się furtka, to mogą znaleźć się nadużycia. Kto mi da gwarancję, czy na przykład algorytm nie będzie wyszukiwał fraz, które są krytyczne wobec obecnej władzy w kraju X?
Facebook (Meta) jednak samodzielnie nie wezwie służb - nie jest do tego uprawniony. Reaguje jednak w sytuacjach, kiedy musi to zrobić: z tego co wiem, całkiem nieźle reaguje na spływające do niego żądania wydania informacji szczególnie w sprawach dotyczących pedofilii oraz nękania. W niektórych krajach współpraca mu idzie lepiej ze względu na lepiej poukładane służby pod kątem komunikowania się z nim. Warto podkreślić, że w dalszym ciągu ze strony rodzica najlepszym sposobem na ochronę dzieci przed nadużyciami jest wdrażanie za nich pewnych ustawień prywatności (niemożność dodania przez osoby spoza kręgu do znajomych) i chociażby wprowadzenie limitu na korzystanie z usług. Meta pozwala na to w obrębie swoich produktów i to jest plus
Czy można pewne rzeczy zrobić lepiej? Pewnie tak. Czy Meta robi mało? Nie robi mało, jednak jego wielkość powoduje że niektóre rzeczy - jakkolwiek dobrze by nie działały - mogą być zawsze niewystarczające. Bo każdy z nas wolałby, żeby każda osoba która ma skłonności pedofilskie miała z automatu bana dosłownie wszędzie: po pierwszej oznace. Bezwzględność algorytmu oznaczałaby tragedię dla osób niewinnych w przypadku false positives. Nie chcę tutaj bronić Facebooka - aczkolwiek trudno mi w tym momencie o cokolwiek zaczepić się w zakresie krytyki: ponad to, co napisałem.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu