Wyniki testu są nieprawdopodobne. Zaledwie po kilkunastu minutach Instagram zaczął pokazywać dzieciom materiały wyłącznie dla dorosłych.
Nie od dziś wiemy, że w przypadku najmłodszych social media mają dosyć słabą reputację. Nie tylko nie są w stanie w żaden sposób zweryfikować, czy nie korzystają z nich dzieci poniżej wymaganego wieku (13 lat), ale też - programy takie jak Instagram mają fatalny wręcz wpływ na ich psychikę, o czym firmy wiedzą od lat. Facebook wie chociażby, że wśród nastolatków, którzy zgłaszali myśli samobójcze, 13% użytkowników brytyjskich i 6% użytkowników amerykańskich powodem takich myśli był właśnie Instagram.
Drugą kwestią jest wyświetlanie najmłodszym "challenge'y", które zbyt często kończą się tragicznie. Naturalnie, social media opowiadają o wszystkich swoich algorytmach, które mają chronić najmłodszych. Jednak co tak naprawdę wyświetla się dzieciom na Instagramie? Grupa reporterów postanowiła to sprawdzić.
Instagram dla 13-latka. Oto co wyświetla
Badanie zostało przeprowadzone przez dziennikarzy Wall Street Journal oraz Northwest University. Stworzyli oni szereg nowych kont na Instagramie, w którym podali minimalny możliwy do wpisania wiek - 13 lat. Jak się okazało, wystarczyło 20 minut przeglądania, aby na ekranie zaczęły pojawiać się filmiki twórców (twórczyń) treści dla dorosłych, promujące platformy takie jak OnlyFans czy oferujące nagie zdjęcia w zamian za interakcje z postami.
Co ciekawe, tutaj zbiega się to z przeciekami z 2022 r., odnośnie tego, że Meta wie, że Instagram wyświetla znacznie więcej (dokładnie - 3 razy więcej) takich treści nastolatkom, niż osobom po 30. roku życia. Dodatkowo, testy przeprowadzone przez dziennikarzy i badaczy pokazały, że konkurencyjne platformy, jak TikTok czy Snapchat nie mają takiego problemu i dużo lepiej chronią swoich najmłodszych użytkowników.
Takie wyniki powinny budzić zaniepokojenie wśród rodziców. Nie oznacza to, że nastolatkowie nie powinni móc korzystać z aplikacji, ale w takim wypadku nazbyt często ma miejsce sytuacja, w której rodzic zwyczajnie nie ma pojęcia z jakimi treściami ma styczność jego dziecko. Pomimo tego, że Meta zarzeka się, że wprowadza szereg zabezpieczeń, mających na celu ochronę dzieci, ale nie zgadza się to z tym, co mówią byli pracownicy, gdzie jest pełna świadomość, że algorytmy platformy sprzyjają np. wpadnięciu w depresję.
Jakimś rozwiązaniem byłoby tutaj prawo, które swojego czasu próbowano wdrożyć w Wielkiej Brytanii pt. "Legal but Harmful", czyli obowiązek usuwania treści, które nie łamią prawa, ale zostaną uznane za szkodliwe. Tu jednak nie unikniemy tego, że jest to mniejsza lub większa cenzura sieci, a wybór "szkodliwych" treści byłby arbitralny i natychmiast spotkałby się z oporem i dyskusjami na temat wolności słowa i wypowiedzi.
Sam fakt tego, że te dyskusje trwają już od lat, a nikt nie zaproponował jeszcze działającego rozwiązania, pokazuje, że problem nie tylko występuje, ale też - że będzie na pewno trwał w najbliższej przyszłości. Wszystkie platformy social media są nastawione na zysk wynikający z przyciągania użytkowników przed ekrany smartfonów na dłużej. I wielokrotnie już każda platforma udowodniła, że jeżeli będzie w tym celu trzeba podjąć decyzje "wątpliwe moralnie" to tak też się stanie.
Warto o tym pamiętać, szczególnie, jeżeli jest się rodzicem.
Źródło: Depositphotos
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu