Ciekawe strony

Nie mogę się doczekać, aż algorytmy YT zaczną działać. Powstała nawet strona poświęcona temu, jak sobie nie radzą

Kamil Świtalski
Nie mogę się doczekać, aż algorytmy YT zaczną działać. Powstała nawet strona poświęcona temu, jak sobie nie radzą
10

Też zdążyliście już przywyknąć do tego że algorytmy YouTube nie działają... jak powinny?

Po wielu latach spędzonych online przywykłem już do tego, że algorytmy polecające mi rzeczy na niemal każdej platformie zawodzą. Żyję w przeświadczeniu, że na tę chwilę — to po prostu nie może działać jak należy, a już na pewno nie wtedy, kiedy pewne rzeczy testuję służbowo i chwytam się różnych produktów i tematów. Najlepszym przykładem tego jest Google Play, które nie bierze pod uwagę tego jak długo mam zainstalowany dany produkt, ile z niego korzystam — a swoje dalsze rekomendacje opiera na pobieranych przeze mnie produktach. A że jest tego duuuużo, to ostatecznie algorytm jest jednym wielkim bałaganem.

Podobnie zresztą sprawy mają się z YouTube. Przywykłem i widząc kolejne bzdurne polecenia — nie bardzo się nimi przejmuję, bo z automatu je ignoruję. Mozilla jednak postanowiła pomówić o tym głośno — i w ramach kampanii #YouTubeRegrets zgromadziła historie ludzi, których rekomendacje były niepokojące. Fundacja wierzy w to, że sztuczna inteligencja powinna pomagać, a nie szkodzić — a w obecnej formie bywa z tym różnie.

YouTube Regrets: historie ludzi u których algorytm ewidentnie nie zadziałał jak należy

Po czasie zbierania zgłoszeń od użytkowników, Fundacja Mozilla uruchomiła dedykowaną stronę internetową, gdzie zebrała kilkadziesiąt najciekawszych z nich. I czytając kolejne z historii... w gruncie rzeczy nie byłem ani trochę zdziwiony obrotem spraw. Ot, jak chociażby z upadkiem — gdzie oglądając tzw. faile, czyli głupiutkie materiały gdzie ktoś się poślizgnął i obił rękę czy kość ogonową, nagle platforma podsunęła widzowi filmy z wypadków samochodowych: wybuchających, spadających z mostów. Filmy których bohaterowie nie mieli szans na szczęśliwe zakończenie. Inna historia dotyczy nauczyciela, który oglądał wiele poważnych, opartych na faktach, filmów dokumentalnych o Apollo 11. Chwilę później wśród jego polecanych materiałów znalazły się pełne listy treści bazujących na teoriach konspiracyjnych: od tych związanych z 11. września, przez ucieczkę Hitlera, na poszukiwaniu kosmitów kończąc. Jeszcze inny przykład dotyczy biednych, zaniedbanych, zwierząt. Użytkownik obejrzał materiał o ulicznym psie w Indiach, który — mimo fatalnego stanu — doczekał się pomocy i lepszego życia. Po obejrzeniu w polecanych znalazły się dziesiątki filmów o zaniedbanych, fatalnie traktowanych, zwierzakach. Takie, które nie mają absolutnie nic wspólnego z tym pierwszym filmem, po który sięgnął.

Super algorytmy, które tak naprawdę nie są w ogóle super

Kiedy zdarza mi się włączyć jakiś teledysk czy występ na żywo i zająć czymś innym — algorytmy YT radzą sobie doskonale, skacząc pośród innych utworów wykonawcy, miejscami zahaczając o podobną stylistycznie muzykę. I faktycznie: wtedy można powiedzieć bez mrugnięcia okiem, że wszystko działa jak należy. Ale jak widać — w innych przypadkach algorytmy radzą sobie nie najlepiej.

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu