Rynek agregatorów newsów rozrasta się. Największe firmy z branży IT mają w swoich portfolio przynajmniej jedną usługę tego typu. Nie tak dawno dołączy...
Rynek agregatorów newsów rozrasta się. Największe firmy z branży IT mają w swoich portfolio przynajmniej jedną usługę tego typu. Nie tak dawno dołączył do nich Apple ze swoim efektownym i przyjemnie prezentującym się Apple News. Po kilku miesiącach korzystania z tego typu serwisów, mam kilka przemyśleń.
Jak konsumujemy informacje i inne treści w sieci? Przeciętny internauta na ogół wchodzi bezpośrednio na stronę www. Wchodził, bo dziś ma do tego całą masę aplikacji agregujących. Aplikacji, u których podstaw leży inteligentny algorytm filtrujący treści w oparciu o szereg czynników. Może to być lokalizacja użytkownika, historia przeglądanych w przeszłości newsów, wskazane "ręcznie" zainteresowania czy choćby dane pobrane bezpośrednio z kanałów social media (zakładając, że podpięliśmy je pod nasze konto). Możliwości jest wiele. Wszystkie prowadzą do jednego rezultatu: spersonalizowanego strumienia treści, w którym znajdziemy to, co nas interesuje.
Leniwa konsumpcja
Takie rozwiązanie ma szereg zalet. Przede wszystkim nie wymaga ono od użytkownika żadnych dodatkowych czynności. Otrzymujemy gotowy materiał - mniej lub bardziej trafny (w miarę upływu czasu jego skuteczność jednak rośnie, bo gromadzi więcej danych na nasz temat). Biorąc pod uwagę ogrom treści w internecie i nieustanną potrzebę filtrowania, to bardzo korzystne z punktu widzenia konsumenta. Sęk w tym, że w ten sposób zamykamy się w obrębie kilku(nastu) serwisów, z których agregowane są treści. Otrzymujemy pewną namiastkę internetu w internecie. Zamykamy horyzonty. A przynajmniej takie wrażenie odnoszę, po pewnym czasie użytkowania usług typu Google Newsstand, Morning Reader czy Prismatic. Zresztą ten ostatni nie wytrzymał rywalizacji z konkurencją i jeszcze w grudniu zamknie swoje aplikacje mobilne, stając się usługą nastawioną na b2b i dedykowaną przede wszystkim autorom treści czy dziennikarzom.
Zdając się na działanie algorytmów filtrujących treści tak naprawdę zgadzamy się na podwójne filtrowanie. Pierwszy etap tego procesu ma miejsce już podczas procesu publikacji - dziennikarz, bloger, redaktor prowadzący decydują o tym co i w jakiej kolejności pojawi się na stronie, które elementy zostaną wypromowane, a które uwydatnione w strukturze serwisu. To jest zatem już pierwszy czynnik, którego motywacją jest dostarczenie nam możliwie najbardziej atrakcyjnego materiału (wszyscy wiemy, jak to się potem kończy). Drugi etap to właśnie agregator i namiastka sztucznej inteligencji, która dokonuje kolejnego odsiewu. Na samym końcu jest użytkownik, który otrzymuje gotowca.
Mechanizm obronny
Zastanówmy się jednak, jak w dłuższej perspektywie może to wpłynąć na naszą percepcję. Przeniesienie obowiązku filtrowania treści na zewnątrz obniża skuteczność naszych mechanizmów obronnych. Umiejętność ta z czasem może zanikać. Co zatem się stanie w sytuacji, gdy taki użytkownik otrzyma nieodfiltrowany strumień treści? Będzie "łykał" wszystko jak przysłowiowy pelikan. Odnosi się do tego po części jedna z teorii dotyczących funkcjonowania uwagi człowieka, skonstruowana przez Johnsona w roku 1878:
Elastyczny filtr uwagi umożliwia przetwarzanie danej informacji na wybranym poziomie; analiza szybka na płytkim poziomie sensorycznym (identyfikacja cech fizykalnych) i wolna na głębokim poziomie semantycznym (bardziej złożony proces.
Nasuwa się tutaj pewna odwrócona analogia do tego, jak dziś postrzegamy reklamy. Wobec ogromnego natłoku tego typu treści u części społeczeństwa wykształciła się "ślepota reklamowa" - taki wbudowany w mózg Adblock, który podświadomie ignoruje wszystkie komunikaty reklamowe. To rodzaj mechanizmu obronnego, który pełni rolę filtru w procesie komunikacji masowej. Jestem bardzo ciekawy, czy analogiczny mechanizm wykształci się u dzieci, które od najmłodszych lat korzystają z internetu z włączonym Adblockiem. Gwoli ścisłości, niczego nie sugeruję - chcę po prostu zwrócić uwagę na pewne zależności między tymi procesami.
Wracając jednak do kwestii newsów, warto się zastanowić, dlaczego czytniki RSS nigdy nie zdobyły wielkiej popularności. Technologia ta jest pozbawiona jakichkolwiek filtrów (chyba, że umieścimy między nią, a użytkownikiem stosowne algorytmy). W rezultacie użytkownik Feedly czy innego narzędzia tego typu jest wręcz zasypywany nowymi treściami. Mam kilkadziesiąt subskrypcji i każdego dnia przekłada się to na około tysiąca nowych publikacji. To chyba oczywiste, dlaczego zwykłego użytkownika to odrzuca. Nie istnieje bowiem tutaj żaden dodatkowy element filtrujący, którym na głównej Onetu są graficzne kafelki, a na Gazeta.pl ogromny slider tuż przy górnej krawędzi strony. Komunikacja za pomocą RSS zlewa się w jedną całość, a każda publikacja jest przedstawiana w taki sam sposób. Zadaniem użytkownika jest zatem nadanie priorytetów i ocena wartości każdego z komunikatów. Nie przesadzę chyba, jeśli napiszę, że RSS-y pozwalają sobie wykształcić taką umiejętność.
Zdecyduj za mnie
Komunikacja masowa to złożony proces. W internecie nabiera on zupełnie nowego wymiaru. Szum informacyjny, który w starych mediach nie doskwierał nam aż tak bardzo, tutaj wysuwa się na pierwszy plan. Treści jest zdecydowanie więcej, a ich konsumpcja nie odbywa się w sposób linearny. Użytkownik pozostaje zdany sam na siebie. I być może to właśnie tutaj należy doszukiwać się źródła popularności wszelkiego rodzaju agregatorów. Oglądając telewizję, oddajemy sterowanie agendą w ręce osób stojących za ustalaniem ramówki. W internecie taką ramówką może być strumień newsów - wygenerowany przez kreator lub przez innego człowieka. Czynnik ludzki został nie tak dawno dodany do Apple News, a krótko potem wprowadził go Twitter wraz z funkcją Moments. To wszystko może sugerować, że internauta tak naprawdę chce, żeby ktoś za niego decydował, co przeczyta. Pokazał mu palcem ciekawe treści i uznał, że to go może zainteresować.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu