Od kilku dni jest głośno w sieci o eksperymencie, przeprowadzonym przez Kramera i jego dwóch współpracowników, pracujących w Core Data Science Team Fa...
Facebook eksperymentował ze stanami emocjonalnymi użytkowników i co z tego wynikło
Od kilku dni jest głośno w sieci o eksperymencie, przeprowadzonym przez Kramera i jego dwóch współpracowników, pracujących w Core Data Science Team Facebooka. Badacze byli ciekawi jak ilość pozytywnych i negatywnych informacji na ścianie użytkowników będzie wpływała na to jakimi informacjami użytkownicy sami będą się dzielić i czy zwiększy to ilość pozytywnych lub negatywnych wpisów. W badaniu wzięło udział niecałe 700 000 osób. Informacje te wzbudziły cały szereg pytań i wątpliwości dotyczących wyników, etyki przeprowadzenia eksperymentu oraz tego co on miał właściwie na celu.
Eksperyment miał na celu sprawdzenie czy stany emocjonalne umieszczane w strumieniu użytkowników propagują się, wpływając na to, co udostępniają sami użytkownicy. Jak wiadomo, Facebook nie wyświetla na ścianie wszystkich statusów naszych znajomych, tylko przeprowadza pewną selekcję. Podczas tego eksperymentu jedna grupa użytkowników miała tak przeprowadzoną selekcję wyświetlanych treści, aby widziała więcej negatywnych statusów, druga grupa wręcz przeciwnie, żeby widziała więcej pozytywnych statusów. Następnie sprawdzano, czy osoby znajdujące się w tych grupach udostępniają również więcej statusów pozytywnych, bądź negatywnych, zależnie od tego do jakiej grupy należeli. Czy treść zalicza się do pozytywnych czy negatywnych oceniał specjalny algorytm Linguistic Inquiry and Word Count.
Wyniki
Wyniki potwierdziły istotnie statystycznie pływ treści umieszczanych w strumieniu na propagowanie nastroju. To na co warto zwrócić uwagę, to fakt, że wpływ był bardzo mały, bo wynosił dwie dziesiąte punktu procentowego. W skali całego Facebooka może to mieć znaczenie, jednocześnie z punktu widzenia pojedynczych użytkowników trudno nazwać to zauważalnym wpływem na cokolwiek. Podkreślam to dlatego, że wykresy, które krążą po internecie, zaczerpnięte z badań Kramera, mają tak przyjętą skalę, aby wyolbrzymić różnicę - nie zaczynają się od zera, lecz obejmują jedynie zakres samych osiągniętych wyników. Jeśli ktoś nie zwróci uwagę na skalę, może odnieść wrażenie, że różnice są o wiele większe niż w rzeczywistości.
Kwestie etyczne
U wielu osób duże wątpliwości budzi fakt, że Facebook manipulował ich emocjami, bez informowania ich o tym. Rzeczywiście, nie zaszkodziłoby gdyby Facebook umieścił informację, że dany użytkownik znalazł się w grupie testowej, dając mu możliwość aby się z niej wypisać. Nie przesadzałbym jednak z krytyką, a przynajmniej nie odnosiłbym jej bezpośrednio do tej konkretnej sytuacji jako wybitnie nagannej. Wszystkie duże serwisy nieustannie testują jaki wygląd stron, wielkość przycisków, ich umieszczenie i tak dalej, sprawdza się w praktyce. Porównują wyniki wersji, wybierają najlepsze rozwiązania i testują dalej. Taka metoda nosi nazwę testów A/B i jest formą eksperymentu psychologicznego. Rzecz w tym, że każdy z nas jest poddawany takim eksperymentom pewnie kilka razy w ciągu dnia, zależnie na jakie strony zagląda.
Cała różnica w przypadku badania Facebooka polega na tym, że poniekąd miał on charakter odrobinę bardziej naukowy, a mniej praktyczny niż to zwykle bywa chociaż...
Co eksperyment miał w zasadzie na celu?
Kramer twierdzi, że pojawiły się pewne obawy, że negatywne czy emocjonalne treści mogą odstraszać użytkowników z Facebooka. Dlatego postanowili sprawdzić jak to wygląda w praktyce. Ich celem nie było zmanipulowanie użytkownikami sieci społecznościowej tak, żeby czuli się źle. Można więc powiedzieć, że to badanie miało praktyczny wymiar, jak każde inne, dotyczące układu przycisków.
Kwestie etyczne są innej natury
Jeśli miałbym zwrócić uwagę na cokolwiek, to raczej na fakt, że Facebook chętnie tak dobierze treści wyświetlane w naszym strumieniu, żeby jak najlepiej służyły jego interesom, czyli aby użytkownicy zaglądali na niego chętnie, aby reklamy były skuteczne, cokolwiek. W końcu edgerank funkcjonuje nie od dziś, a cały eksperyment wymagał jedynie wielkiej modyfikacji mechanizmu selekcjonowania treści. Osobiście uważam, że to budzi znacznie większe etyczne zastrzeżenia, niż sam eksperyment. Jednocześnie nie jest to nic nowego, czasem po prostu zapominamy, że to co widzimy, to nie jest obiektywna wersja rzeczywistości, tylko ta zaprezentowana przez algorytmy służące czyimś interesom. Niby nie jesteśmy w stanie samodzielnie przetworzyć wszystkich dostępnych dla nas informacji, więc selekcja jest konieczna, jednak selekcji nie dokonuje niezawisły sędzia, czy bezstronny mechanizm, a sam serwis, podług swoich własnych interesów.
Dlatego zamiast roztrząsać wyniki badania sprzed przeszło dwóch lat, które na dodatek chociaż istotne statystycznie, mają małe znaczenie, lepiej zastanówmy się kto decyduje o tym jakie informacje do nas docierają i czy w znaczący sposób zmienia to obraz sytuacji?
Dla chętnych, którzy chcieliby zapoznać się z komentarzem dotyczącym wyników z punktu widzenia ich prezentacji i analizy danych, polecam dobry wpis na blogu Biokompost.
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu