41

Google znów aktualizuje algorytm wyszukiwarki. Polacy odczują zmiany najbardziej

Można się było spodziewać, że prędzej czy później to nastąpi i Google znów wprowadzi kolejne zmiany w swoim algorytmie. Zanosi się na to, że po raz kolejny część wyników zostanie wywrócona do góry nogami. Nie jest to może rewolucja na skalę wprowadzenia silnika Panda, ale, jak przepowiada gigant, zwykli użytkownicy z pewnością ją odczują. Komu […]

Można się było spodziewać, że prędzej czy później to nastąpi i Google znów wprowadzi kolejne zmiany w swoim algorytmie. Zanosi się na to, że po raz kolejny część wyników zostanie wywrócona do góry nogami. Nie jest to może rewolucja na skalę wprowadzenia silnika Panda, ale, jak przepowiada gigant, zwykli użytkownicy z pewnością ją odczują. Komu to wyjdzie na dobre, a komu nie?

Zmiany zostały wymierzone w posiadaczy witryn uciekających się do metod znanych jako „black hat webspam”, czyli nadużywania słów kluczowych, które są wręcz upychane w treści artykułów oraz korzystania z systemów wymiany linków. Te brudne praktyki skutkują tym, że w wynikach dostarczanych przez wyszukiwarkę widzimy strony nie dostarczające żadnych merytorycznych treści, a jedynie paczkę niepowiązanych logicznie haseł i towarzyszące im reklamy.

Google już od jakiegoś czasu toczy bój ze spamem w wynikach wyszukiwania. Czy udany? To kwestia dyskusyjna. Pod pewnym względem widać poprawę, ale nadal jest wiele do zrobienia, bo pod niektórymi hasłami kryje się spam w czystej postaci okraszony nierzadko złośliwym kodem. Tym razem jednak dostanie się tym, którzy próbują za wszelką cenę pozycjonować swoje serwisy na wszystkie możliwe frazy związane z jednym zagadnieniem. Jak może to wyglądać? Przykład podany przez Google wygląda nastepująco:

Cóż, to obecnie rzadkość, by witryny tak bezczelnie próbowały wbić się do czołówki wyników wyszukiwania. W praktyce próby oszukania algorytmu są bardziej subtelne i wyrafinowane. Choć dla końcowego użytkownika przygotowana w ten sposób strona i tak nie pełni żadnej funkcji informatywnej. Kolejny przykład prosto z bloga firmy:

Gigant zapowiada, że ranking serwisów korzystających z nieczystych metod pozycjonowania zostanie znacznie obniżony. Oczywiście nie dowiemy się w jaki sposób ma to się odbywać i na jakich zasadach kody stron www zostaną przeanalizowane. Google tłumaczy tę decyzję koniecznością ukrywania swoich metod przed tym, którzy nadużywają wiedzę na ich temat, co jest w zasadzie zrozumiałe. Tymczasem wszystkim pozostałym webmasterom firma zaleca po prostu tworzenie wysokiej jakości witryn, co prędzej czy później przełoży się na sukces w wyszukiwarce. Koncern deklaruje przy okazji, że jego celem jest stworzenie warunków, w których osoby korzystające z dopuszczalnych technik optymalizujących strony pod kątem wyszukiwania i te w ogóle tego nie robiące będą mogły spokojnie skupić się na tworzeniu wartościowych treści. Brzmi dość utopijnie. ;)

A teraz najważniejsze – kto najbardziej odczuje zmiany w algorytmie? Google zapowiada, że jest do zależne od języka. Dla stron anglojęzycznych wpłynie to zaledwie na 3,1 proc. wyników. Dla niemieckich, arabskich i chińskich współczynnik wyniesie jeszcze mniej, bo 3 proc. Tymczasem w naszym przypadku jest to aż 5 proc. zapytań, czyli dość dużo w porównaniu z innymi wersjami językowymi.

Praktyka pokazuje, że można spokojnie odnieść sukces bez zbytniego przejmowania się pozycjonowaniem. Świetnym tego przykładem jest Antyweb. Dostarczanie unikatowych treści, które niejednokrotnie są cytowane i linkowane robi swoje i procentuje. Zatem autorzy stron muszą sami zdecydować, którą ścieżkę obiorą. Czy skupią się na wartości merytorycznej swojej witryny, czy po prostu rzucą w wir pozycjonowania, co prędzej czy później przyniesie wzrost odwiedzin, ale z pewnością nie stałych czytelników.