10

Ponad połowa ruchu na stronach internetowych to roboty i automaty

Aż 51% ruchu na stronach internetowych generowanych jest przez różnego rodzaju roboty i skrypty – realni, żywi ludzie to jedynie 49% transferów na witrynach www. Takie wnioski publikuje w swoim najnowszym raporcie firma Incapsula, specjalizująca się w dostarczaniu bezpiecznych rozwiązań w chmurze. Co zatem generuje najwięcej ruchu na stronach www? Zautomatyzowane programy, narzędzia skanujące, szpiedzy, […]

Aż 51% ruchu na stronach internetowych generowanych jest przez różnego rodzaju roboty i skrypty – realni, żywi ludzie to jedynie 49% transferów na witrynach www. Takie wnioski publikuje w swoim najnowszym raporcie firma Incapsula, specjalizująca się w dostarczaniu bezpiecznych rozwiązań w chmurze. Co zatem generuje najwięcej ruchu na stronach www? Zautomatyzowane programy, narzędzia skanujące, szpiedzy, spamerzy oraz roboty wyszukiwarek internetowych.

Raport opracowany przez Incapsula daje wyniki być może zaskakujące dla większości z nas. Dowodzi on bowiem, że internauci to nawet niecała połowa ruchu obsługiwanego przez serwery przechowujące strony internetowe. Po przebadaniu 1000 przykładowych witryn okazało się, że większość transferu generowana jest przez wszelkiego rodzaju oprogramowanie. Oto jak rozłożyły się źródła ruchu w omawianym raporcie:

  • 5% – narzędzia hakerów, skanujące strony w poszukiwaniu dziur w zabezpieczeniach
  • 5% – skrypty skanujące treść strony w celu jej skopiowania (scraper)
  • 2% – zautomatyzowane komentarze, spam
  • 19% – programy szpiegujące i zbierające dane
  • 20% – roboty wyszukiwarek internetowych
  • 49% – ruch generowany przez żywych internautów

Jakie wnioski można wysnuć patrząc na wyniki raportu? Zapewne większość osób nie zdaje sobie sprawy jak wiele transferu na jego stronie www generowane jest przez zautomatyzowane oprogramowanie. O ile przeczesywanie witryny internetowej przez roboty wyszukiwarki jest korzystne dla pozycjonowania, tak skrypty spamujące czy poszukujące dziur w zabezpieczeniach już nie. Dlatego warto przyjrzeć się temu, co zabiera transfer naszemu serwerowi i przynajmniej postarać się o poprawę sytuacji. Dzięki temu odwiedzanie naszej strony będzie bezpieczniejsze, a także przyjemniejsze dzięki szybszemu ładowaniu się treści.

Przy dużych serwisach z pewnością istotne też będą limity transferów, co bezpośrednio wpływa na koszty utrzymania – eliminując udział programów skanujących jesteśmy w stanie oszczędzić nieco pieniędzy na utrzymaniu serwera.

Czy Wy jesteście zaskoczeni wynikami testu przeprowadzonego przez Incapsula?

Źródło obrazka: 1.