Groźne bestie z Google

groźne bestie z google

Strach przed filtrem ma wielkie oczy.

Pracując w agencji SEO jednym z najczęściej powtarzających się pytań, które słyszymy od klientów jest: „a czy moja strona nie dostanie filtra/bana?”. W związku z licznymi obawami w tej kwestii, opowiemy dziś w skrócie czym są kary od Google i za co możemy je otrzymać?

Google Panda mocno śpi…

Google (jako algorytm oraz zespół moderatorski) może ukarać naszą stronę w dwojaki sposób. Pierwszym z nich jest nałożenie na nią filtra. Co to oznacza dla naszego serwisu internetowego? Obniżenie jego widoczności w wyszukiwarce – zazwyczaj bardzo skuteczne, ponieważ wyrzuca stronę poza pierwsze 10 stron wyników wyszukiwania. Drugim rodzajem kary jest ban, czyli usunięcie strony www z indeksu. Blogerzy SEO i różne agencje e-marketingowe podsycają lęk klientów przed ukaraniem, strasząc działaniami swojej konkurencji i wskazując linki, które ich zdaniem nie wnoszą nic dobrego. Ile jest w tym prawdy?

My się nie boimy, na palcach chodzimy…

Porozmawiajmy o faktach – na pierwszy ogień weźmiemy filtr. Rozróżniamy dwa rodzaje filtrów: za linki oraz za optymalizację. Każdy z tych filtrów możemy otrzymać ręcznie lub algorytmicznie. Filtr algorytmiczny dotyczy złamania przez agencję SEO/webmastera wytycznych Google dla webmasterów. Wspomniane wytyczne określają tylko i wyłącznie kwestie optymalizacji strony. Wszelkie działania związane z linkowaniem swojego portalu internetowego służą manipulacji wynikami wyszukiwania (podniesienia pozycji), a jest to niezgodne z polityką wyszukiwarki Google. Algorytm może też wykryć próby przeoptymalizowania treści w postaci tzw. Cloackingu (ukrywanie treści przed użytkownikiem, widocznej dla Google). Filtry ręczne związane są z ręcznymi działaniami moderatorów Google, którzy sprawdzają od czasu do czasu raporty wysyłane przez internetowych użytkowników przez narzędzie do zgłaszania spamu. Sprawy filtrów za treści są raczej zrozumiałe. Gdy ukrywamy treści lub stosujemy różnego rodzaju zabiegi mające na celu pokazanie wyszukiwarce internetowej innej wersji serwisu aniżeli użytkownikowi, to prędzej czy później strona zostanie ukarana. Prędzej – jeżeli stosujemy popularne techniki, których wykrywanie programiści Google zdążyli zaimplementować w algorytmie. Później – jeżeli wpadniemy na innowacyjny pomysł. „Później” może oznaczać wiele, wiele miesięcy – nie zapominajmy, że Google to tylko algorytm, choć niektórzy traktują go jako zaawansowaną sztuczną inteligencję. W teorii za jakość stron widniejących w indeksie Google odpowiada aktualizacja Panda. Z ciekawszą sytuacją mamy do czynienia w przypadku filtrów za linki. Po pierwszych aktualizacjach algorytmu w postaci Pingwina zaczęły pojawiać się masowe filtry za linki przychodzące. Gro osób zajmujących się SEO wieściło wówczas koniec spamu czy Systemów Wymiany Linków. Ich prognozy nie sprawdziły się, a linki niskiej jakości dalej mają pozytywny wpływ na pozycje strony. Skąd to wiemy? Pozycjonowanie to żadna tajemnica, wystarczy przejrzeć linki stron pojawiających się na konkurencyjne hasła… O filtr algorytmiczny za linki wcale nie jest tak łatwo! Wyobraźmy sobie co by było, gdyby Google z pełną surowością karała za każdy link pozyskany narzędziami takimi jak Xrumer, GSA czy z Systemów Wymiany Linków. W takiej sytuacji nie trzeba byłoby pozycjonować swojej strony, tylko linkować całą konkurencję z SWL i czekać, aż otrzymają filtr. Brzmi groteskowo, nieprawdaż?

Jak się zbudzi to nas zje!

Między bogiem a prawdą, każdy link użyty przez agencję SEO i prowadzony do strony klienta, który jest nienaturalny/kupiony podlega oficjalnie karze. Jedynym wyjątkiem jaki został ujęty w wytycznych Google są linki nofollow oraz linki nie zawierające anchora. Agencje „white hat SEO” powinny więc teoretycznie nic nie robić, gdyż pozyskanie jakiegokolwiek linku jest złamaniem wytycznych dla webmasterów! Co zatem możemy zrobić? Praca agencji SEO polega na tym, by lawirować między algorytmem. Testując wszelkie rozwiązania na swoich, prywatnych testowych stronach i obserwując zmiany od wielu lat, wiemy co wpływa na pozycje. Wiemy też co powoduje filtr i jak go unikać.

Kwestia otrzymywania banów jest o wiele prostsza do wytłumaczenia. Banem kończą się działania tylko i wyłącznie onsite. Oznacza to, że nie można dostać zbanowanym przez Google za linki, a jedynie za techniki optymalizacyjne, np. takie jak wspomniany cloacking. Banem może ukarać nas wyszukiwarka również za ataki hackerów na naszej stronie – tzn. obecność wirusów, przekierowywanie do podejrzanych stron itp. Żadna z agencji SEO nie świadczy tego typu usług dla swoich klientów, więc klienci nie mają się czego obawiać.

Czy należy się obawiać filtra? W teorii każdy zdobyty link jest nienaturalny i działania SEO mogą zakończyć się filtrem. Nie jest to jednak sytuacja bez wyjścia… Ale o tym może innym razem.

Wyślij zapytanie

Wysyłanie...
Gotowe! Twoja wiadomość została wysłana!

* Pole wymagane