Dlaczego pozycjonowanie nie działa? Poznaj błędy SEO

Zacząłeś pracować nad poprawą widoczności strony internetowej w wyszukiwarce lub zleciłeś to agencji SEO. Czekasz na wyniki dni, tygodnie, miesiące, a tu nic. Dlaczego nie ma efektów? Jakie błędy popełniasz Ty albo specjaliści? W artykule opisaliśmy jedne z najczęstszych błędów – te popularne i oczywiste, a jednak ciągle powtarzane. Poznaj je i przekonaj się, czy to właśnie one odpowiadają za niemożność dotarcia do top 10 w Google!

Brak strategii pozycjonowania

Ten błąd mogłeś popełnić, jeśli pozycjonujesz swoją stronę samodzielnie. Brak zaawansowanej wiedzy czy umiejętności w zakresie marketingu internetowego bynajmniej nie przesądza o niemożności dotarcia na pierwszą stronę Google. Prawdą jest natomiast, że bez wiedzy i praktyki trudniej przygotować strategię działań.

Dlaczego pozycjonowanie nie działa? Poznaj błędy SEO

W strategii SEO powinny się znaleźć elementy takie jak optymalizacja techniczna strony internetowej, dobór słów kluczowych, plan tworzenia nowych i modyfikowania zastanych treści w witrynie, plan pozyskiwania linków zwrotnych czy budowania korzystnego, naturalnego profilu linków. Ważna jest zarówno analiza Twojej witryny, jak i konkurencyjnych stron i sklepów. O wszystkich wymienionych aspektach napisaliśmy w dalszej części artykułu, toteż zachęcamy Cię do przeczytania całości.

Czy na uzyskanie dobrej pozycji w wynikach wyszukiwania może być za wcześnie?

Jeżeli uważasz, że pozycjonowanie w przypadku Twojej witryny czy sklepu internetowego nie działa, winnymi takiego stanu rzeczy mogą być… błędne oczekiwania wynikające z nieznajomości specyfiki SEO. Należy bowiem wiedzieć, że pozycjonowanie stron to proces długofalowy, na którego pierwsze efekty trzeba nieco poczekać. Żadna agencja SEO – nawet mimo szczerych chęci – nie jest w stanie z góry zagwarantować konkretnego czasu.

Zazwyczaj mówi się o miesiącach, choć na niektóre słowa kluczowe – te o mniejszej konkurencyjności – możesz pojawić się wynikach wyszukiwania nawet po paru tygodniach. Na efekty bądź ich brak powinieneś patrzeć z perspektywy czasu. Jeżeli po sześciu miesiącach realizowania strategii pozycjonowania strony nie będzie żadnego efektu, wówczas możesz uznać, że coś jest nie tak – albo ze strategią, albo z wykonawcą działań SEO.

Brak strategii pozycjonowania

Błędów w pozycjonowaniu – w myśleniu o nim – można upatrywać również w zbyt szybkim porzuceniu działań. Nie wystarczy pozycjonować stronę przez kilka miesięcy, po czym zaprzestać, by uzyskać lub utrzymać korzystne pozycje w wynikach wyszukiwania. SEO to proces, który po rozpoczęciu należy kontynuować. Do kiedy? W zasadzie do końca istnienia witryny lub firmy. Różnica między początkiem a kontynuacją strategii pozycjonowania stron jest taka, że na wstępie działania są zintensyfikowane, aby „dobrze wystartować i rozpędzić stronę”.

Przeczytaj artykuł: Ile trwa pozycjonowanie? Po jakim czasie widać efekty? Odpowiadamy!

Skuteczne SEO = wysokie pozycje (top 3)

Wśród najczęstszych błędów w myśleniu o pozycjonowaniu stron wymienić trzeba twierdzenie, że jeśli witryny nie ma w top 3, SEO nie jest skuteczne. Żadna agencja marketingowa nie zagwarantuje – a przynajmniej nie powinna, inaczej zwodzi klienta – dotarcia na sam szczyt wyników wyszukiwania Google na wszystkie słowa kluczowe. Na niektóre frazy – owszem. Natomiast celem strategii pozycjonowania powinno być zajęcie jak najwyższych możliwych w danej sytuacji pozycji. Czasem będzie to miejsce siódme, czasem piąte, innym razem drugie.

Skuteczne SEO = wysokie pozycje (top 3)

Na dodatek powinieneś się przygotować na naturalne zmiany pozycji w wynikach wyszukiwania. To, które miejsce zajmujesz, jest zależne od aktualnie preferowanych przez roboty Google czynników rankingowych, działań konkurencji, popularności danych słów kluczowych i mnóstwa innych aspektów. Ba! nawet w ciągu tego samego dnia możesz się wyświetlać użytkownikom na różnych pozycjach. Wiele zależy od urządzenia, na których korzystają z internetu, historii wyszukiwania, preferencji itd.

Aktualizacja algorytmu Google

Pozycjonowanie strony jest zależne od algorytmu Google. Jeśli nie możesz uzyskać dobrych miejsc w indeksie, masz trudności z utrzymaniem ich lub z dnia na dzień spadłeś o kilkadziesiąt oczek, mogło dojść do aktualizacji algorytmu. Wówczas to nie pozycjonowanie stron jest źródłem problemu, ale zmiana wagi czynników rankingowych. Prawdopodobnie coś, co do tej pory robiłeś – i co było neutralne lub korzystne dla SEO – obecnie szkodzi Twojej stronie.

Aktualizacja algorytmu Google

Jeśli zobaczyłeś duże spadki, ale w Google Search Console nie pojawiła się informacja o ręcznie nałożonej na stronę karze, nie panikuj. Poczekaj kilka dni, bo aktualizacje algorytmu mają tendencję do drastycznego obniżania pozycji stron z danej branży (tematyki), po czym przywracania ich lub nawet poprawiania. Dopiero jeśli minie kilka tygodni, a widoczność w wynikach wyszukiwania nie wróci, możesz przyjrzeć się strategii SEO i potencjalnie szkodliwym działaniom, by z nich zrezygnować.

Konkurencja też korzysta z marketingu internetowego

Konkurencja nie śpi. Twoi rywale również korzystają z pozycjonowania stron internetowych. Jeżeli więc nagle osiągasz efekty dłużej i z większym wysiłkiem, winni mogą być właśnie oni. W płatnych narzędziach typu Senuto czy Semstorm (słowa kluczowe) oraz Ahrefs lub Majestic (linki) sprawdzisz, na jakie nowe frazy kluczowe pojawili się w wynikach wyszukiwania, a także jakie świeże linki pozyskali z zewnętrznych serwisów internetowych.

Konkurencja też korzysta z marketingu internetowego

Nowa agencja SEO – pozycjonowanie stron od zera?

Aby wypromować swoją stronę w organicznych wynikach wyszukiwania, możesz skorzystać z pomocy specjalistów. Jeżeli to pierwsza agencja, z którą się zwiążesz, a wcześniej na stronie nie były prowadzone żadne działania SEO, na efekty będziesz musiał poczekać nieco dłużej, niż jeśli witryna była już pozycjonowana. Wystartowanie i rozpędzenie maszyny trwa dłużej niż dołączenie do biegu i wspomaganie, by rezultaty nie zostały zaprzepaszczone.

Jednocześnie w przypadku, w którym Twoją stronę przejmie nowa agencja, problem może pojawić się na etapie oceny strategii. Jeżeli zostanie zmieniona, będziesz niejako zaczynał od nowa – na te słowa kluczowe, które nie zostały uwzględnione w poprzedniej strategii. Musisz też liczyć się z utratą pozycji na stare frazy kluczowe, czyli z częściową utratą widoczności w wynikach wyszukiwania. Jeżeli taka zmiana odbędzie się z zyskiem dla konwersji i zwiększy ruch na stronie – nie ma się czym przejmować.

Nowa agencja SEO - pozycjonowanie stron od nowa?

W kwestii agencji SEO warto jeszcze dodać, że niekiedy po przejściu do nowej firmy stara usuwa linki zwrotne, które dla Ciebie pozyskiwała (np. ze swoich zapleczowych stron internetowych). Jest to sytuacja nieetyczna i niesympatyczna, na którą niestety nie wpłyniesz. Usuwanie linków osłabi widoczność Twojej strony, na co nowa agencja także niczego nie poradzi. Trudny czas będzie trzeba przetrwać, pozyskując nowe linki i wytrwale kontynuując działania SEO.

Dlaczego ten hosting „nie działa”?

SEO może nie przynosić efektów, nawet jeśli nie popełniasz błędów w pozycjonowaniu sensu stricto. Wystarczy, że założyłeś serwis lub przeniosłeś swoją stronę na hosting niskiej jakości, zwłaszcza darmowy. Niektóre firmy hostingowe są z góry uznawane przez Google za niegodne zaufania. Dzieje się tak chociażby dlatego, że zakładane na nich strony internetowe są zaspamowane, służą wyłudzaniu pieniędzy bądź danych od użytkowników albo łamią regulamin wyszukiwarki.

Dlaczego ten hosting "nie działa"?

Niskiej jakości ruch na stronie

Pozycjonowaniu stron szkodzi niskiej jakości ruch na stronie. Nawet jeśli udało Ci się dotrzeć do topowych pozycji w wynikach wyszukiwania – np. ze względu na optymalizację serwisu i linki zwrotne – na skutek niezadowolenia użytkowników może się to zmienić. Przykładowo jeśli odbiorca po kliknięciu w link do Twojej strony wyświetlony w Google trafi na treści niskiej jakości, nieintuicyjną nawigację, błędy czy niepoprawną ścieżkę konwersji, przez którą nie może dokonać zakupu, kliknie „wstecz” i wróci do wyników wyszukiwania. Algorytm Google odnotuje fakt, że użytkownik nie odnalazł w serwisie tego, czego szukał. Jeśli wiele innych osób zrobi to samo, algorytm zrozumie, że słowo kluczowe, na które wyświetlał Twoją stronę, w rzeczywistości nie jest adekwatne. Stracisz pozycję.

Niskiej jakości ruch na stronie

Jakie jest rozwiązanie powyższego problemu? Musisz zadbać o jakość strony internetowej! O aspekt wizualny, ale również funkcjonalność, merytoryczność treści, poprawność działania wszelkich elementów.

Zmiany szkodzące pozycjonowaniu stron

Istnieje szereg błędów w pozycjonowaniu, które można popełnić podczas wdrażania różnych zmian na stronie. Poniżej zaprezentowaliśmy kilka popularnych.

A – zmiana adresów URL

Jeżeli Twoja strona istnieje dłużej niż kilka miesięcy – a nawet w takiej sytuacji należy zachować ostrożność! – zasadniczo nie ma możliwości zmiany adresów URL bez szkody dla witryny (bez wdrożenia przekierowań). Całe linkowanie wewnętrzne i wszystkie linki pozyskane z innych stron internetowych będą generowały błąd 404. Niedziałające linki wewnątrz strony zaszkodzą nawigacji użytkowników i robotów Google, przychodzące zaś utracą moc SEO. Dlatego bardzo, bardzo ważne jest ostrożne modyfikowanie adresów URL i stosowanie właściwych przekierowań: 301 – dla zmian trwałych, 302 – dla zmian tymczasowych.

Zmiany szkodzące pozycjonowaniu stron

B – zmienione frazy kluczowe

Jeżeli prowadzisz pozycjonowanie strony na słowa kluczowe A, B i C, nagłe skasowanie ich z przypisanych im podstron bądź podmiana na inne zaprzepaści dotychczasowe efekty. Roboty Google wejdą na witrynę i zorientują się, że frazy zniknęły. Nie będą zatem miały podstaw, by wyświetlać Twoją stronę w wynikach wyszukiwania, gdy użytkownicy wpiszą dawne frazy. Stracisz widoczność.

C – skasowane teksty

Powyższa sytuacja będzie miała miejsce również w sytuacji, w której podczas wdrażania zmian na stronie skasujesz stare treści. Kiedy roboty Google odkryją ich brak, wyindeksują podstrony, na których treści były dostępne. To oznacza spore spadki widoczności, zwłaszcza jeśli podstrony miały dobre pozycje w wynikach wyszukiwania.

Zmiana adresów URL, zmienione frazy kluczowe

D – zmiana szablonu, wyglądu, dodatków

Zasada jest prosta: nie ma przeciwwskazań do zmian wizualnych na stronie, o ile zachowasz stare treści. Liczy się nie tylko sam tekst, ale również jego struktura. Powinny zgadzać się nagłówek H1 i kolejne nagłówki, opisy alternatywne obrazów, podział na akapity, oznaczenia linków.

E – zmiana domeny

W przypadku zmiany domeny i przenoszenia treści trzeba pamiętać o wytycznych z powyższych podpunktów. Po pierwsze konieczne jest wdrożenie przekierowań 301, i to jeszcze przed przenosinami strony na nową domenę. Po drugie treści powinny zostać zachowane w proporcji 1:1.

Zmiana domeny a pozycjonowanie

Przeniesienie danej strony na „nową, ale starą” domenę

W przypadku nowej-ale-starej domeny ważne jest nie tylko wdrożenie przekierowań 301, o których wspomnieliśmy w powyższym punkcie. Wpływ na pozycjonowanie strony będzie miał także sam wybór.

Zakup domeny z rynku wtórnego obarczony jest wieloma potencjalnymi zagrożeniami. Należy sprawdzić, czyja była wcześniej domena, jaka strona internetowa się w niej znajdowała, czy jej tematyka była spójna z tematyką Twojej strony, czy nie nałożono na nią kar, czy przeszli właściciele nie prowadzili Black Hat SEO, czy w ogóle wypracowali dobre pozycje w wynikach wyszukiwania i na jakie frazy kluczowe.

Przeniesienie danej strony na "nową, ale starą" domenę

Wybór domeny z rynku wtórnego szeroko omówiliśmy w artykule: Kupno domeny z rynku wtórnego a pozycjonowanie. Zachęcamy Cię do przeczytania, jeśli jesteś w analogicznej sytuacji.

Niewłaściwy dobór słów kluczowych – poznaj błędy SEO

Niewłaściwy dobór słów kluczowych może oznaczać wiele rzeczy. W tym punkcie przedstawiliśmy najczęściej występujące słowne grzeszki SEO.

A – niewłaściwe słowa kluczowe

Ze słowami kluczowymi jest tak, że nie wystarczy wybrać jakichkolwiek, i gotowe. Po pierwsze muszą to być słowa kluczowe, które rzeczywiście wiążą się z tematyką witryny. Mało tego – które pojawiają się w treści (lub pojawią się po wdrożeniu strategii SEO). Po drugie należy zwrócić uwagę na popularność ujętą w liczbie miesięcznych wyszukiwań. Mała strona internetowa najbardziej skorzysta z fraz long tail, a więc z długiego ogona. Poszukuje ich mniej użytkowników – kilkuset, czasem kilkudziesięciu – za to są bardzo precyzyjne i sprzedażowe. Możesz się spodziewać szybkiego uzyskania dobrej pozycji w wynikach wyszukiwania i odnotowania wzrostu sprzedaży.

niewłaściwe słowa kluczowe

Im bardziej rozbudowana strona internetowa oraz im pokaźniejszy budżet, tym większa szansa na wypracowanie dobrych pozycji w wynikach wyszukiwania na popularne słowa kluczowe. W takiej sytuacji zyskujesz ogromną widoczność, dzięki czemu wzrastają ruch na stronie, konwersja i rozpoznawalność marki.

B – za dużo/mało słów kluczowych

Fraz kluczowych może być zarówno za mało, jak i za dużo. W pierwszej sytuacji masz mniejsze szanse na wypracowanie wysokich pozycji w wynikach wyszukiwania. Jeśli pozycjonujesz swoją stronę na zaledwie kilka słów kluczowych, nie spodziewaj się oszałamiającej widoczności w Google. Jeszcze gorzej, jeśli na dodatek dobrałeś słowa niewłaściwie.

W drugiej sytuacji albo nie zastosujesz wszystkich wybranych słów kluczowych, więc część Ci przepadnie, albo rozpoczniesz szkodliwy dla SEO proceder: upychanie słów kluczowych, byle tylko umieścić na stronie wszystkie. Ponadto będziesz miał problem ze stosowaniem fraz kluczowych w linkach – skoro tyle ich jest, które wybrać?! W efekcie pojawisz się w Google tylko na niektóre.

dużo/mało słów kluczowych

Na ile słów kluczowych powinno się zatem pozycjonować stronę? Na to pytanie odpowiedzieliśmy w artykule: Na ile słów kluczowych pozycjonować stronę internetową?

C – słowo kluczowe przeznaczone na konkretną podstronę

Pamiętaj, by podczas stosowania słów kluczowych w sklepie internetowym czy innej witrynie zawsze dobierać słowa do konkretnych podstron. Przygotowując strategię, musisz przypisać podstronom ich własne, niezmienne frazy kluczowe. Jeśli będziesz wykorzystywał je w serwisie bez planu i jakkolwiek, dojdzie do kanibalizacji w wynikach wyszukiwania – podstrony ocenione jako lepiej odpowiadające na daną frazę wypchną z indeksu podstrony ocenione gorzej. Innymi słowy: Twoja strona internetowa będzie walczyła o pozycje sama ze sobą.

D – naturalne wykorzystanie fraz kluczowych

Podczas stosowania słów kluczowych na stronie bardzo ważna jest naturalność. Nie bój się odmieniać fraz ani używać ich zamienników i synonimów. Sięgaj po wyrazy potoczne, jeśli one też mają wartość SEO (sprawdź, jaką liczbą wyszukiwań się odznaczają).

naturalne wykorzystanie fraz kluczowych

Słabo rozbudowana strona internetowa

Im mniejsza strona internetowa, tym mniej treści zawiera. To z kolei oznacza mniej słów kluczowych możliwych do wypracowania oraz mniejsze pole do link buildingu (linki zwrotne prowadzą ciągle do tych samych podstron). Mało tego! Jeżeli w witrynie nie występuje sekcja, w której mogą się pojawiać nowości – np. artykuły na blogu – grozi jej zostanie uznaną za zdezaktualizowaną albo „martwą”, porzuconą. Takie serwisy Google pokazuje mniej chętnie niż ich rozwijające się i aktualizowane nowymi treściami odpowiedniki.

Słabo rozbudowana strona internetowa

Specyficznym przypadkiem są strony typu one page. Jeśli interesuje się pozycjonowanie właśnie takiego serwisu internetowego, przeczytaj artykuł: Jak pozycjonować strony one page? Porady SEO.

Duża konkurencja w wynikach wyszukiwania

Podczas opracowywania strategii SEO istotna jest analiza konkurencji, między innymi pod kątem pozycji w indeksie. Jak wysoko pojawiają się Twoi rywale i na jakie słowa kluczowe? Jeżeli wybrane przez Ciebie słowa kluczowe są bardzo popularne, będzie Ci trudno dotrzeć do top 10 w wynikach wyszukiwania. W takim wypadku brak widoczności nie oznacza, że pozycjonowanie stron nie działa, tylko że porwałeś się z motyką na słońce.

Wybierz inne frazy rywali – najlepiej z long tail. Mogą zaczynać się od popularnych, dzięki czemu nie będziesz musiał modyfikować treści w witrynie w drastyczny sposób. Przykładowo do słowa „wakacje” dopisz: „dla rodziny”, „dla rodziny z dziećmi” itd.

Duża konkurencja w wynikach wyszukiwania

Brak optymalizacji – zaniedbane znaczniki meta

Znaczniki meta to niepozorni bohaterowie czynników rankingowych. Niby nie widać ich na stronie, a jednak mają ogromne znaczenie, bo są odczytywane przez roboty Google. Znaczników istnieje sporo, niemniej do najpopularniejszych, podstawowych należą poniższe dwa.

A – title (tytuł stron i sklepów)

Tytuł strony jest niepodważalnym i istotnym czynnikiem rankingowym Google. Powinien zawierać słowa kluczowe i być dopasowany do tematyki danej podstrony. Jeżeli wcześniej go nie stosowałeś, a Twój serwis liczy dziesiątki czy setki podstron, szybko i wygodnie wprowadzisz go za pomocą wtyczki do CMS-a, np. Yoast. Więcej o title przeczytasz w artykule: Pozycjonowanie stron poradnik – część 1. Meta title: SEO Case Study.

Brak optymalizacji - zaniedbane znaczniki meta

B – meta description (opis stron www)

Obecnie meta description nie jest traktowany jako czynnik rankingowy do ustalania pozycji w Google. Warto jednak o niego zadbać, ponieważ niejako stanowi wizytówkę witryny. Kiedy zostanie udostępniona w mediach społecznościowych lub na blogu, meta description pojawi się pod tytułem jako krótki opis i zapowiedź treści. Widać go również w wynikach wyszukiwania, chociaż nie zawsze (czasem jego miejsce zajmują fragmenty tekstu, które algorytm Google uzna za lepiej dopasowane do frazy poszukiwanej przez użytkownika).

meta description (opis stron www)

Przekonaj się, dlaczego jeszcze warto oraz w jaki sposób tworzyć meta description: Pozycjonowanie stron poradnik – część 2. Opis strony – meta description.

Treści niskiej jakości na stronie

Treści niskiej jakości mogą się kojarzyć z tekstami napisanymi z błędami językowymi, byle jakimi i dotykającymi problemu jedynie powierzchownie. W świetle SEO istnieje jednak więcej sytuacji, w których treści można uznać za złej jakości. Poniżej wskazaliśmy główne przypadki.

A – treści złe merytorycznie

Pierwszy przypadek to oczywiście treści złe merytorycznie. Powodzenie strony internetowej w pozycjonowaniu zależy od oceny tekstów nie tylko przez roboty, ale również przez użytkowników. Artykuły na tematy banalne, poradniki operujące ogólnikami czy zdezaktualizowane informacje sprawią, że odbiorcy szybko wyjdą ze strony i poszukają innej. Algorytm Google to odnotuje.

Treści niskiej jakości na stronie

B – brak optymalizacji treści

Optymalizacja treści oznacza dbanie o wygodę użytkowników i komunikację z robotami Google. Tekst należy dzielić na akapity, a każdemu punktowi przypisywać adekwatny nagłówek. Istotne są podkreślenia, pogrubienia, punktory. Jeżeli artykuł jest długi, zastosuj spis treści. Dla robotów przygotuj właściwe atrybuty linków, słowa kluczowe, opisy alternatywne zdjęć.

C – upychanie słów kluczowych i inne błędne zastosowania

Każdy tekst da się przeoptymalizować. Za upychanie słów kluczowych możesz zostać ukarany przez Google. Z kolei artykuł ubogi we frazy przegra z konkurencyjnym tekstem, w którym słowa kluczowe pojawiają się częściej i są wymieniane zarówno w tytule i nagłówkach, jak i w samej treści.

D – brak optymalizacji sprzedażowej

Jeżeli przez „brak efektów SEO” rozumiesz brak konwersji – np. sprzedaży – niekoniecznie jest temu winne błędne pozycjonowanie stron. Rezultatem pozycjonowania sensu stricto jest uzyskanie dobrej widoczności w wynikach wyszukiwania. Natomiast to, czy użytkownik po kliknięciu linka znajdzie informację, której szukał, stanowi zupełnie inną kwestię. Nawet najlepiej wykonywane SEO nie sprawi, że użytkownik stanie się klientem, jeśli nie będzie zainteresowany zakupem.

brak optymalizacji sprzedażowej

Treści dobre sprzedażowo mają chwytliwe tytuły i leady – to na ich podstawie użytkownik ocenia, czy chce wejść na stronę. Do ich tworzenia wykorzystuje się np. model AIDA. Ważne jest umieszczenie wezwania do działania (CTA) na końcu opisu. Poniżej znajdziesz kilka poradników, dzięki którym nauczysz się pisać teksty sprzedażowe:

Brak treści – z punktu widzenia robotów Google

Treści stron www powinny być dostępne w języku odczytywanym przez roboty Google. W przeciwnym razie podstrony zostaną potraktowane jako puste, bez zawartości. Zyskają niską ocenę algorytmu i nie pojawią się w wynikach wyszukiwania lub zostaną z nich usunięte.

Brak treści - z punktu widzenia robotów Google

Roboty Google nie widzą treści utworzonych w Java, JavaScript, we Flashu. Nie odczytują tekstów umieszczonych na obrazkach i wmontowanych w film. Grafiki, wideo i audio są dla nich niewidoczne, dopóki nie zostaną opisane (opisem alternatywnym; warto umieszczać w nim słowa kluczowe). Do robotów Google zwracaj się zwłaszcza poprzez HTML i XHTML.

Aktualizacje strony a uzyskiwanie wysokich pozycji – blog

Do najczęstszych błędów SEO należy uznanie, że pozycjonowanie strony zostało zakończone i czas cieszyć się efektami. Nie tak prędko! Aby strona pozostała wartościowa i godna polecania w ocenie algorytmu, musi być stale aktualizowana. Mowa tu przede wszystkim o wciąż pojawiających się na niej treściach. W kontekście sklepów internetowych może to być nieustanne rozbudowywanie opisów produktów, tworzenie opisów kategorii, serii i producentów, nasycanie ich słowami kluczowymi.

Właścicielom wszelakich stron i sklepów poleca się założenie w bloga w tej samej domenie. To doskonała metoda na uzyskanie dodatkowego ruchu na stronie i zwiększenie widoczności. Wszystko dzięki frazom long tail zawierającym pytania (np. dokąd jechać na wakacje, gdzie tanio kupić X, ile kosztuje Y, jak zrobić Z). Artykuły blogowe naturalnie podtrzymują aktualność całych serwisów. Mają też dodatkowe zalety – budują wizerunek właścicieli jako ekspertów w danej dziedzinie, generują udostępnienia (jeśli treści są wysokiej jakości), pozwalają na cross selling i szerzą świadomość marki wśród odbiorców.

Aktualizacje strony a uzyskiwanie wysokich pozycji - blog

Inne sposoby na wdrażanie na stronę nowych treści i przy okazji wykorzystywanie dodatkowych fraz kluczowych to utworzenie sekcji opinii i recenzji, pozwolenie na komentarze, założenie forum, prowadzenie listy najczęściej zadawanych pytań (FAQ).

Interesuje Cię prowadzenie bloga? Przeczytaj:

Duplikacja treści prowadzi do błędów w pozycjonowaniu

Duplikacja treści jest szkodliwa dla SEO pod kilkoma względami. Po pierwsze może doprowadzić do niskiej oceny owych treści przez roboty Google i sprawić, że podstrony nie pojawią się w wynikach wyszukiwania. Po drugie może przyczynić się do kanibalizacji – wówczas podstrona się pojawi, ale tylko jedna, „pożerając” inne i zaprzepaszczając ich potencjał SEO i sprzedażowy. Po trzecie intensywna duplikacja treści grozi nałożeniem na stronę kary przez Google.

A – duplikacja treści wewnątrz witryny

Pierwszym rodzajem duplikacji jest ta, w której treści tworzysz sam, a następnie kopiujesz pomiędzy podstronami. Przykładowo sprzedajesz dziesięć podobnych produktów i w opisie każdego wklejasz ten sam tekst. Oczywiście takie działanie jest wygodne i oszczędne czasowo, niestety błędne. Teraz podstrony będą rywalizowały pomiędzy sobą o pozycje w wyszukiwarce.

Powinieneś choć trochę zmodyfikować opisy, aby miały szansę wyświetlić się w indeksie wszystkie (albo przynajmniej żeby nie zostały ocenione jako niskiej jakości duplikaty obniżające jakość serwisu). Jeśli nie masz czasu, ustaw adres kanoniczny preferowanej podstrony – tej, dzięki której sprzedajesz najwięcej.

B – kopiowanie od producentów/z innych sklepów internetowych

Z drugim rodzajem duplikacji mamy do czynienia wtedy, kiedy kopiuje się treści z zewnętrznych stron internetowych. Przykładowo jesteś właścicielem sklepu internetowego i wszystkim produktom wklejasz opisy stworzone przez producenta.

To także bardzo wygodne i szybkie, ale szkodliwe dla SEO. Zduplikowane treści zostają od razu ocenione przez roboty Google negatywnie, ponieważ są im już znane – po pierwsze ze strony producenta, po drugie z mnóstwa innych sklepów internetowych, których właściciele również zdecydowali się na skopiowanie opisów. W rezultacie próby pozycjonowania danej strony produktowej będą bardzo trudne. Możesz też narazić się na karę.

Kopiowanie od producentów/z innych sklepów internetowych

Błędna konstrukcja adresu URL – w sklepie internetowym i nie tylko

Do kolejnych błędów w pozycjonowaniu należą niepoprawnie skonstruowane adresy URL. Korzystny dla SEO adres składa się ze słów: najlepiej kluczowych, zapisanych bez polskich znaków. I odwrotnie – adres URL stworzony ze zbitki przypadkowych liter i cyfr zostanie źle odebrany przez roboty Google (jest też niewygodny dla użytkowników). Poniżej przykład:

  • https://domena.pl/blog/jak-wybrac-dobre-glosniki-usb/ <- poprawny adres URL
  • https://domena.pl/blog/jjk32j121j1 <- błędny adres URL
Błędna konstrukcja adresu URL

Przy okazji omawiania błędnych adresów URL warto też wspomnieć o sytuacji spotykanej w sklepie internetowym, w którym użytkownik może samodzielnie posegregować produkty podług ceny, wielkości, koloru itp., a także w serwisie, w którym istnieje kilka alternatywnych dróg nawigacji do podstrony. Przykładowo można się na nią dostać poprzez kategorię z produktami tego rodzaju, kategorię producenta i kategorię promocyjną. W każdym z tych przypadków występuje dynamiczny adres URL, który bez wskazania kanonicznego oryginału doprowadzi do duplikacji treści.

Błędne przekierowania adresów URL

Pozycjonowanie serwisu internetowego nierzadko wymaga tworzenia przekierowań. Niezastosowanie ich może doprowadzić albo do duplikacji treści (z kanibalizacją podstron lub nie), albo do powstania błędów 404, z uwagi na które podstrony zostaną wyindeksowane z Google, witryna zaś straci część widoczności.

Innym błędem są przekierowania użyte niewłaściwie. Może chodzić o niedopasowanie starych treści do nowych i zaprzepaszczenie efektów SEO, zapętlenie przekierowania i zablokowanie dostępu do strony użytkownikom i robotom Google bądź pomylenie przekierowania stałego (301) z tymczasowym (302).

Błędne przekierowania adresów URL

Przekierowania w obrębie stron internetowych to temat szeroki i skomplikowany. Niepoprawne ustawienie ich może poważnie zaszkodzić pozycjonowaniu stron. Z tego powodu przed stworzeniem nowej reguły należy zrobić kopię zapasową pliku. Powody, metody i porady dotyczące przekierowań zebraliśmy w trzech artykułach, do których przeczytania zachęcamy:

Błędy 404 serwisu internetowego

Błędy 404 powstają z różnych powodów. Czasami nie szkodzą SEO, np. kiedy są wynikiem usunięcia mało wartościowej podstrony bądź błędnego wpisania adresu do paska przeglądarki. Istnieją jednak przypadki, w których błąd 404 sprawia, że pozycjonowanie nie działa.

Błędy 404 serwisu internetowego

Niekorzystne dla SEO jest przede wszystkim usunięcie podstrony, która ma wysoką pozycję w wynikach wyszukiwania oraz do której prowadzą wartościowe linki zwrotne, bez ustawienia przekierowania 301 na podstronę o takiej samej/podobnej treści. Również jeśli przeniosłeś wypozycjonowane treści spod kilku adresów pod inny, wspólny adres URL, ale nie zastosowałeś przekierowania, błąd 404 zaszkodzi widoczności serwisu.

Więcej o błędzie 404 dowiesz się z poradnika: Jak błąd 404 wpływa na pozycjonowanie?

Linki sprzyjają wypracowywaniu pozycji w wynikach wyszukiwania

Pozycjonowaniu strony internetowej sprzyjają po pierwsze akcje podejmowane na stronie (wstępna optymalizacja techniczna serwisu i tworzenie treści), po drugie zdobywanie linków z innych stron internetowych. Aby ocenić, czy SEO zadziałało w Twoim przypadku, musisz mieć pewność, że wykonałeś każdą z zalecanych czynności.

Pozycjonowaniu stron poprzez linki zwrotne przysługują się: atrybut dofollow, anchor text uwzględniający frazę kluczową (zwłaszcza exact match), dopasowanie podstrony do frazy. Z połączenia tych cech wychodzi najlepszy, ale też najbardziej agresywny rodzaj linku (dlatego wymaga zrównoważenia linkami innych rodzajów). Przekazuje najwięcej mocy ze strony wyjściowej i pozwala robotom Google połączyć daną frazę z Twoim serwisem.

Linki sprzyjają wypracowywaniu pozycji w wynikach wyszukiwania

Jeśli chcesz nauczyć się pozyskiwać linki na różne sposoby, skorzystaj z poradników:

Pozyskiwanie linków z niewłaściwych stron internetowych

Powodem, dla którego Twojej strony nie ma w top 10 wyników wyszukiwania – mimo regularnego pozyskiwania linków dofollow – może być niedopasowanie tematyczne serwisów (Twojego i tych, na których pojawiają się odnośniki). Nie chodzi bowiem o samo zdobywanie linków i pójście w liczbę, ale o jakość. Ta ostatnia obliczana jest na podstawie różnych aspektów, w tym adekwatności tematycznej.

Zgodny musi być przede wszystkim profil serwisu (przykładowo serwis sportowy jest w porządku w stosunku do sklepu z produktami dla miłośników sportu). Dalej liczą się kategoria (lepsza będzie sportowa niż plotkarska), treści (długi i jakościowy artykuł wygrywa ze zduplikowaną notką prasową) i umiejscowienie (więcej mocy da Ci pojedynczy link w artykule niż taki, który został otoczony masą innych linków).

Pozyskiwanie linków z niewłaściwych stron internetowych

Ciągłe pozyskiwanie linków z popularnych i dopasowanych tematycznie portali może się wiązać ze sporym obciążeniem budżetu marketingowego. Alternatywą – przy czym wymagającą pracy – jest założenie własnych stron zapleczowych. Przeczytaj, czym są i jak należy je prowadzić: Zaplecze SEO – co to jest i jakie daje korzyści?

Używanie złych fraz kluczowych i atrybutów w linkach

Niedopasowanie tematyczne to nie jedyny aspekt szkodzący SEO. Jeśli na rzecz swojej strony internetowej pozyskujesz wyłącznie linki z social media, komentarzy na blogach i forów internetowych, nieprędko osiągniesz wysokie pozycje w wynikach wyszukiwania. Niestety w tych miejscach odnośniki najczęściej zostają oznaczone jako nofollow bądź jego odmianę: ugc. Oba atrybuty stanowią sugestię dla robotów Google, by nie śledziły linku ani nie przekazywały mocy stronie docelowej.

Używanie złych fraz kluczowych i atrybutów w linkach

Również anchory wpływają na efekty SEO w nierówny sposób. Najwięcej mocy przekazuje i najbardziej wiąże z daną frazą kluczową anchor text exact match. Z kolei najsłabiej działa anchor zero match typu „przeczytaj tutaj”, „zobacz artykuł”, „sprawdź ofertę” itd. Oczywiście one także przysługują się pozycjonowaniu strony internetowej, tyle że wolniej – dłużej poczekasz na efekty.

Naucz się budować mocne linki SEO:

Pułapka powielania dobrych linków

Nauczyłeś się tworzyć mocne linki przekazujące Twojej stronie moc. Znalazłeś wysokiej jakości, dopasowane tematycznie portale, na których je umieszczasz. Czy w tej sytuacji cokolwiek może pójść nie tak?

Niestety – może. Do błędów w pozycjonowaniu należy także powielanie dobrych linków, które po skumulowaniu przynoszą stronie szkodę.

Pułapka powielania dobrych linków

Szkoda dla witryny wynika z dwóch powodów:

  • Pozyskiwanie samych linków dofollow jest dobre tylko z pozoru. Owszem, to właśnie za ich pomocą Twoja strona pobiera moc od innych, jednak Google patrzy na całokształt odnośników – na profil linków. W nim z kolei muszą być i takie z atrybutem dofollow, i takie oznaczone jako nofollow. Mało tego, konieczne jest zróżnicowanie anchorów i podstron docelowych. Dopiero na tle bezpiecznego, naturalnego profilu mocne linki dofollow są korzystne dla strony.
  • Umieszczanie wszystkich linków na jednym, a nawet na kilku portalach w kółko także stanowi błąd. Warto wiedzieć, że pierwszy link pozyskany ze strony A niesie największą moc. Kolejny – mniejszą, kolejny – jeszcze mniejszą itd. W końcu wartość dochodzi do zera (Google nie zdradził, po którym linku dochodzi do wyzerowania mocy).

Działania SEO sporadycznie – „jak się przypomni”

Do jednego z najczęstszych błędów osób zajmujących się SEO amatorsko należy „pozycjonowanie okazjonalne”, czyli podejmowanie działań wtedy, kiedy się o nich przypomni. Nieregularne i bardzo rzadkie wpisy na blogu, sporadyczne pozyskiwanie linków czy spóźnione reagowanie na aktualizacje algorytmu to wystarczające powody, by dać się przegonić konkurencji lub stracić na wartości w ocenie Google i zostać zepchniętym w dół indeksu. SEO to nieustający proces, dlatego działania wymagają ciągłości.

Działania SEO sporadycznie

Dlaczego Google Ads nie działa na pozycjonowanie witryny?

Do błędów w pozycjonowaniu należy traktowanie kampanii reklamowych Google Ads jako wsparcia dla SEO. Prawdą jest, że reklamy pozwalają sprzedawać więcej, docierać do nowych odbiorców i szerzyć świadomość marki, natomiast nie przekładają się na pozycje w wynikach organicznych. Jeżeli chcesz uplasować się w indeksie wysoko, niezbędne będzie podjęcie długich, niekiedy mozolnych działań pozycjonujących. Opłacenie kampanii Ads niestety nie pomoże.

Dlaczego Google Ads nie działa na pozycjonowanie witryny?

Psst! W pewnym sensie, bardzo ogólnym, kampanie w Google rzeczywiście mogą przysłużyć się pozycjonowaniu stron. Jeśli chcesz zgłębić temat, przeczytaj artykuł: Google Ads vs. SEO – wpływ reklam na pozycjonowanie.

Zaniedbane linkowanie wewnętrzne

Linkowanie wewnętrzne umacnia strukturę strony i stanowi łatwy, bezpłatny sposób na wskazanie robotom Google powiązań między podstronami i frazami. Służy również nawigacji – zarówno robotów, jak i użytkowników strony.

Zaniedbanie umieszczania linków wewnątrz strony należy do błędów w pozycjonowaniu. Liczy się nie tylko główne menu, ale również połączenia między kategoriami, odnośniki w artykułach (do innych artykułów, a także do produktów i kategorii), cross-sell w produktach, menu okruszkowe i dodatkowe menu w stopce. Pamiętaj, by na stronie głównej znalazły się odnośniki do najważniejszych podstron w serwisie.

Zaniedbane linkowanie wewnętrzne

Roboty Google i innych wyszukiwarek zostają zablokowane

Do błędów w pozycjonowaniu zaliczamy umyślne lub przypadkowe zablokowanie robotów Google i innych wyszukiwarek na podstronach, które są istotne pod względem SEO. Poniżej wskazaliśmy sposoby, na jakie najczęściej dochodzi do zablokowania robotów.

A – tag noindex w nagłówku

Używanie tagu noindex stanowi jeden z preferowanych przez Google sposobów na blokowanie dostępu robotów do treści na danej podstronie. Trudno wyobrazić sobie przypadkowe użycie go, ponieważ aby zadziałał, konieczne jest dopisanie tagu do sekcji nagłówka w kodzie HTML. Natomiast możliwe, że jeśli Twoje pozycjonowanie nie działa, tag został dodany przez webmastera na etapie tworzenia strony, a później nie został skasowany.

Zachęcamy do przeczytania o tagu więcej: Noindex, nofollow – czym się różnią?

B – plik robots.txt

Za pomocą pliku robots.txt nie da się zablokować robotów wyszukiwarek, chyba że do danej podstrony nie prowadzą żadne linki. Natomiast umieszczenie takiego polecenia nadal nie jest korzystne dla SEO. Jeśli strona pojawi się w wynikach wyszukiwania, nie będzie miała tytułu, opisu, zdjęcia ani innych elementów. Nieatrakcyjny widok sprawi, że użytkownicy nie będą chcieli jej kliknąć.

Roboty Google i innych wyszukiwarek zostają zablokowane

C – hasło na stronie internetowej

Drugi preferowany przez Google sposób na zablokowanie robotów to umieszczenie w witrynie bądź na konkretnej podstronie hasła. Jeśli występuje, robot nie może go ominąć. To z kolei sprawia, że na podstronach, na które dostęp mają wyłącznie zalogowani użytkownicy, nie warto stosować treści stworzonych z myślą o SEO. Aby pozycjonować serwis, albo przenieś te treści na inną podstronę, albo usuń konieczność zalogowania się na konto.

D – linki nofollow

Atrybut nofollow informuje roboty wyszukiwarek, że nie powinny śledzić podlinkowanej strony ani przekazywać jej mocy. Co prawda nie stanowi nakazu, tylko sugestię, jednak nie sprzyja pozycjonowaniu strony. Jeśli chcesz, aby cały serwis pozycjonował się łatwo i możliwie szybko, zadbaj o to, by wewnętrzne linki mały atrybut dofollow (z wyjątkami, o których przeczytasz za chwilę), podobnie jak te najważniejsze, najmocniejsze odnośniki ze stron zewnętrznych.

Linki nofollow

E – przekierowanie 301

Wspomnieliśmy już, źle ustawione przekierowanie 301 może zablokować dostęp robotom wyszukiwarek, np. gdy dojdzie do zapętlenia. Jeśli sądzisz lub wiesz, że ma to miejsce w przypadku Twojej strony, przeczytaj punkt poświęcony przekierowaniom oraz wymienione tam dodatkowe artykuły.

Roboty Google i innych wyszukiwarek NIE zostają zablokowane

Zablokowanie robotów może mieć szkodliwy wpływ na SEO, ponieważ podstrony nie zostaną zaindeksowane. A jednak wśród błędów w pozycjonowaniu znajdujemy także sytuację przeciwną: niezablokowanie dostępu robotom. Jak to rozumieć?

W większości serwisów istnieją podstrony, które nie powinny być indeksowane. Chodzi np. o regulamin czy politykę prywatności, których zazwyczaj nie pisze się samodzielnie, na dodatek nie zawierają słów kluczowych i nie są ważne w kontekście SEO. Chodzi również o podstrony niskiej jakości, pozbawione treści i operacyjne, takie jak koszyk, logowanie, landing page z podziękowaniem za zakup. Jeśli nie chcesz, żeby osłabiały jakość Twojej strony, zablokuj na nich roboty poprzez tag noindex.

Wielowymiarowa optymalizacja techniczna

Brak optymalizacji stanowi poważny błąd w pozycjonowaniu strony. Nie bez powodu przed opracowaniem strategii SEO wykonuje się audyt. Pozwala wykryć wszystkie słabe i mocne aspekty witryny, by następnie – dzięki strategii – wyeliminować wady i poprawić jakość.

Optymalizacja techniczna

Optymalizacja techniczna składa się z wielu elementów, z których dwa nieporuszone dotąd w artykule przedstawiliśmy poniżej. Natomiast jeśli interesuje Cię samodzielne przeprowadzenie audytu i przygotowanie strony do optymalizacji, zajrzyj do poradników:

A – porządek w kodzie HTML strony

Optymalizacja strony zakłada m.in. ocenę i poprawę kodu HTML. Powinien być uporządkowany i nie za długi. Musi uwzględniać aktualizacje języka HTML i zawierać jedynie najnowsze formy komend. Nie można pozostawiać niedomkniętych elementów kodu. Trzeba wyeliminować sprzeczne polecenia. Im prostszy kod HTML, tym lepiej zrozumieją go roboty, a co za tym idzie łatwiej będzie pozycjonować stronę.

W samodzielnej poprawie kodu HTML może Ci pomóc narzędzie PageSpeed Insights od Google. Ocenia jakość strony pod względem prędkości wczytywania jej elementów, wskazuje miejsca błędów w kodzie i podpowiada, w jaki sposób zmienić niepoprawne komendy.

B – obrazy, wideo i pliki

Innym aspektem optymalizacji strony jest zadbanie o jakość treści audiowizualnych. Aby były widoczne dla robotów, powinny zostać opisane – np. zdjęciom dodaje się opisy alternatywne, najlepiej z uwzględnieniem słów kluczowych. Trzeba też zwracać uwagę na rozmiar i wagę plików. Przed wysłaniem na serwer warto zmniejszyć obrazy i lekko, niezauważalnie obniżyć im jakość. Można to zrobić chociażby przez internet na stronie tinypng.com.

Prędkość wczytywania i działania strony

Szybkość ładowania podstron to jeden z najważniejszych czynników rankingowych Google. Jeżeli Twoja strona wczytuje się wolno, a do tego ma inne poważne wady, możesz mieć problem z wypracowaniem dobrych pozycji w wynikach wyszukiwania.

Aby rozwiązać problem, zastosuj wtyczkę do cache’owania. Ponadto usuń wszelkie zbędne elementy, zmień rozmiar i wagę plików multimedialnych, zastosuj prostsze rozwiązania techniczne. Wiele podpowiedzi co do poprawy szybkości ładowania witryny znajdziesz we wspomnianym już narzędziu PageSpeed Insights od Google.

Prędkość wczytywania i działania strony

Brak wersji mobilnej strony czy sklepu internetowego

Z roku na rok coraz więcej osób korzysta z internetu za pośrednictwem telefonu. Nic dziwnego, że już w 2016 roku Google napomknął o planach wdrożenia nowego algorytmu: Mobile First Index. Miał on oceniać strony pod kątem optymalizacji pod urządzenia mobilne. Zmiana wiązała się z położeniem większego nacisku na weryfikację prędkości wczytywania serwisu, a także ocenę: wielkości czcionek, łatwości trafiania w przyciski, odległości kluczowych elementów strony, poprawności ścieżki konwersji itd.

Oficjalna implementacja algorytmu nastąpiła dwa lata później. Strony nieposiadające wersji mobilnej zaczęły być oceniane gorzej od tych, które prezentowały się na smartfonach atrakcyjnie i były funkcjonalne. W rezultacie spadały, a niekiedy znikały z wyników wyszukiwania na urządzeniach mobilnych.

Tak zostało do dziś. Optymalizacja mobilna, jak również bardziej ceniona od niej responsywność strony, pozytywnie wpływają na ocenę jakości serwisu. Jeżeli więc Twoje pozycjonowanie nie działa, a witryny nie widać – zwłaszcza w wynikach mobilnych – powód może leżeć właśnie tutaj.

Brak wersji mobilnej strony czy sklepu internetowego

Rozszerz wiedzę o optymalizacji mobilnej:

Pozycjonowanie stron a zadowolenie użytkowników – UX

Aby zrozumieć, o co w ogóle chodzi w SEO, trzeba uświadomić sobie, jaki jest cel wyszukiwarek. Z założenia mają dostarczać jak najlepsze wyniki wyszukiwania użytkownikom, którzy wpiszą dowolne hasło. Nic zatem dziwnego, że Google kładzie nacisk na zadowolenie odbiorcy z kontaktu z samą wyszukiwarką oraz proponowanymi w niej stronami. Na podstawie danych takich jak długość czasu spędzonego w danej witrynie czy kliknięcie „cofnij” i powrócenie do wyników wyszukiwania ocenia, które strony spełniają oczekiwania użytkowników, a które nie.

Jeżeli Twoja strona ma poprawny kod HTML i wartościowe treści, ale nie da się na niej wykonać preferowanych przez klientów akcji – np. ukończyć ścieżki zakupowej bądź przeczytać artykułu bez konieczności zamykania wyskakujących okienek – ich zadowolenie będzie niskie. Wskaźnik UX – User Experience – spadnie, a Google weźmie to pod uwagę, ustalając pozycje w indeksie.

Pozycjonowanie stron a zadowolenie użytkowników - UX

Co zatem możesz zrobić? Twórz serwis w taki sposób, aby był łatwy i przyjemny w użytkowaniu przez potencjalnych klientów. Od czasu do czasu sprawdzaj w różnych przeglądarkach i na różnych urządzeniach, czy wszystkie elementy wyświetlają się poprawnie i są klikalne.

Bezpieczeństwo działania strony internetowej

Poza zadowoleniem użytkowników z korzystania ze strony istotne jest ich bezpieczeństwo. Działania SEO mogą być utrudnione chociażby w takiej witrynie, która nie ma certyfikatu SSL (została oznaczona jako niezabezpieczona), a już na pewno w takiej, na której Google odnotował zainfekowane pliki. Tę drugą, jeśli stanowi poważne zagrożenie dla użytkowników, może wręcz usunąć z wyników wyszukiwania.

Bezpieczeństwo działania strony internetowej

O bezpieczeństwo strony należy dbać m.in. poprzez zakup certyfikatu SSL u sprawdzonego dostawcy, korzystanie z programów antywirusowych, aktualizowanie wtyczek, szablonu i CMS-a, wgrywanie na serwer jedynie sprawdzonych plików, korzystanie z atrybutu noopener w linkach.

Błędy Black Hat SEO

Black Hat SEO to pozycjonowanie niezgodne z regulaminem Google, naginające bądź łamiące zasady. Stosuje się je, ponieważ w wielu przypadkach – w małej ilości i do czasu – daje rezultaty. Na dodatek dobre i szybkie. W końcu jednak algorytm zwraca uwagę na nieetyczne osiąganie pozycji i nakłada na stronę karę – czasem filtr, rzadziej bana. W takiej sytuacji kolejne działania SEO, nawet jeśli etyczne i zgodne z zasadami, nie przynoszą efektów.

Błędy Black Hat SEO

Jeśli nie możesz wypozycjonować strony, a zadbałeś o optymalizację techniczną, treści i linki zwrotne, być może chodzi o sposób, w jaki działania prowadziła poprzednia agencja. Albo o coś, co zrobiłeś nieświadomie sam, bo nie wiedziałeś, że nie wolno. Sprawdź, czym jest Black Hat SEO i jakie praktyki się do niego zalicza: Pozycjonowanie: White Hat SEO, Black Hat SEO – czym są?

Realizowanie strategii SEO mimo filtra nałożonego na stronę

Jak wspomnieliśmy w powyższym punkcie, po otrzymaniu kary od Google jest już za późno na rozpoczęcie etycznego pozycjonowania, zgodnego z regulaminem. Wcześniej należy usunąć szkody, za które właściciel wyszukiwarki nałożył na stronę filtr. Jeśli chodzi o linki pozyskane np. w systemie wymiany linków, trzeba się ich pozbyć: skasować je bądź zrzec się ich. Jeżeli zawiniły duplikaty treści bądź niska jakość tekstów, to także trzeba naprawić.

Realizowanie strategii SEO mimo filtra nałożonego na stronę

Poniżej znajdziesz trzy teksty omawiające kary od Google pod różnymi kątami. Zachęcamy do zapoznania się z nimi, jeśli sądzisz, że brak powodzenia w pozycjonowaniu wynika z nałożenia na stronę kary, np. filtra algorytmicznego:

Ważne! Jeśli jeszcze nie masz konta w darmowej usłudze Google Search Console, załóż je. Dostaniesz tam powiadomienie o karze, jeżeli pracownicy Google nałożą ją na witrynę ręcznie.

Brak analizy wyników strategii pozycjonowania

Trudności w pozycjonowaniu mogą wynikać z przyczyny prozaicznej – braku analizy wyników. Na początku artykułu wyjaśniliśmy, że na efekty pozycjonowania trzeba czekać kilka miesięcy. To fakt. Natomiast bardzo dobrym zwyczajem jestem zaglądanie do narzędzi typu Google Search Console czy Analytics, a także płatnych: Senuto, Semstorm, Ahrefs, Majestic. Reagowanie na wydarzenia w czasie rzeczywistym pozwoli Ci zapobiec złemu kierunkowi pozycjonowania.

Brak analizy wyników strategii pozycjonowania

Przykładowo Ahrefs bądź Majestic warto śledzić, by oceniać profil linków. Jeśli zauważysz, że odnośniki jednego typu albo do jednej podstrony przeważają, w kolejnym miesiącu postawisz na inne, by zachować różnorodność. W Senuto i Semstormie sprawdzisz, na jakie słowa kluczowe warto położyć nacisk, bo tracisz na nie widoczność – takim słowom możesz pomóc, wykorzystując je w linkowaniu zewnętrznym i częściej używając ich w tekstach na blogu firmowym. Frazy kluczowe zweryfikujesz też za darmo w Google Search Console, choć uzyskasz jedynie podstawowe informacje – średnią pozycję podstrony w indeksie, liczbę wyświetleń i kliknięć.

Depozycjonowanie stron www – rzadkie, ale się zdarza

Dlaczego jeszcze pozycjonowanie może nie działać? Zdarza się, że winę ponoszą nieuczciwi konkurenci – ci, którzy nie chcą wiedzieć Twojej strony na wysokich pozycjach, bo sami mają nadzieję się na nich znaleźć. Należy jednak zaznaczyć, że nie jest to przypadek częsty i radzimy wcześniej szukać przyczyny w innych miejscach.

Depozycjonowanie strony stanowi proces odwrotny do pozycjonowania i niestety może być podejmowane przez osoby z zewnątrz. Wystarczy, że nieuczciwa konkurencja kupi linki prowadzące do Twojej strony z serwisów niskiej jakości – w setkach czy tysiącach. Może też próbować włamać się do serwisu, zainfekować go wirusem bądź kopiować teksty i umieszczać je na innych stronach internetowych, żeby zostały uznane przez Google za duplikaty.

Depozycjonowanie stron www - co to jest

Najpopularniejsze metody depozycjonowania stron omówiliśmy w artykule: Co to jest depozycjonowanie strony? Zachęcamy do przeczytania go, byś wiedział, co zrobić w przypadku tego typu sytuacji.

Czy agencja SEO coś robi? Google Search Console, Google Analytics i inne narzędzia

Usłyszałeś od znajomego lub przeczytałeś w internecie, że są agencje SEO, które biorą pieniądze, ale w rzeczywistości niczego nie robią. Nie masz dostępu do płatnych narzędzi ani nie umiesz ich używać. Widzisz jedynie, że na słowa kluczowe, na których zależy Ci najbardziej, wciąż masz te same pozycje – niestety niezbyt atrakcyjne. Czy rzeczywiście agencja niczego nie robi?

Pracę specjalistów możesz przeanalizować na podstawie danych z narzędzi Google: Search Console i Analytics. W tym pierwszym zwróć uwagę na nowo nabyte frazy oraz pozycje podstron. Jeśli zauważyłeś pojawienie się nowych fraz, a dawne pozycje są wyższe – świetnie. Z kolei w Google Analytics weź pod lupę ruch z organicznych wyników wyszukiwania. Wzrost widoczności strony w indeksie powinien wiązać się ze wzrostem wejść do serwisu.

Google Search Console, Google Analytics i inne narzędzia

Pamiętaj jednak, by nie oceniać agencji negatywnie zbyt pochopnie. Jeśli masz wątpliwości co do podejmowanych działań i ich skuteczności, poproś o wykres widoczności wygenerowany z płatnych narzędzi lub wykaz pozyskanych linków. Rozmowa powinna wiele wyjaśnić.

Psst! Jeśli myślisz, że pozycjonowanie nie działa, bo wpisałeś słowa kluczowe w Google i nie zauważyłeś swojej strony, śpieszymy wyjaśnić, że to nie do końca tak działa. Każdy użytkownik otrzymuje inne wyniki wyszukiwania – czasem trochę, czasem zupełnie. Google zwraca uwagę na profil zalogowanego użytkownika, zastosowane filtry, historię wyszukiwania, urządzenie, na którym przeglądasz internet, i inne aspekty. Jeżeli chcesz sprawdzić pozycje strony w możliwie najbardziej obiektywny sposób, skorzystaj z tych metod: Jak sprawdzić pozycję strony w Google?

pozycjonowanie nie działa - czy pozycjonowanie działa?

FunkyMedia pomaga w pozycjonowaniu stron internetowych

Jeżeli jesteś na etapie poszukiwania i wybierania agencji SEO, polecamy się. Dbamy nie tylko o efekty pozycjonowania, ale również komunikację z klientem. Nie ma problemu, jeśli nie znasz się na marketingu internetowym, a chciałbyś nabyć nieco wiedzy i wspomóc nas w działaniach. Na początek odsyłamy Cię do naszego bloga, na którym regularnie publikujemy poradniki dotyczące pozycjonowania i nie tylko. Przeczytaj o kwestiach, które Cię interesują. Wypisz pytania i zadaj je nam – chętnie odpowiemy.

Natomiast jeżeli wolisz oddać SEO w nasze ręce i zupełnie się nim nie przejmować, w porządku. Co prawda połączenie sił daje lepsze efekty, ale rozumiemy zapracowanych przedsiębiorców, którzy nie chcą zgłębiać nowej dziedziny wiedzy i odrywać się od pracy.

FunkyMedia pomaga w pozycjonowaniu stron internetowych

Pozycjonowanie w FunkyMedia składa się z SEO on-site i off-site, czyli optymalizacji strony i pozyskiwania mocnych linków z dopasowanych stron. Jeżeli w witrynie przydałyby się nowe teksty, możesz je napisać samodzielnie, a mogą się nimi zająć nasi copywriterzy. Daj znać, jaki zakres współpracy Cię interesuje i jakich efektów oczekujesz. Czekamy na Twoją wiadomość!

Napisz komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *