Przyczyny usunięcia strony z indeksu Google po zmianie hostingu. Praktyczne wskazówki

Zmiana hostingodawcy może wpływać negatywnie na pozycjonowanie strony. Wszystko zależy od tego, w jaki sposób przeprowadzimy migrację strony. Zwykle jednak proces ten jest znacznie mniej ryzykowny w porównaniu do takich działań, jak np. zmiany domeny. Jeżeli strona straci pozycje w Google, a nawet zostanie usunięta z indeksu, konieczne jest przeprowadzenie dokładnej diagnostyki. John Mueller z Google wskazuje, na co szczególnie warto zwrócić uwagę i co zrobić, aby takie zdarzenia możliwie najbardziej zminimalizować.

Deindeksacja strony internetowej po zmianie hostingu

Najnowsze wskazówki dotyczące diagnozowania witryny na WordPressie, która została usunięta z indeksu Google po migracji hostingu, rzucają więcej światła nie tylko na sam proces, ale także przyczyny usunięcia strony z indeksu. W najnowszej dyskusji z Johnem Muellerem w ramach Google Office Hours pada pytanie, od czego zacząć diagnozowanie powodów deindeksacji strony po migracji hostingu. Odpowiedź Muellera wskazuje na główne przyczyny, które mogły spowodować wystąpienie tego typu trudności.

Pytanie zadane Johnowi dotyczyło witryny, która pierwotnie była hostowana na platformie WordPress.com. Następnie właściciel zdecydował się na innego dostawcę hostingu. Migracja witryny WordPress na innego dostawcę hostingu wymaga kilku stosunkowo prostych kroków, ale może być problematyczna na każdym etapie procesu.

Identyfikacja przyczyn usunięcia strony z indeksu Google

Problem przekazany Johnowi polegał na tym, że po przeniesieniu witryny do innego hostingodawcy wszystkie publikacje na stronie zostały usunięte z indeksu. Mueller odpowiedział na pytanie z punktu widzenia analizy samej witryny. Wskazał, że jeżeli strony znikają z wyników wyszukiwania i w ogóle nie są już indeksowane, to prawdopodobnie strona na nowym hostingu została obarczona dodatkowymi ograniczeniami. Możliwe jest, że strona samodzielnie blokuje wyszukiwarki internetowe.

Mueller zaleca, aby w takiej sytuacji od razu przyjrzeć się widokom szczegółowym w Google Search Console. Na początku warto sprawdzić, od kiedy dokładnie strony zaczęły wypadać z indeksu Google i czy daty te pokrywają się ze zmianą hostingu. Jeżeli występuje tu zbieżność, możliwe przyczyny deindeksacji mogą obejmować błąd w znalezieniu poszczególnych strony (błąd 404) lub zablokowanie Google przed ich indeksacją za pomocą pliku robots.txt. To główny punkty wyjścia, które na początku należy zidentyfikować.

Jak sprawdzić, czy Google jest blokowane przez nową stronę?

Najczęstszą przyczyną usunięcia wszystkich bądź części stron z indeksu Google po zmianie hostingu są zmiany w obrębie samej strony. Problem występuje najczęściej wtedy, gdy strona osadzona na WP ma ustawienia uniemożliwiające indeksowanie witryny przez wyszukiwarki. Ustawienia te widoczne są w pliku robots.txt. w sekcji user-agent.

grafika, robots.txt, podstawowe dyrektywy
Główne komendy dotyczące blokowania indeksacji strony internetowej przez wyszukiwarki internetowe w pliku robots.txt.

Jeżeli komenda user-agent zawiera w sekcji disallow jakiekolwiek informacje, może to być przyczyną deindeksacji. Nie musi to być tylko symbol gwiazdki (*), który odnosi się do wszystkich crawlerów. W pliku robots.txt możliwe jest zaznaczenie konkretnych wyszukiwarek, a także konkretnych miejsc strony, np. /comment, /feeds itd.

W raporcie indeksowania stron w Google Search Console można sprawdzić status strony i zweryfikować, czy wyszukiwarka jest blokowana przez plik robots.txt. Informacje wyświetlane są w kolumnie “Dlaczego strony nie są indeksowane”.

Można to również sprawdzić niezależnie, otwierając plik robots.txt bezpośrednio z poziomu serwera bądź poprzez wykorzystywany system CMS. Plik robots.txt znajduje się zwykle w głównym katalogu domeny, np. domena.pl/robots.txt. Jeśli strona jest zablokowana przez robots.txt, może się okazać, że ustawienie WordPressa zostało zastosowane w pewnym momencie migracji, aby zablokować indeksowanie przez wyszukiwarki. W tym wypadku wszystko zależy od hostingodawcy.

Możliwe, że ustawienia serwera wymuszają wgranie nowego pliku robots.txt po migracji, co sprawia, że stary plik jest nadpisywany nowymi ustawieniami. Najczęstszym powodem są obawy o bezpieczeństwo. Oczywiście tego typu polityka jest niezwykle problematyczna i w gruncie rzeczy niepotrzebna. Największe firmy hostingowe, również w Polsce, nie mają takiej praktyki, ale w skali globalnej przypadki te regularnie się zdarzają.

A może problematyczna wtyczka?

Jeśli treść pliku robots.txt nie blokuje wyszukiwarki, a problem mimo wszystko występuje po przeniesieniu strony z jednego hostingu na drugi, może to być spowodowane problemami z jakąś wtyczką. Niektóre ustawienia nowego serwera mogą wpływać na sposób działania określonych pluginów, które mogą się crashować, albo mogą występować problemy z kompatybilnością. Rezultatem takich problemów może być powstanie zmian w pliku robots.txt.

Niepoprawna konfiguracja wtyczki, błędy przy instalacji czy przenoszenia na nowy serwer – to jedne z najczęstszych przyczyn nagłych problemów z indeksacją.

W takiej sytuacji wyłączenie wtyczek i edytowanie pliku robots.txt w edytorze tekstu jest najprostszym i najszybszym rozwiązaniem. Jeśli kondycja strony w ogóle pozostaje na odpowiednim poziomie, warto zmienić ręcznie ustawienia robots.txt, a następnie reinstalować pluginy.

Do innych przyczyn wskazywanych przez Johna Muellera należą także problemy wynikające z braku aktualizacji ustawień DNS. Mogą występować różne inne problemy po stronie dostawcy hostingu. Identyfikację stanu witryny zawsze warto zacząć od sprawdzenia strony bezpośrednio przez CMS oraz przez Google Search Console. Dobrym pomysłem jest także skontaktowanie się z supportem nowego hostingu.

Pozostałe błędy techniczne na stronie

Migracja strony nie musi stanowić głównej przyczyny usunięcia jej z indeksu wyszukiwarki. Może mieć do czynienia ze zbiegiem okoliczności, jednak główna przyczyna może być związana z problemami technicznymi na stronie. Mogą to być między innymi błędy kodowania, błędy motywu, problemy z dostępnością, łamane linki. Problemy techniczne mogą występować również na skutek prób ataku na stronę internetową. Google preferuje indeksowanie stron, które są łatwo dostępne i dobrze skonstruowane technicznie. W związku z tym, gdy roboty Google napotykają na poważne problemy techniczne podczas indeksowania strony, mogą zdecydować się na jej wykluczenie z wyników wyszukiwania.

Naruszenia wytycznych dotyczących treści

Jeżeli strona zawiera treści naruszające wytyczne dotyczące jakości i zgodności z zasadami Google, może to doprowadzić do usunięcia jej z indeksu. Takie wykroczenia mogą obejmować nadmierną ilość nieoryginalnej zawartości, np. wygenerowanej przez A.I., nadmierną liczbę linków zwrotnych niskiej jakości, a także wykorzystywanie niezgodnych praktyk SEO, takich jak stuffing słów kluczowych czy ukrywanie poszczególnych fragmentów treści i/lub kodu, które klasyfikowane jest oficjalnie jako praktyki black hat SEO. W skrajnych przypadkach deindeksacja może być spowodowana również atakiem spamu, który zawiera wyżej wymienione elementy, np. niebezpieczne odnośniki i treści.

Zmiany adresów URL i struktury strony

Niepoprawnie przeprowadzona migracja strony z jednego hostingu na drugi może wiązać się ze zmianami strukturalnymi. Do tej grupy błędów należą także modyfikacje ścieżek dostępu i adresów URL. Crawlery Google mogą mieć trudności ze śledzeniem nowych adresów URL, jeśli dochodzi do duplikacji strony, zmian adresów URL i innych tego typu problemów w strukturze witryny.

Po zalogowaniu się w Google Search Console znajdziemy rubrykę “Dlaczego strony nie są indeksowane?” – warto ją regularnie monitorować.

Przyczyny usunięcia strony z indeksu po zmianie hostingu – podsumowanie

Wniosek nasuwa się jasny – deindeksacja strony z Google po przejściu na inny hosting najczęściej jest związana z plikiem robots.txt. Nie zawsze jednak wynika to z bezpośrednich zmian w pliku. Przyczyny mogą być różne: niekompatybilność wtyczek, błędy po stronie serwera, nieprawidłowe wersje CMS, nadpisanie pliku robots.txt. itd.

Nieprawidłowo skonfigurowany plik robots.txt, problemy techniczne na stronie oraz treści niezgodne z wytycznymi Google mogą wszystkie przyczynić się do tego tego, że strona bądź konkretne podstrony zostaną usunięte z indeksu. Z tego powodu warto regularnie monitorować stan witryny zarówno w obrębie CMS, jak i poprzez Google Search Console. Przed przeniesieniem strony dobrze jest dokładnie sprawdzić konfigurację pliku robots.txt i upewnić się, że nie zawiera on żadnych dyrektyw blokujących dostęp do istotnych treści (disallow). Nie można też zapominać o przestrzeganiu wytycznych dotyczących jakości treści, także od strony technicznej i w kontekście różnych wtyczek odpowiadających za generowanie treści, tłumaczenie czy jej modyfikację.

Napisz komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *