Obserwując zmiany w algorytmach Google Search na przestrzeni dwóch ostatnich dekad, można wnioskować, że zachodzi pewien powtarzalny schemat nauki. Google wymaga stosowania nowych danych, których następnie się uczy i rozszerza swoje informacje bazowe. Gdy już to nastąpi, nowe dane przestają być czynnikami rankingowymi bądź ich relewancja spada. Czy Google niezmiennie od dekad wykorzystuje mechanizm zwiększania swojej wiedzy kosztem pracy developerów i seowców?
Cykl nauki Google – nowe aktualizacje, nowe dane
Google co kilka lat wprowadza nowe aktualizacje rdzeniowe (Core Update), które ingerują w sposób weryfikowania danych, wprowadzają nowe czynniki rankingowe i usuwają stare. Pomiędzy aktualizacjami rdzeniowymi mamy też szereg pomniejszych aktualizacji, np. Helpful Content. Tego typu update’y również wprowadzają na użytkowników dodatkowe wytyczne, którym należy sprostać. Jednak i w tym przypadku można zauważyć, że wiele z wprowadzanych zmian albo zostaje następnie wycofana przez Google, albo relewancja nowych czynników znacznie maleje.
Nikt oczywiście nie ma wiarygodnej wiedzy na temat tego, co aktualnie znajduje się w algorytmach Google. Od początku istnienia wyszukiwarki analiza, jak wyglądają czynniki rankingowe, bardziej przypomina zgadywankę, niż realną naukę. Ze względu na brak weryfikacji do dyspozycji branży SEO pozostają tylko testy empiryczne. Ale i one będą zawodne, jeżeli środowisko zmienia się cały czas, a zmiany strukturalne algorytmów mają miejsce co kilkanaście miesięcy.
James Allen z Search Engine Land w artykule Structure, consume, learn and retire: Google’s pattern of learning przekonuje, że Google cały czas od lat stosuje sprawdzony przez siebie schemat poznawania i uczenia się nowych danych. Cykl ten obejmuje wymaganie nowej wiedzy, przyswajanie jej i usuwanie bądź umniejszanie takich czynników. W tym ujęciu cykliczny proces nauki Google Search, który ma dawać nam nowe możliwości tylko po to, aby później je usunąć, wydaje się być kluczową częścią strategii Google.
Give & take: jak Google wymusza wprowadzanie nowych zmian?
Wydaje się, że na przestrzeni lat Google ustalił schemat, w jaki sposób działa w sieci i jak ewoluują algorytmy. Wyszukiwarka zbiera informacje o stronach internetowych za pomocą crawlerów. Analizuje różne czynniki, których gama z czasem zaczynała się rozszerzać. To między innymi strukturalne formaty danych, meta tagi, znaczniki schema, linkowanie, treść i słowa kluczowe, hierarchia strony itd.
Google następnie przyswaja i uczy się z tych danych rozproszonych w sieci, analizując strony internetowe i dostosowując ranking. Po wydobyciu wystarczających informacji Google następnie usuwa lub zmniejsza znaczenie niektórych formatów danych, które wcześniej samodzielnie wprowadziło. Sprawia to, że czynniki, do których zdążyliśmy się przystosować, nagle stają się nie tak relewantne, jak wcześniej, a wysiłki seowców w dużej mierze idą na marne.
Etapy procesu give & take Google
Powyższy schemat uczenia się Google Search Allen określa jako ‘give & take’ pattern, czyli schemat “dawania i odbierania”. To cykliczny proces wprowadzania nowych wytycznych i wymogów, których implementacja dostarcza nowych danych wyszukiwarce, ale po zebraniu odpowiednio dużej próby i przeanalizowaniu Google przynajmniej częściowo wycofuje się z danych zmian, uznaje je za nie tak istotne bądź przynajmniej wprowadza nowe wytyczne, które uwypuklają zupełnie inne wymogi. Całość można streścić w następujących punktach:
- Google wprowadza nowe wytyczne, np. w formie Core Update, akcentując konieczność wprowadzania określonych zmian na stronach internetowych.
- Roboty Google zbierają nowe dane i uczą się nowych prawidłowości.
- Google zmienia politykę; dotychczasowe wytyczne nie są już tak istotne bądź wdraża nowy update, który wprowadza nowe czynniki. Schemat się zapętla.
Z kolei ze względu na przedmiot, którego dotyczą konkretne działania w danym okresie, schemat give & take Google można podzielić na 4 etapy:
- Struktura – Google udostępnia pewną strukturę obejmującą metody wpływania na wyniki wyszukiwania oraz algorytmy rankingowe. Struktura to przede wszystkim czynniki rankingowe. Podlegają one nieustannym zmianom. Przykładowo, w przeszłości słowa kluczowe mogły informować Google, które frazy kluczowe są istotne dla danej strony internetowej i na tej podstawie Google mógł klasyfikować np. tematykę stron, ale także wprowadzać zmiany w SERP. Dziś słowa kluczowe nie są już tak istotne.
- Konsumpcja – etap, w obrębie którego Google zbiera dane z sieci, przeglądając strony internetowe przy pomocy swoich crawlerów. Ten etap jest najistotniejszy z perspektywy Google – bez konsumowania danych z sieci, Google nie ma czego się nauczyć.
- Nauka – trzeci etap to wykorzystanie przez Google świeżo przetworzonych danych po wdrożeniu zalecanych modyfikacji (zmian strukturalnych). Na tym etapie Google weryfikuje, jakie były reakcje na proponowane zmiany algorytmów? Czy wprowadzone zmiany okazały się być użyteczne, czy przyniosły odwrotne skutki od zamierzonych? Od tego momentu Google może pewnie dokonywać zmian w swoich algorytmach rankingowych.
- Emerytura – gdy Google już się nauczy, ile tylko może, nie ma powodu, by polegać na wytycznych, które nie mają już zastosowania. Pozostawienie takich zmian bez dalszych modyfikacji może powodować sytuację, kiedy dochodzi do ich nadużywania. Z tego powodu wyszukiwarka potrzebuje kolejnych danych, a społeczność nowych wytycznych, które zacznie testować. Cykl kończy się i przechodzi ponownie do punktu pierwszego.
Seowcy – środek do osiągania bieżących celów Google’a
Cały wyścig polega na tym, aby wyszukiwarka nauczyła się z sposobu interakcji zachodzącej pomiędzy właścicielami stron a nowymi, proponowanymi przez Google strukturami. Zmiany strukturalne muszą być proponowane dość szybko – zanim społeczność nauczy się obchodzić dotychczasowe zasady, albo okaże się, że wcale nie są one kluczowe i nie wpływają na pozycje strony w wynikach wyszukiwania. Google zazwyczaj wygrywa ten wyścig. Dzieje się tak mniej więcej od wprowadzenia algorytmu Pingwin, który skutecznie zabrał z rąk seowców wiele ciekawych narzędzi. To nie oznacza, że nikt nie może wykorzystywać nowych elementów strukturalnych, zanim Google je odrzuci. Po prostu oznacza to, że Google zazwyczaj odrzuca takie elementy, zanim samodzielnie nie wprowadzi swoich wytycznych i zasad ich egzekwowania.
Oczywiście w takim rozrachunku schemat give & take pozwala wyszukiwarce traktować specjalistów SEO jako środek do osiągania swoich celów – pewnego rodzaju narzędzie, które będzie dostarczało pożądanych w danym momencie danych. Google potrzebuje przeanalizować nowe znaczniki schema? Nie ma problemu: wypuśćmy więc aktualizację, która zasugeruje, że są to czynniki rankingowe (w rzeczywistości wcale nie muszą nimi być). Branża SEO od razu podłapie temat, dostosowując strony zgodnie z wymaganiami. A gdy już zbierzemy odpowiedni feedback i wyciągniemy wnioski z przetworzonych danych, skoncentrujemy się na czymś innym. Schemat “daj i zabierz” to z jednej strony wydobywanie danych w celu poprawy swoich algorytmów i ciągłego doskonalenia rozumienia sieci, z drugiej zaś eksperymentalny cykl zarządzania szeroką społecznością i jej potrzebami.
Przykłady polityki give & take Google
Prezentowany schemat nie wziął się znikąd. To wynik analizy dotychczasowych działań Google, dynamiki i sposobu przeprowadzania modyfikacji algorytmicznych w obrębie Google Search. Potwierdza to szereg przykładów. Poniżej prezentujemy tylko kilka najważniejszych, takich jak zmiany w zakresie traktowania danych meta, danych strukturalnych schema oraz atrybutów rel.
Dane meta
W przeszłości słowa kluczowe i opisy meta miały ogromny wpływ na algorytmy rankingowe Google’a. Początkowe wsparcie dla słów kluczowych w wyszukiwarkach faktycznie poprzedza założenie Google’a w 1998 roku. Wdrażanie słów kluczowych na poziomie meta, za pomocą dodatkowych znaczników HTML, było sposobem na przekazanie wyszukiwarce istotnych informacji dotyczących zakresu tematycznego strony i nie tylko. Jednak tak prosty i użyteczny kod szybko był nadużywany. Webmasterzy zaczęli traktować słowa kluczowe jako przepustki do uzyskiwania coraz szerszego spektrum odbiorców bez zapewniania użytkownikom pożądanej jakości. Wielu webmasterów “wstrzykiwało” tysiące słów kluczowych na stronę w celu uzyskania większego ruchu w wyszukiwarkach niż byłoby to uczciwe – zarówno za pomocą wówczas legalnych metod, jak i już potępianych, np. cloakingu. Zjawisko to szybko doprowadziło to do wzrostu liczby niskiej jakości stron internetowych, najczęściej wypełnionych płatnymi reklamami, które gromadziły ruch organiczny w celu konwertowania go w dochody z reklam.
W 2009 roku Google potwierdziło to, co wielu podejrzewało od lat. We wrześniu 2009 r. Google wydaje słynne oświadczenie: „Google nie używa tagu meta słów kluczowych w rankingu wyników wyszukiwania w sieci”. Stanowisko Google staje się game changerem – diametralnie zmienia zasady gry.
Innym przykładem jest meta description – fragment tekstu pod linkiem w wynikach wyszukiwania Google. W miarę jak Google się rozwijało, zaczęło ignorować meta opisy w pewnych sytuacjach. Dzieje się tak dlatego, że użytkownicy mogą odkryć stronę internetową za pomocą różnych słów kluczowych Google’a. Jeśli strona internetowa omawia wiele tematów, a użytkownik wyszukuje termin związany z tematem 3, pokazanie fragmentu z opisem tematów 1 lub 2 nie byłoby zbytnio pomocne. Dlatego Google zaczęło przepisywać fragmenty wyników wyszukiwania na podstawie intencji wyszukiwania użytkownika, czasami ignorując statyczny meta opis strony. Swoją drogą, wciąż nie jest jasne, kiedy Google pobiera ustawiony przez właściciela meta description, a kiedy generuje własny opis z fragmentów treści dostępnych na stronie. Te zmiany również “zresetowały” dotychczasowe” ustalenia, specjaliści SEO zaczęli zmieniać podejście do opisów meta, a Google otrzymało nowe zestawy danych do analizy – zgodnie ze schematem give & take.
Dane strukturalne schema
Kiedy Google wprowadziło obsługę danych strukturalnych, początkowo promowało stosowanie tzw. mikroformatów. Poszczególne elementy meta miały być oznaczone w kodzie HTML tak, aby dostarczyć Google informacje strukturalne lub kontekstowe. Pomysł ten przypomina trochę HTML-owe meta tagi, ale zamiast ich rozszerzania, zdecydowano się na nową składnię kodowania. Pierwotnie – i w dużej mierze nadal – schemat miał dostarczać dodatkowych informacji kontekstualnych na temat już wdrożonych danych lub kodu. Zarówno schemat, jak i metadane, miały osiągać podobny cel, ale schema stały się bardziej skalowalne i skuteczne.
Obecnie Google nadal wykorzystuje dane strukturalne i stanowią one podstawowe informacje o strukturze strony, np. bloku FAQ, informacji kontaktowych czy finansowych firmy. Z czasem schema zaczęły się wzbogacać o inne typy danych strukturalnych. Google zaczęło inkorporować część danych do listy wyników wyszukiwania w formie bogatych fragmentów (rich snippets). Początkowo panował chaos w tym zakresie. Google, przykładowo, dodawało oceny gwiazdkowe do rozszerzonych fragmentów, które momentalnie stawały się przedmiotem licznych nadużyć. W ich następstwie Google wprowadza kary w 2014 roku. Ta historia dalej cyklicznie się powtarza do teraz (2024 r.), kiedy wyszukiwarka wprowadza nowe rozwiązania strukturalne, po czym się z nich wycofuje, proponując nowe podejście.
Rel=Prev/Next
W 2011 roku Google zaproponowało dwa atrybuty HTML: rel=”prev” i rel=”next”. Idea była taka, aby dodatkowo wesprzeć Google w lepszej interpretacji danych kontekstowych w zakresie tego, w jaki sposób określone rodzaje stron z paginacją były ze sobą powiązane. W 2019 roku Google ogłasza, że nie wspiera już tych formatów. Co więcej jednak, oświadczono, że tak naprawdę Google nie brało pod uwagę atrybutów rel już od dłuższego czasu, prawdopodobnie od około 2016 r. Znacznie po fakcie więc cała branża dowiaduje się o tym, że czynności, które wykonuje regularnie, są zupełnie bez znaczenia. Nie przekładają się w żadnym stopniu na pozycje stron w wynikach wyszukiwania.
W środowisku SEO nie brakowało wówczas ogólnej irytacji, ponieważ specyfika tagów obejmowała między innymi to, że były one relatywnie trudne do zaimplementowania, często wymagając od programistów zmiany kodu motywów strony internetowej. Coraz bardziej potwierdzało się to, że Google sugeruje złożone zmiany kodu w jednym momencie tylko po to, by je odrzucić w następnym momencie. W rzeczywistości prawdopodobnie Google po prostu nauczyło się wszystkiego, czego potrzebowało z eksperymentu z rel=”prev” / „next” – i przeszło do kolejnego etapu give & take.
Cykl nauki Google Search i polityka give & take – podsumowanie
Cały czas wprowadzane są mniejsze bądź większe zmiany w obrębie Google Search. Jednak zdecydowana większość z nich pojawia się i… znika. Zebrane w tym artykule przykłady mogą potwierdzać słuszność teorii Jamesa Allena, zgodnie z którymi istnieje pewien jasny, ustrukturyzowany cykl nauki. Opiera się on na modelu “dawania i zabierania” (give & take) i dobrze ukazuje dynamikę dotyczącą wprowadzanych przez Google zmian.
Mechanizm give & take polega na implementacji nowych funkcji, takich jak historycznie np. adresy proxy, wsparcie dla schematów danych strukturalnych itd., aby wywołać etap realnego testowania i zbierania danych. W trakcie tego etapu Google pozyskuje dane, które dostarczane są przez webmasterów, którzy starają się dostosować do nowych wymogów czy oczekiwań Google’a. W momencie, kiedy Google zbierze już wystarczającą ilość danych, ocenia, czy nowa polityka faktycznie ma sens, czy nie. W większości przypadków “kasuje” wcześniejsze zalecenia bądź dodaje nowe tak, aby powtórzyć cały cykl od nowa. Jak pokazują zebrane przykłady, m.in. kazus atrybutu rel=”prev” / „next” czy problem interpretacji słów kluczowych meta, Google nie waha się zrezygnować nawet z istotnych funkcji, które mocno ingerują w mechanizm rankingowy.
Istnienie mechanizmu give & take, niestety, nakazuje zachować jeszcze większą uwagę w zakresie wprowadzanych zmian. Udowadnia to, że Google jest niezwykle elastyczne, jednak wiele nowych wymogów i rekomendacji wdraża się nie po to, aby faktycznie polepszyć jakość wyszukiwania, lecz zebrać dodatkowe dane.