Google zmienia Search Quality Raters Guidelines

W tle przebiegającej aktualizacji Core Update Google dokonuje większych zmian w kryteriach oceny stron. Mowa o Search Quality Raters Guidelines – dokumencie, który określa sposób oceny wyników wyszukiwania pod kątem spójności i jakości. Zmiany, które się pojawiają, dotyczą grafów wiedzy E-E-A-T i są ściśle związane z treściami generowanymi przez sztuczną inteligencję. Zobacz poniżej, co Google postanowiło zmienić i jakie może mieć to konsekwencje dla pozycjonowania stron w przyszłości!

Wytyczne oceny jakości Google z nową kategorią

Dokument „Search Quality Raters Guidelines” to wytyczne opracowane przez Google, które są publicznie dostępne na dla wszystkich. Przede wszystkim jednak dokument ma charakter zbioru wskazać i dopuszczalnych praktyk dla tych pracowników Google, którzy odpowiadają za działania manualne związane z oceną poszczególnych stron. Dokument określa zasady i kryteria, według których ocenia się jakość stron internetowych w kontekście ich przydatności, rzetelności i użyteczności dla użytkowników.

Wytyczne pomagają oceniać, czy strony spełniają oczekiwania użytkowników i czy są one wiarygodne oraz wartościowe w kontekście informacji, które dostarczają. Oprócz pracowników Google korzystają z nich także agencje pozycjonowania, którym zależy na wdrażaniu działań zgodnych z Google, bezpiecznych, a jednocześnie – skutecznych.

W ubiegłym tygodniu Google zaktualizowało Search Quality Raters Guidelines, co prawdopodobnie jest związane z trwającą aktualizacją typu Core Update. Sekcja 4 obejmowała dotąd sześć różnych podrozdziałów (poniżej w oryginalnej wersji anglojęzycznej):

  • 4.0 – Lowest Quality Pages,
  • 4.1 – Types of Lowest Quality Pages,
  • 4.2 – Harmful to Self or Other Individuals,
  • 4.3 – Harmful to Specified Groups,
  • 4.4 – Harmfully Misleading Information,
  • 4.5 – Untrustworthy Webpages or Websites,
  • 4.6 – Spammy Webpages.

Google właśnie zaktualizowało tę listę, modernizując brzmienie poszczególnych podrozdziałów, a także dodając punkt 4.7 – Examples of Lowest Quality Webpages (tłum.: przykłady stron o najniższej jakości). Zmiany są spore zarówno pod względem jakościowym, jak i ilościowym. Nowy podrozdział zajmuje 9 stron (s. 42-51). Poniżej dokładniej przyglądamy się, co zawiera i co oznaczają wprowadzone przez Google zmiany.

Cyfrowy celownik, który wydaje się rozpadać lub pikselować w dynamiczny sposób. Wokół celownika rozrzucone są ikony związane z mediami społecznościowymi i technologią
Wytyczne Google dla oceny jakości stron opisują dokładniej symptomy niskiej jakości treści. Ma to związek z masowymi czystkami, które Google przeprowadza po marcowym Core Update.

Strony najniższej jakości – nowe definicje Google

Sekcja 4.7 posiada obecnie nowe kryteria oceny stron najniższej jakości. Google wyróżnia aż 35 tego rodzaju stron. Do pierwszych, najważniejszych grup, zalicza:

  1. Strony niegodne zaufania (Untrustworthy)- taka strona zawiera “dziwne” informacje, niepotwierdzone dane, chaotyczne, nieuporządkowane twierdzenia. Dla tego punktu Google zaznacza, że nie ma znaczenia, że czy przyczyna tkwi w próbie celowej manipulacji, czy w zastosowaniu generatorów treści. Takie strony mają być klasyfikowane najniższej w kategoria E-E-A-T.
  2. Strony zwodnicze o najniższym poziomie E-E-A-T (Lowest E-E-A-T and Deceptive) – w tej grupie Google wyodrębnia dwa rodzaje podstron: strony z treściami generowanymi przez sztuczną inteligencję (niski poziom E-E-A-T) i strony, które mają przypominać inne witryny, co może wprowadzać użytkowników w błąd. Google bardzo wyraźnie opisuje w tym punkcie wykorzystanie generatorów treści A.I.
  3. Strony niebezpieczne, promujące lub odwołujące się do zakazanych tematyk (Lowest: Superiority of Specified Group 1) – obejmuje witryny, które odnoszą się bądź szerzą nienawiść, segregację rasową, wyższość poszczególnych grup społecznych, promują antysemityzm, tzw. kłamstwo oświęcimskie, islamofobię itd.
  4. Inne strony niebezpieczne, promujące lub odwołujące się do zakazanych tematyk (Lowest: Superiority of Specified Group 2) – grupa analogiczna względem pierwszej, ale opisana ogólniej. Obejmuje strony promujące teorie, które nie są ugruntowane na polu naukowym. Szczególnie uwzględnia się treści wpisujące się do grupy YMYL.
  5. Niemedyczne stosowanie środków odurzających (Non-medical drug use advice) – strony zawierające informacje o stosowaniu narkotyków, dopalaczy i innych substancji zabronionych i/lub niebezpiecznych.

Pozostałe 30 grup związanych jest głównie z różnymi zagrożeniami związanymi z szerzeniem nienawiści, a także stosowaniem substancji zabronionych. Osobne kategorie przypadły stronom zajmujących się oferowaniem leków na potencję, kryształów leczniczych, a także… serwisom z przepisami kulinarnymi, które ukrywają tony spamerskich linków.

robot Android, Google
Google wyodrębnia aż 35 wariantów niskiej jakości treści spamowych, do których należą też tematyki związane z używkami, manipulowaniem danymi i kilka bardziej egzotycznych kategorii.

Najważniejsze zmiany w wytycznych – nowe kategorie treści generowanej przez A.I.

Z wprowadzonych zmian na pierwsze miejsce wyłaniają się informacje dotyczące niskiej jakości treści. Google po raz pierwszy dokładniej opisuje w swoich wytycznych content generowanych przez modele językowe. Ze sposobu przytoczenia tych zmian, można wnioskować, że Google ma rozpoznawać tego typu treści w ramach działań manualnych przede wszystkim na dwóch płaszczyznach: poziomie językowym oraz treści regulaminu strony.

W sekcji 4.7 mamy wzmiankę o następującej treści “regulamin strony internetowej stanowi, że niektóre artykuły są generowane przez sztuczną inteligencję i mogą zawierać błędy lub być przestarzałe; nie ma wskazania, do których stron odnosi się ta informacja. Informacje w tym artykule są niegodne zaufania i mają najniższy poziom E-A-T”. Tego typu konstrukcje pojawiły się też w innych miejscach. Doprecyzowując, oznacza to, że w ramach testów manualnych pracownicy Google przede wszystkim będą czytać regulamin strony – i jeśli tam znajdą informacje wskazujące o tym, że treści mogą nie być obiektywne, mogą być (nawet częściowo) pisane przy udziale A.I., mają powód do oznaczenia niskiej wartości.

Drugim czynnikiem jest sam poziom językowy. Na płaszczyźnie analiz manualnych przeprowadzanych przez pracowników Google dostrzeżenie treści pisanej przez A.I. może być coraz trudniejsze. Wiele spamerskich serwisów “nie bawi” się jednak w żadną redakcję takich treści, zachowanie ich struktury itd. – działa tu po prostu mechanizm “kopiuj-wklej”. Takie przypadki mają w konsekwencji skutkować otrzymaniem najniższego stanu jakości.

Google zaczyna walkę z treścią generowaną przez sztuczną inteligencję

Wytyczne dla działań manualnych stanowią zwykle bardziej dokładny i obiektywny zbiór kryteriów, którymi kieruje się Google. To na pewno znacznie bardziej wiarygodne źródło, niż jakiekolwiek komunikaty prasowe i medialne wypowiedzi przedstawicieli Google’a. Z tego powodu powyższe zmiany należy traktować zupełnie poważnie.

Google już wcześniej zapowiadało podjęcie kroków mających na celu skuteczną walkę z treściami generowanymi przez modele językowe. Wśród tych działań znalazło się dodanie przykładów stron o niskiej jakości, które są wynikiem automatycznego generowania treści. Google zdaje sobie sprawę z wyzwań związanych z nieodpowiednim wykorzystaniem sztucznej inteligencji do tworzenia treści, co może prowadzić do publikacji nieprawdziwych lub niesprawdzonych informacji. Przede wszystkim jednak modele językowym w ogromnym stopniu przyczyniły się do powstawania spamerskich stron internetowych, składających się z tysięcy wpisów z wygenerowaną treścią.

Search Quality Raters Guidelines ma służyć głównie pracownikom Google, którzy wykonują działania manualne. Dodanie do dokumentu informacji o treściach generowanych przez A.I. może mieć gigantyczne konsekwencje, jeśli faktycznie pracownicy będą wyczuleni na tego typu treści.

Graphic interface for business quality policy planning to meet international standards in compliance with rules, laws, and regulations.

Google wprowadza zmiany do Search Quality Raters Guidelines – podsumowanie

Najnowsza aktualizacja wytycznych oceny stron w wynikach wyszukiwania Google obejmuje kilka istotnych zmian, z których najważniejszym elementem jest wprowadzenie kategorii treści generowanych przez A.I. Sekcja 4.7 – dotyczącą przykładów stron o najniższej jakości według kryterium E-E-A-T – składa się z 9 stron, na łamach których Google prezentuje 35 kategorii klasyfikujących strony jako witryny niskiej jakości. Wśród nich pierwszą i drugą pozycję zajmują “strony niegodne zaufania” i “strony zwodnicze”. W dłuższym opisie popartym wybranymi przykładami Google w obydwu przypadkach mówi między innymi o treściach generowanych przez sztuczną inteligencję lub tworzonych przy pomocy takich narzędzi.

W pewnym sensie jest to rewolucja i znak czasów. Search Quality Raters Guidelines jest oficjalnym dokumentem i w przeciwieństwie do zapowiedzi medialnych ta zmiana będzie z pewnością cytowana jeszcze w dalszej przyszłości. Google skupia się nie tylko na walce z manipulacją czy dezinformacją, ale również na identyfikacji i eliminacji treści najniższej jakości, które powszechnie i masowo wykorzystywane są przez spammy websites.

Nowe wytyczne mogą mieć istotne konsekwencje dla twórców, agencji marketingowych i agencji SEO, które w tej chwili powinny bardziej zwrócić uwagę na stosowane praktyki. Korzystanie z ChatGPT nie zastąpiło jeszcze pogłębionych artykułów merytorycznych, ale pozwoliło na optymalizację kosztów tam, gdzie jakość nie musi być najwyższa. Na ten moment wytyczne dotyczą tylko procesu oceny manualnej, ale jeśli jakimś cudem udałoby się je wprowadzić w życie na poziomie algorytmicznym, SERP czekałby chaos jeszcze większy, niż od momentu wprowadzenia March Core Update!

Napisz komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *