Treści AI obniżą rating strony w Google!

Stało się – świeżo zaktualizowana polityka quality raters zawiera szereg nowych wytycznych i regulacji, a w tym zasady oceny treści generowanej przez AI. Recenzenci Google, którzy weryfikują jakość stron, mają bacznie przyglądać się, czy treści na stronie mogły być napisane przez człowieka, czy wygenerowane przez sztuczną inteligencję. Jeżeli content jest nieoryginalny, powtarzalny, schematyczny czy stanowi tzw. wypełniacz, Google obniży jakość strony, co przełoży się na pozycjonowanie. To pierwsza taka decyzja, która bezpośrednio może uderzyć w witryny, które nadmiernie wykorzystują treści AI. Sprawdzamy, na czym polegają zmiany w wytycznych dla quality raters Google dla przyszłości pozycjonowania!

Treści AI na cenzurowanym – nowe wytyczne Google dla quality-raters

Przez ostatnie miesiące na łamach Funkymedia wielokrotnie sugerowaliśmy, że Google zmierza powoli do tworzenia systemów identyfikacji autorstwa treści po to, aby w jakiś sposób penalizować strony oparte o content AI. Dzisiejsze zmiany całkowicie to potwierdzają. Treści tworzone automatycznie lub przy użyciu AI mogą teraz otrzymać najniższą ocenę jakości.

Najnowsza aktualizacja wytycznych dla oceniających jakość treści, tzw. quality-raters, zawiera nowe instrukcje dotyczące tego, jak recenzenci mają weryfikować treści na stronach. Google instruuje swoich quality raters, aby zwracali szczególną uwagę na strony, których główna treść została stworzona przy użyciu narzędzi automatycznych lub generatywnej sztucznej inteligencji – i oceniali je jako treści najniższej jakości. Informację tę potwierdził już także sam John Mueller, starszy analityk ds. wyszukiwania Google i niejako “twarz” Google Search od lat.

Nowe definicje sztucznej inteligencji i spamu treści

W najnowszej wersji wytycznych Google dla quality-raters po raz pierwszy wprowadzono  definicję i kontekst generatywnej sztucznej inteligencji. Zgodnie z najnowszą wersją dokumentu: „generatywna AI to typ modelu uczenia maszynowego (ML), który potrafi na podstawie dostarczonych mu przykładów tworzyć nową treść, taką jak tekst, obrazy, muzykę czy kod. Różne narzędzia wykorzystują te modele do generowania treści. Generatywna AI może być pomocnym narzędziem w tworzeniu treści, jednak jak każde narzędzie może być również wykorzystywana niewłaściwie”.

Kolejne zmiany widoczne są w zakresie definicji stron uznawanych za spamerskie. Google gruntownie przebudowało tę sekcję. Poprzednia sekcja, 4.6.3 – treści automatycznie generowane została usunięta. W jej miejsce wprowadzono nowe podsekcje ze zwiększonym naciskiem na masowe tworzenie treści niskiej jakości, w tym potencjalne nadużycie sztucznej inteligencji w tworzeniu treści. Jako że zmian jest sporo, dlatego przywołamy tylko te, które wydają się być najistotniejsze:

  • nadużycie wygasłych domen (sekcja 4.6.3) – chodzi o sytuacji, gdy „wygasła domena zostaje wykupiona i wykorzystana głównie w celu przynoszenia korzyści nowemu właścicielowi witryny poprzez publikację treści o znikomej wartości dla użytkowników”,
  • nadużycie reputacji strony (sekcja 4.6.4) – mamy doczynieni z nadużyciem reputacji w momencie, gdy „treść zewnętrzna jest publikowana na popularnej witrynie, aby skorzystać z jej wysokiej pozycji w wyszukiwarce, wypracowanej dzięki oryginalnym treściom właściciela witryny”.
  • nadużycie treści masowych (sekcja 4.6.5) – tworzenie (generowanie?) dużej ilości treści „bez wysiłku i oryginalności, bez redakcji czy ręcznego opracowania” będzie traktowane jako nadużycie. W sekcji tej wprost też pada sformułowanie “narzędzia generatywnej AI”.
  • treść główna stworzona bez wysiłku, oryginalności ani wartości dla odwiedzających (sekcja 4.6.6) – dotyczy sytuacji, kiedy nowa sekcja zbiorcza dotycząca treści niskiej jakości, często spotykanej w przypadku AI i automatycznego generowania.

W ostatnim komunikacie John Mueller zwrócił uwagę zwłaszcza na tę ostatnią sekcję, 4.6.6. Znajduje się w niej następujący fragment: „ocena najniższa jest stosowana, jeśli cała lub prawie cała treść główna (w tym tekst, obrazy, dźwięk, wideo itd.) została skopiowana, sparafrazowana, osadzona, automatycznie lub wygenerowana przez sztuczną inteligencję, albo ponownie opublikowana z innych źródeł – bez wysiłku, oryginalności i bez dodanej wartości dla odwiedzających. Takie strony należy ocenić jako najniższe, nawet jeśli autor przypisuje treść innemu źródłu”.

Oznacza to, że Google stworzyło zupełnie nową kategorię oceny jakości. Od teraz strony stosujące AI mogą zyskać nową ocenę – “najniższą”, która przełoży się na trudności z pozycjonowaniem. Pytanie jednak, w jaki sposób oceniający mogą rozpoznać, że treść została wygenerowana przez AI? Choć nie ma dedykowanych wskazówek tylko dla AI, pojawiły się nowe wytyczne dotyczące treści parafrazowanych. W sekcji 4.6.6 czytamy: „narzędzia automatyczne mogą być używane do tworzenia treści parafrazowanych poprzez przekształcanie lub streszczanie treści z innych stron”. Kolejny ustęp wyznacza kryteria oceny “treści parafrazowanych” – ich główne cechy to:

  • zawierają wyłącznie powszechnie znane informacje lub fakty,
  • pokrywają się z treściami z uznanych źródeł (np. Wikipedia),
  • sprawiają wrażenie streszczenia konkretnej strony (np. forum lub artykułu) bez dodanej wartości i oryginalności,
  • zawierają charakterystyczne frazy AI, jak np. ‘jako model językowy’.
Aktualizacja wytycznych dla quality-raters Google wprowadza nowe definicji spamu i sztucznej inteligencji
Aktualizacja wytycznych dla quality-raters Google wprowadza nowe definicji spamu i sztucznej inteligencji

Nowy system oceny jakości treści na stronie Google

Wiemy już zatem, że Google rozpoczęło ocenianie treści na stronie i będzie obniżać rating stron, które wykorzystują sztuczną inteligencję. Strony z takim contentem zyskają nową, najniższą ocenę jakości. Cały proces będzie realizowany przez quality raters, czyli zespoły pracowników, którzy samodzielnie sprawdzają tysiące stron internetowych. Pokazuje to skalę problemu i rozwoju AI jednocześnie. Google, które niedawno ogłosiło nowe modele językowe Gemini 2.5, robi coraz lepszą sztuczną inteligencję, ale nie jest w stanie zrobić narzędzia, które będzie weryfikować automatycznie pochodzenie treści na stronach internetowych. Do tego zadania wciąż potrzeba ludzi.

Nowa sekcja wprowadza jasne wytyczne dla sytuacji, w których treść nie jest aż tak zła, by otrzymać ocenę Najniższą, ale nadal zasługuje na Niską. Różnice są następujące:

  • ocena Niska – przyznawana wtedy, gd część treści została ponownie użyta, ale z minimalnym wysiłkiem redakcyjnym.
    ocena Najniższa przyznawana stronom internetowym bazującym w większości na treściach nieautorskich, generowanych przez sztuczną inteligencję, a także kopiach i parafrazach treści bez wysiłku, oryginalności i wartości dodanej.

Google chce, aby oceniający identyfikowali słabe treści podszywające się pod oryginalne, które nie zapewniają wartościowych doświadczeń użytkowników. W tym celu podaje też kilka egzemplifikacji, które udowadniają, jak wiele stron internetowych w praktyce może mieć teraz podstawy do obaw. Przykłady treści o niskim poziomie oryginalności, które będą skutkowały nałożeniem negatywnej oceny jakości:

  • udostępniane posty mediów społecznościowych bez lub z minimalnym komentarzem,
  • strony zawierające cudze treści (np. osadzone wideo lub przypięte obrazy) bez dodatkowego komentarza lub redakcji,
  • strony z treściami masowymi, tzw. wypełniaczami oraz contentem generowanym masowo przez sztuczną inteligencję bez własnej oryginalności,
  • Rankingi ‘najlepszych x’, stworzone na podstawie istniejących recenzji i list, z niewielką ilością oryginalnych treści.

Koniec z pozycjonowaniem przy pomocy “wypełniaczy”

Jedną z powszechnych praktyk SEO jest tworzenie treści, które mają jedynie wypełniać stronę internetową. Przedłużeniem takiej taktyki jest tworzenie całych blogów opartych o niskiej jakości content, od dwóch lat zazwyczaj generowany przez sztuczną inteligencję. Praktyki te od teraz powinny być modyfikowane, bo Google przez najnowszą aktualizację wytycznych dla quality-raters mówi wprost: dość “wypełniaczy”!

Jedna z nowych sekcji w zaktualizowanym dokumencie dotyczy tzw. fillerów. Są to właśnie treści niskiej jakości, o niskiej trafności, które mogą dominować wizualnie stronę, być mocno nasycone frazami kluczowymi, ale nie stanowią żadnej wartości dla użytkowników. W zaktualizowanych zasadach dla recenzentów stron Google czytamy, że „treści wypełniające mogą sztucznie rozbudowywać stronę, tworząc pozory bogactwa treści, które nie mają rzeczywistej wartości dla odwiedzających”.

Nawet jeśli treść nie jest szkodliwa, może otrzymać ocenę Niską, jeśli utrudnia dostęp do przydatnych informacji. Szczególnie krytykowane są:

  • treści-wypełniacze, które są umieszczane w sposób rzucający się w oczy i odciągający uwagę od głównej treści,
  • strony dłuższe i pozornie bogatsze na skutek nadmiernie długich, nieoryginalnych treści, 
  • oceniający mają analizować, czy układ strony (UX) i hierarchia treści nie przeszkadzają w osiągnięciu celu użytkownika.
Dłoń trzymająca czarny smartfon z podświetlonym paskiem wyszukiwania i ikoną lupy na ekranie. W tle widać rozmazany tekst na jasnym tle
Treści wygenerowane przez sztuczną inteligencję mogą przekładać się na pozycję strony w wynikach organicznych Google.

Google zaostrza kryteria oceny treści

Google modyfikuje system penalizacji stron internetowych, które nie spełniają kryteriów jakościowych. Wytyczne w obecnym kształcie zakładają karanie stron za przesadne lub lekko wprowadzające w błąd informacje o autorze strony – nawet jeśli nie są to jawne oszustwa. Nowa sekcja 5.6 wskazuje: „wprowadzające w błąd informacje o stronie internetowej lub jej twórcy to silna przesłanka do przyznania oceny Najniższej”.

Jednocześnie mamy zaznaczenie, że mniej oczywiste nagięcia zasad, np. wyolbrzymianie kompetencji autorów, udawanie pozornej ekspertyzy, także będą skutkować nałożeniem stronie Niskiej oceny jakości: „czasami informacje o stronie lub jej twórcy wydają się przesadzone lub lekko mylące, np. deklaracje doświadczenia osobistego lub wiedzy eksperckiej, które wydają się wyolbrzymione lub mają na celu jedynie zaimponowanie odwiedzającym”.

Pojawiła się także wzmianka o grafach wiedzy E-E-A-T, o których zresztą w Funkymedia pisaliśmy wielokrotnie (zobacz m.in.: Grafy wiedzy E-E-A-T – główne wyznaczniki jakości). Ocena E-E-A-T powinna bazować na rzeczywistej treści, badaniu reputacji i weryfikowalnych danych, a nie na samych deklaracjach. Zostało to potwierdzone następującym ustępem, który znajduje się w najnowszej wersji dokumentu: „oceny E-E-A-T powinny być oparte na treści głównej, informacjach znalezionych podczas analizy reputacji, sprawdzalnych referencjach itd., a nie tylko na zapewnieniach w stylu ‘jestem ekspertem!’”.

Treści AI obniżą rating strony w Google – podsumowanie

Najnowsza zmiana wytycznych Google dla quality-raters to wyraźny sygnał wojny wypowiedzianej treściom generowanym przez AI i tzw. „wypełniaczom”. Cała aktualizacja pokazuje, że gigant z Mountain View zdecydowanie zmierza w kierunku promowania oryginalnych, wartościowych treści tworzonych przez ludzi. Mamy tu jednak pewien paradoks. Google tworzy coraz lepsze modele językowe, czego dowodem jest ostatnie Gemini 2.5 Pro. Jednocześnie za ocenianie, czy treści są napisane przez człowieka, czy AI, wciąż będą odpowiadać ludzie – quality raters. Otrzymali oni teraz precyzyjne możliwości obniżania oceny stron i bardziej surowego oceniania na podstawie rodzajów treści, które pojawiają się na stronie.

Patrząc na ostatnie komunikaty Google, mamy sytuacje nie do końca jasną. Z jednej strony Google jasno komunikuje, że sztuczna inteligencja może być pomocnym narzędziem w tworzeniu treści. Z drugiej zaś – strony, które będą bazowały na wykorzystywaniu treści generowanych przez modele językowe mogą spotkać się z obniżeniem oceny jakości. Zasadnicze pytanie dotyczy tego, w jakim stopniu zaostrzone regulacje dotyczące jakości będą implementowane?

Najbliższe miesiące pokażą, na ile skuteczne będą nowe wytyczne i czy Google faktycznie zdoła skutecznie identyfikować treści generowane przez AI. Na razie wiemy, że Google polega głównie na recenzentach, więc nie dysponuje jeszcze w pełni zautomatyzowanym systemem wykrywania treści AI. Niemniej ta informacja powinna być znakiem ostrzegawczym dla wszystkich właścicieli stron internetowych. Nie ma co przesadnie wykorzystywać treści generowanych przez AI, bo za moment może okazać się to bardzo zgubne dla pozycjonowania strony.

Napisz komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *