Problemy z jakością contentu. Co powinno rankować w Google, jeśli nie ma ciekawych treści?

Coraz częściej topowe, organiczne wyniki wyszukiwania zawierają strony z hurtowo generowanym contentem A.I. Treści publikowane jako premium, pisane przez człowieka, także rzadko kiedy nie są “odgrzewanym kotletem”. Choć dekadę temu powiedzenie, że “wszystko już było” było równie aktualne, dziś staje się realnym problemem w obliczu nieporadności algorytmów Google Search. Czy Google wyciągnie wnioski z obecnej sytuacji? A może to twórcy internetowi sami są sobie winni? Sprawdzamy, jak to jest z rosnącą skalą problemów z jakością contentu i sposobem jego oceny przez Google!

Dlaczego Google premiuje strony, które nie mają jakościowych treści?

Coraz częściej pisze się o problemach z jakością treści na stronach, które zajmują wysokie pozycje w Google. O sprawie pisaliśmy wielokrotnie, m.in. jesienią 2023 r. portale branżowe dzieliły się wynikami analizy, z których wynikało, że główne pozycje zajmują częściej strony spamerskie, niż posiadające wysokiej jakości content. Od tego czasu Google nie wypuściło żadnej istotnej aktualizacji algorytmów, która nadawałyby priorytet wartościowym treściom. Rodzi to pytania o przyszłość systemu wyszukiwania, które zadaje m.in. Search Engine Land, a które coraz bardziej rezonują w społeczności SEO.

Pierwsze strony w wynikach wyszukiwania często należą do stron, które wcale nie zapewniają wysokiej jakości treści. Ich pozycja w Google, pomijając wyniki płatne, w dużej mierze podyktowana jest parametrami technicznymi; optymalizacją pod kątem SEO i link buildingiem. Jakość linkowania wciąż ma ogromne, zdaniem wielu – dominujące znaczenie dla pozycjonowania. Czy wobec tego jakość contentu nie jest czynnikiem rankingowym?

Przyczyny słabej jakości contentu

Sieć jest pełna treści ogólnikowych, które nie wnoszą niczego nowego do danego tematu. Często są to treści nie tylko powielane przez kolejne portale, ale wręcz w całości kopiowane. Ostatnia analiza na naszym blogu dotycząca losów artykułu How Google is killing sites like ours pokazuje, że unikatowość wcale może nie mieć takiego znaczenia dla Google, jak wynika z oficjalnych deklaracji firmy.

Niemniej jednak przyczyn tego zjawiska jest znacznie więcej. Najczęściej wskazuje się na:

  • brak strategii i pomysłów na to, jak tworzyć nowy, wartościowy content,
  • wadliwą politykę Google, która faworyzuje strony dużych wydawców i przyczynia się do dysproporcji obecności małych, niezależnych stron i dużych portali sieciowych w wynikach wyszukiwania,
  • nieprawdziwe deklaracje dotyczące sposobu działania rankingu Google Search w zakresie analizy jakości treści na stronach,
  • algorytmy wyszukiwarki nie są jeszcze w stanie odróżnić treści tworzonych przez człowieka od tych, które są generowane przez sztuczną inteligencję.

Przyczyna 1 – skończyły się pomysły na unikatowy content

Eric Schmidt, były CEO Google, w 2008 roku powiedział słynne zdanie: “Sieć to bagno”. Niezmiennie odnosi się ono także do jakości treści na stronach. Problemy z jakością contentu są powszechne i często wynikają z braku staranności w tworzeniu oraz niewystarczającej świadomości co do standardów jakościowych. Wiele serwisów ma tendencję do przeceniania swojej treści, uważając ją za wystarczająco atrakcyjną, co powoduje zdziwienie po analizie takich parametrów, jak np. średni czas sesji użytkownika na stronie.

Z drugiej strony sieć jest coraz bardziej “zatłoczona” contentem, który ma jedynie “pozycjonować”, a nie przekazywać wartościowych informacji czytelnikom. Problem ten pogłębia się, biorąc pod uwagę brak innowacyjności i kreatywności, a także powtarzalność wynikająca z hurtowo przygotowywanych artykułów na potrzeby SEO. Korzystamy ze świetnych narzędzi do optymalizacji treści pod tym kątem, m.in. SurferSEO, Contadu czy polskie Senuto. Brakuje jednak narzędzi, które nie generowałyby treści same, jak A.I., ale pomagałyby w tworzeniu ciekawych historii i pisaniu merytorycznych artykułów.

Mainstreamowe poradniki, czyli właśnie te, które zajmują czołowe pozycje w Google, od razu znajdą proste rozwiązanie: wystarczy szukać inspiracji, eksperymentować i skupić się na jakości. Jesteśmy jednak w takim momencie, że wiedzę potrzebną do pisania merytorycznych treści bierzemy z innych stron, które także swoją wiedzę zaczerpnęły z innych stron. Cały proces zatacza koło, w rezultacie czego cały czas piszemy to samo, a różni się tylko stylistyka. Pomimo tego, że z miesiąca na miesiąc przyrost nowych stron jest coraz szybszy, brakuje źródeł informacji, a treści cały czas się powielają.

Pomysły na nowy, ciekawy content? Trudno oczekiwać wymyślania koła cały czas od nowa.

Przyczyna 2 – Google premiuje dużych wydawców

Google często jest krytykowany za to, że premiuje duże wydawców nawet wtedy, gdy prezentowane treści są dalekie od oryginalności. Algorytmy wyszukiwania Google nie zawsze skutecznie oceniają jakość treści, co może prowadzić do tego, że strony internetowe dużych i znanych wydawców są promowane na szczycie wyników wyszukiwania. Gdy jakość nie jest priorytetyzowana w praktyce, echem odbija się to na mniejszych wydawców, których budżety marketingowe są znacznie ograniczone i nie są w stanie konkurować ilościowo.

Jesteśmy w momencie poniekąd podobnym do 2011 roku, kiedy był wprowadzany algorytm Google Panda. Algorytm miał na celu wyeliminowanie stron o niskiej jakości z wyników wyszukiwania, wprowadzał również wiele zmian w zakresie link building i zniwelował wiele praktyk typu black hat SEO. Niemniej jednak w praktyce wiele dużych wydawców, mimo że ich treści na pewno nie były wysokiej jakości, nadal utrzymywało wysokie pozycje w wynikach wyszukiwania Google Search. Zmiany mające na celu priorytetyzowanie jakości treści bez względu na pozostałe czynniki (autorytet domeny, optymalizację techniczną, link building) nie przyniosły tłumnie zapowiadanych rezultatów, a jedynie wyeliminowały szereg potępianych praktyk. Dziś jest podobnie, gdy internet jest zalewany przez treści generowane przez AI.

Przyczyna 3 – Google nie traktuje treści tak poważnie, jak deklaruje

Kolejną przyczyną odpowiadającą za marność treści na topowych stronach wyników wyszukiwania jest to, że Google po prostu nie traktuje jakości contentu jako czynnika rankingowego. Pomimo deklaracji o tym, że treść ma być właściwie najważniejszym aspektem stron, wydaje się, że Google wciąż nie traktuje tej kwestii na serio. Kiedy w 2012 roku Google wprowadza algorytm Penguin, mający na celu penalizowanie stron stosujących manipulacyjne techniki linkowania, wydawało się, że wyniki wyszukiwania szybko będą lepiej odzwierciedlały jakość. Pingwin siał spustoszenie na stronach żerujących na piramidach linków słabej jakości i innych systemach klasyfikowanych wprost lub pośrednio do działań typu black hat. Pomimo tego nawet wtedy nie dostrzegliśmy sytuacji, kiedy do topek zaczynały wybijać się strony naprawdę dobrze przygotowane pod względem merytoryki i użyteczności treści. Wydaje się, że te aspekty jak dotąd zawsze były gdzieś w cieniu innych kryteriów oceny jakości strony w ogóle.

Osobną kwestią jest nadreprezentacja stron dużych wydawców w wynikach wyszukiwania. Trudno oczekiwać od stron posiadających miliony artykułów wysokiej jakości i oryginalności każdego akapitu. Google może być bardziej skłonne do promowania treści dużych i znanym wydawców ze względu na ich reputację i popularność, a nie rzeczywistą wartość treści. Kluczowym czynnikiem może być też korzystanie z usług dla e-commerce, na czym Google zyskuje podwójnie.

Przyczyna 4 – algorytmy nie są jeszcze w stanie odróżniać treści AI

Algorytmy Google prawdopodobnie wciąż nie są w stanie odróżnić treści wygenerowanych przez A.I. od treści pisanych przez człowieka. Postępy w tworzeniu modeli językowych i czatów konwersatoryjnych, takich jak ChatGPT, zdają się znacznie przewyższać postępy w detekcji treści. Przypomnijmy, że ChatGPT zadebiutował w otwartej wersji pod koniec 2022 roku. Od tego czasu widać ogromny przyrost artykułów publikowanych w sieci, a wiele stron zajmujących pozycje w TOP 10 wyników wyszukiwania Google na różne frazy czerpie treści właśnie z generatorów.

To pokazuje, że Google nie jest w stanie jeszcze skutecznie odróżniać tego typu treści. To, jak Google obecnie identyfikuje treść, polega głównie na wykorzystaniu czynników zaangażowania użytkownika (User-Engagement Signals). Poniekąd to się akurat sprawdza, bo o ile każdy lubi tworzyć treści przy użyciu A.I., o tyle coraz częściej nikt nie chce ich czytać. Siłą rzeczy więc utrzymuje się w jakimś sensie prawidłowe ratio czasu spędzonego na czytaniu artykułu napisanego przez A.I. względem czasu spędzonego na czytaniu artykułu napisanego przez człowieka. Czy to jednak wystarczy? Nie przy obecnych ustawieniach algorytmów wyszukiwarki, które w dużym stopniu polegają na czynnikach ilościowych. W rezultacie strony z contentem wygenerowanym przez A.I., posiadające tysiące różnych tego typu treści, często mają najwyższe pozycje.

Google nie jest w stanie dokładnie odróżniać treści tworzonych przez człowieka od treści generowanych przez sztuczną inteligencję.

Problemy z jakością contentu na stronach – podsumowanie

Widać wyraźnie, że problemy z jakością treści na stronach są nie tyle aktualne, ale coraz poważniejsze. Wynikają one z różnych przyczyn, które zachodzą jednocześnie. Z jednej strony Google nie radzi sobie z identyfikacją treści tworzonych przez A.I., podczas gdy mierzymy się z istnym zalewem publikacji spamerskich. Z drugiej strony sami twórcy jedynie powielają przez lata powtarzane schematy poradników, testów i innych artykułów – i trudno się temu dziwić. Nie można bowiem oczekiwać, abyśmy cały czas mieli wymyślać koła od podstaw. Skoro Google informuje o priorytecie wysokiej jakości treści, to powinniśmy jako społeczność coraz głośniej domagać się implementacji faktycznych działań technicznych, które mogłyby to weryfikować.

Osobną kwestią, której nie poruszaliśmy szerzej w tym artykule, jest polityka związana z Google Ads. Nie brakuje domysłów, że obecne działania (bądź ich brak) działa de facto na korzyść Google, które odsyła szereg właścicieli stron do swoich usług płatnych PPC. Ze względu na to, że ma praktycznie monopol (obecnie trwają postępowania przeciwmonopolowe przeciwko Google na terenie Unii Europejskiej), trudno wypatrywać na horyzoncie oddolnych inicjatyw, które by miały to zmienić.

Napisz komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *