Google co jakiś czas aktualizuje politykę nadużyć związaną z działaniami mającymi na celu sztuczne wywindowanie reputacji strony. Kolejne wytyczne mają rozwiązywać problemy związane z tworzeniem niewiarygodnej siły domeny do zdobywania pozycji w wyszukiwarce. W praktyce jednak wszystkie ostatnie aktualizacje określane są zbiorczo jako “naklejanie plastra na ranę postrzałową”. Eksperci nie zostawiają suchej nitki na Google, które wciąż nie proponuje żadnych zmian, które realnie utrudniałyby rozwój tzw. pasożytniczego SEO. Przyglądamy się temu, jak zmienia się podejście Google i czy rzeczywiście można byłoby podejść do tych problemów skuteczniej.
Polityka Google dotycząca nadużyć reputacji stron nieskuteczna
Polityka nadużyć związanych z reputacją stron ma rozwiązać problem pasożytniczego SEO. Ostatnie aktualizacje wprowadzone w 2024 r. wymierzone są zwłaszcza w te strony internetowe, które wykorzystując siłę swojej domeny, zdobywają treści, których nie są właścicielami ani autorami. To jeden z mechanizmów, które sprawiają, że silniejsze, większe witryny mają gigantyczną przewagę nad mniejszymi bez względu na to, czy korzystają np. ze wsparcia profesjonalnych autorów, czy nie.
Zmiany wprowadzane przez Google wydają się być jednak absolutnie nieadekwatne do skali istniejących problemów. Nie jest to jednak wina wyłącznie samej aktualizacji wytycznych. Według Search Engine Land niedoskonałości algorytmu Google sprawiają, że polityka nadużyć jest jedynie próbą tymczasowego rozwiązania problemu. Aby faktycznie się go pozbyć, należałoby podejść w sposób bardziej systemowy.
Najnowsze zmiany w polityce Google
Polityka dotycząca nadużyć aktualizowana jest regularnie, a ostatnia, większa zmiana miała miejsce w marcu 2024 roku. Wtedy właśnie Google wprowadziło istotną modyfikację, która była bezpośrednią odpowiedzią na narastający problem wykorzystywania siły domeny do pozycjonowania treści, których strony nie tworzą i nie posiadają. Problem ten jest znacznie głębszy, niż mogłoby się wydawać na pierwszy rzut oka. Obecnie możemy obserwować coraz więcej przypadków polegających na tym, że renomowane marki i portale wykorzystują swoją ugruntowaną pozycję w sposób manipulujący algorytmami wyszukiwania. Zaburza to autentyczność i rzetelność wyników wyszukiwania, ale przede wszystkim podważa fundamentalną zasadę, na której opiera się działanie wyszukiwarki – dostarczanie użytkownikom wartościowych i relewantnych treści.
Głównym celem nowej polityki Google jest przeciwdziałanie praktykom zwłaszcza tych dużych portali, które wykorzystują siłę domeny do pozycjonowania treści pochodzących od podmiotów trzecich. Pełnią one wówczas rolę hostów dla zewnętrznych treści. Działania te są sprzeczne z wytycznymi Google. W najnowszej aktualizacji polityki dotyczącej nadużyć Google rozszerzyło zakres regulowanych obszarów m.in. o:
- partnerstwa B2B oparte na usługach white-label,
- umowy licencyjne dotyczące treści,
- układy oparte na częściowej własności,
- złożone modele biznesowe wykorzystujące zewnętrzne źródła treści.
Rozszerzenie tych kategorii w żadnym stopniu nie zmieniło jednak stanu, który możemy obserwować w SERP. Jest wprost przeciwnie – rośnie zjawisko zwane pasożytniczym SEO.
Pasożytnicze SEO ma się dobrze
Parasite SEO, czyli pasożytnicze SEO, to narastający problem branży, który widzimy od lat. Zjawisko to polega na stosowaniu praktyk polegających na tym, że mniejsze podmioty „pasożytują” na autorytecie większych domen, aby zwiększyć swoją widoczność w wynikach wyszukiwania. Jeżeli robimy SEO uczciwie, to najgorszą informacją jest chyba to, że za pasożytnicze SEO praktycznie nic naszej konkurencji nie grozi. Google nie dysponuje obecnie narzędziami, które umożliwiłyby sankcjonowanie tego typu działań.
Taki stan rzeczy stwarza rzecz jasna szereg problemów. Jednym z najbardziej znanych przykładów pasożytniczego SEO jest przypadek Forbes Advisor. Został on szczegółowo opisany w osobnym śledztwie dziennikarskim Larsa Lofgrena. Według jego ustaleń program partnerski Forbes Advisor, realizowany we współpracy z Marketplace.co, generował przychody rzędu 236 milionów dolarów rocznie. Cały program bazował właśnie na strategii pasożytniczego SEO, a jego działanie skutkowało znacznie częstszymi wyświetleniami stron Forbesa w wynikach wyszukiwania. Sprawą, choć bardzo, bardzo delikatnie, zajęło się Google we wrześniu br., prawdopodobnie nakładając na serwis jakiś rodzaj kary w wynikach wyszukiwania. Kazus ten także dowodzi tezie, że Google nie ma systemowych narzędzi do przeciwdziałania i zwalczania pasożytniczego SEO.
Kolejnym ciekawym przykładem może być znany i lubiany LinkedIn, który – świadomie lub nie – stał się narzędziem do realizacji strategii parasite SEO. Użytkownicy platformy systematycznie wykorzystują funkcję LinkedIn Pulse do publikowania treści, które następnie, dzięki wysokiemu autorytetowi domeny LinkedIn, zajmują czołowe pozycje w wynikach wyszukiwania dla różnorodnych fraz kluczowych. W działaniach tych jednak nie dominują oczywiście niezależni eksperci, dla których formalnie funkcja ta została w ogóle stworzona. Przeważają przede wszystkim korporacje medialne, mające w swoim portfolio setki największych serwisów tematycznych.
Reputacja strony ważniejsza od głównej tematyki?
Głównym problemem nadużywania reputacji stron są systemowe niedoskonałości algorytmów Google. Problem z obecnym podejściem polega na tym, że polityka Google dotycząca nadużyć stanowi jedynie reakcyjne rozwiązanie, które obejmuje wąską grupę stron. Nie jest to rozwiązanie systemowe, nie niesie ze sobą trwałych zmian w algorytmach, które mogłyby być skuteczniejsze w automatycznym wykrywaniu i filtrowaniu tego typu nadużyć.
Słabość algorytmów Google potwierdzona jest przez liczne przypadki pozycjonowania treści zupełnie niezwiązanych z tematyką witryny, które jednak znajdują się w TOP10 wyników wyszukiwania ze względu na siłę domeny i reputację strony. Przykładem może być strona Progressive Insurance – korporacji z branży ubezpieczeniowej. Blog firmy, Lifelines, teoretycznie poświęcony tematyce ubezpieczeniowej, pojawia się na wysokiej pozycji w wynikach wyszukiwania dla takich fraz, jak „puppy after vaccination side effects”. Artykuł niskiej jakości na stronie wyprzedza specjalistyczne portale weterynaryjne i medyczne, w tym również renomowane źródła, takie jak American Veterinary Medical Association.
Pokazuje to, że duże marki mogą z łatwością pozycjonować się w tematach kompletnie niezwiązanych z ich podstawową działalnością. Brak konkretnych działań ze strony Google, które miałyby to zmienić, podważa nie tylko zaufanie do wyszukiwarki w ogóle (jeśli takowe jeszcze ktoś ma), ale przede wszystkim stoi w jasnej sprzeczności ze wszystkimi założeniami koncepcji E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness).
Co Google mogłoby zrobić, aby poprawić jakość SEPR?
Google mogłoby dość szybko ukrócić pasożytnicze SEO. Wiemy, że próby takie były dokonywane, o czym świadczą m.in. materiały z największego przecieku danych w 2024 r., Google API Leaks. Wynika z nich, że gigant posiada narzędzia mogące pomóc w rozwiązaniu obecnych problemów. Szczególnie interesująca jest zmienna „siteFocusScore„, która określa stopień koncentracji witryny na konkretnej tematyce. Skuteczna implementacja takich czynników mogłaby wyeliminować przypadki takie, jak opisywany powyżej przykład giganta ubezpieczeniowego. Efektywniejsza identyfikacja poziomu zgodności między tematyką tekstu a profilem strony pozwoliłaby także na:
- automatyczne wykrywanie przypadków nadmiernej dywersyfikacji tematycznej,
- lepszy proces oceny jakości strony i treści,
- skuteczniejsze rozpoznawanie prób manipulacji wynikami wyszukiwania.
Pomimo tego Google prawdopodobnie nie wprowadza nowej zmiennej, o której dowiedzieliśmy się z przecieków. A szkoda, bo dotychczasowa polityka i regulacje dotyczące nadużyć po prostu się nie sprawdzają. Skuteczne przeciwdziałanie zjawisku pasożytniczego pozycjonowania wymaga fundamentalnych zmian algorytmicznych, a nie regulacyjnych. Najważniejsze obszary, które wymagają zmian, to m.in.:
- rozwijanie mechanizmów automatycznego wykrywania nadużyć na poziomie algorytmicznym,
- lepsze równoważenie sygnałów związanych z autorytetem marki i rzeczywistą wartością merytoryczną treści,
- udoskonalenie skanowania treści w celu identyfikowania treści oryginalnych i ich kopii.
Polityka nadużyć reputacji stron do poprawy – podsumowanie
Obecne regulacje Google nie rozwiązują problemu pasożytniczego SEO. Duże portale wykorzystują swoją przewagę rynkową i znacznie łatwiej jest im dominować w wynikach wyszukiwania. Wykorzystywanie treści z innych serwisów w celach SEO również jest powszechne. To wszystko sprawia, że 2024 rok zamkniemy nie tylko z przekonaniem, że Google nie udało się do końca rozwiązać problemu pojawiającego się spamu w SERP, ale także nie udało się w jakiś sposób wprowadzić lepszego systemu oceny treści i identyfikacji naruszeń.
W perspektywie długoterminowej możemy spodziewać się dużej roli algorytmów AI. To właśnie sztuczna inteligencja może odpowiadać w przyszłości za ocenę jakości, relewancji i tematyki publikowanych w sieci treści. Do tego czasu jednak Google powinno wprowadzić zmiany algorytmiczne, które umożliwiałyby automatyczne wykrywanie nadmiernej dywersyfikacji tematycznej oraz równoważenie roli marki wydawcy i jakości treści. W przeciwnym razie coraz więcej będzie takich przypadków, jak wspomniane historie związane z LinkedIn, Forbes Advisor czy Progressive Insurance. Pozostawianie tego problemu tak, jak jest aktualnie, doprowadzi do dalszego pogarszania się jakości wyników wyszukiwania. Obserwujemy to zresztą już nie od dziś, a z pewnością zamierza to wykorzystać m.in. OpenAI, które pracuje nad projektem SearchGPT, a ostatnio także – BrowserGPT.