Wyciek Google API – jak działa Google?

Co ujawnił wyciek Google API i czy dzięki niemu lepiej rozumiemy, jak naprawdę działa Google Search?

Wyciek dokumentacji Google Content API Warehouse nie ujawnił pełnego algorytmu Google, ale dał rzadki wgląd w to, jak złożony jest system wyszukiwarki i jak wiele sygnałów może brać pod uwagę. Z dokumentów i oficjalnych materiałów Google wynika, że Search działa przez crawl, indeksowanie i ranking, a na wyniki wpływają m.in. treść, linki, encje, użyteczność i wiele dodatkowych systemów oceny jakości. 

1. Czym był wyciek Google API?

Było to ujawnienie tysięcy dokumentów związanych z wewnętrznym Google Content Warehouse API, które branża SEO zaczęła analizować w maju 2024 roku. 

2. Czy wyciek pokazał cały algorytm Google?

Nie. Dokumentacja dawała wgląd w moduły, atrybuty i nazwy systemów, ale nie ujawniała pełnych wag rankingowych ani kompletnej logiki działania rankingu. 

3. Co oficjalnie mówi Google o tym, jak działa wyszukiwarka?

Google opisuje Search jako system w pełni zautomatyzowany, który przechodzi przez trzy główne etapy: crawl, indeksowanie i ranking. 

4. Na czym polega crawl?

Google używa crawlerów, które regularnie przeszukują sieć, odkrywają nowe strony i aktualizacje już znanych adresów URL. 

5. Co dzieje się podczas indeksowania?

Po pobraniu strony Google analizuje jej treść, obrazy, wideo, dane strukturalne i inne elementy, a następnie zapisuje istotne informacje w indeksie. 

6. Jak działa ranking w Google?

Google wykorzystuje zautomatyzowane systemy rankingowe, które oceniają wiele sygnałów dotyczących trafności i użyteczności treści, aby w ułamku sekundy wybrać najlepsze wyniki. 

7. Czy wyciek potwierdził, że Google używa bardzo wielu sygnałów?

Tak. Analizy po wycieku wskazywały na tysiące modułów i atrybutów, co wzmacnia obraz Google jako systemu o bardzo złożonej architekturze. 

8. Czy linki nadal mają znaczenie?

Tak. Zarówno oficjalne materiały Google, jak i interpretacje leaku wskazują, że linki pozostają ważnym sygnałem, choć nie jedynym. 

9. Czy treść strony nadal jest kluczowa?

Tak. Google oficjalnie podkreśla znaczenie trafności i użyteczności treści, a wyciek nie zmienia tego obrazu, tylko pokazuje, że ocena treści jest bardziej złożona, niż często się zakłada. 

10. Czy kliknięcia użytkowników mogą wpływać na ranking?

Wyciek mocno rozpalił dyskusję wokół kliknięć i zachowań użytkowników jako potencjalnych sygnałów. Nie oznacza to jednak prostego modelu im więcej kliknięć, tym wyższa pozycja. Google ostrzegało, że dokumentacja bez kontekstu może prowadzić do błędnych wniosków. 

11. Czy dane z Chrome były częścią dyskusji po wycieku?

Tak. Jednym z najgłośniejszych tematów było to, czy i jak dane związane z Chrome lub szerzej z zachowaniem użytkowników mogły być wykorzystywane w systemach rankingowych. To jednak pozostaje obszarem interpretacji, a nie prostego, oficjalnego potwierdzenia działania rankingu. 

12. Czy Google korzysta z encji i zrozumienia tematów?

Tak. Oficjalne materiały Google i analizy branżowe od dawna wskazują, że Search nie działa wyłącznie na dopasowaniu słów kluczowych, ale stara się rozumieć znaczenie, kontekst i powiązania między bytami oraz tematami. 

13. Czy wyciek ujawnił jedną magiczną listę czynników rankingowych?

Nie. Raczej pokazał, że nie istnieje prosty, krótki zestaw kilku decydujących czynników, tylko rozbudowany ekosystem sygnałów, systemów i warstw oceny. 

14. Czy Google ręcznie ustawia wyniki?

Google opisuje ranking jako proces zautomatyzowany, oparty na systemach rankingowych. Nie oznacza to, że nie ma polityk jakości i systemów walki ze spamem, ale podstawowy mechanizm wyszukiwania jest automatyczny. 

15. Czy można zapłacić Google za lepszy ranking organiczny?

Nie. Google oficjalnie podkreśla, że nie przyjmuje płatności za częstszy crawl ani za wyższe pozycje organiczne. 

16. Czy wyciek zmienił sposób patrzenia na SEO?

Tak. Dla wielu specjalistów był to mocny sygnał, że SEO trzeba traktować szerzej: jako pracę nad użytecznością strony, jakością treści, autorytetem i doświadczeniem użytkownika, a nie tylko nad samą frazą kluczową. 

17. Czy Google potwierdziło autentyczność dokumentów?

Google nie komentowało ich w sposób, który potwierdzałby wszystkie interpretacje branży, ale ostrzegło przed wyciąganiem wniosków z informacji wyrwanych z kontekstu, niepełnych lub nieaktualnych. 

18. Czy na podstawie wycieku można dziś dokładnie odtworzyć ranking Google?

Nie. Dokumentacja nie daje pełnego przepisu na ranking, a systemy Google stale się zmieniają. Nawet oficjalne przewodniki Google opisują tylko część bardziej znanych systemów. 

19. Jak najprościej opisać działanie Google po tym wycieku?

Google najpierw znajduje stronę, potem ją rozumie i zapisuje w indeksie, a na końcu ocenia jej przydatność wobec konkretnego zapytania za pomocą wielu systemów i sygnałów. 

20. Jaki jest najważniejszy wniosek z wycieku?

Najważniejsze jest to, że Google działa znacznie bardziej złożenie, niż sugerują uproszczone poradniki SEO. Wyciek nie dał prostego kodu algorytmu, ale potwierdził, że Search to wielowarstwowy system oparty na wielu sygnałach jakości, trafności i zachowań. 

Najważniejsze dane związane z wyciekiem Google API i działaniem Google Search

  • Search Engine Land pisało o 2596 modułach i 14 014 atrybutach w ujawnionej dokumentacji Google Content Warehouse API. 
  • Inna analiza opisywała wyciek jako zbiór 2569 wewnętrznych dokumentów, co pokazuje, że różne publikacje mogły liczyć materiał nieco inaczej. 
  • Search Engine Land wskazywało, że dokumenty ujawniono publicznie 13 marca 2024 roku na GitHubie. 
  • Google oficjalnie mówi, że jego systemy rankingowe analizują setki miliardów stron internetowych i innych treści w indeksie, aby wybrać najbardziej trafne wyniki. 
  • Według analizy po wycieku Google miało wykorzystywać przy analizie linków dane o ostatnich 20 zmianach URL-a, co było jednym z częściej cytowanych przykładów złożoności systemu. Trzeba jednak pamiętać, że Google ostrzegało przed nadinterpretacją dokumentacji bez kontekstu. 

Praktyczne zastosowanie

Temat wycieku Google API ma praktyczne znaczenie głównie dla SEO, content marketingu i właścicieli stron. Najważniejszy wniosek nie brzmi jak obejść Google, ale jak lepiej zrozumieć, że wyszukiwarka ocenia strony wielowymiarowo. W praktyce oznacza to potrzebę pracy nad jakością treści, architekturą informacji, doświadczeniem użytkownika, linkowaniem, autorytetem tematycznym i ogólną wiarygodnością witryny. 

Wyciek pokazuje też, że nie warto opierać strategii wyłącznie na jednym micie SEO, np. że wystarczy więcej słów kluczowych albo więcej linków. Google działa warstwowo, a oficjalne materiały firmy wyraźnie wskazują na znaczenie użyteczności i trafności, podczas gdy analizy leaku wzmacniają przekonanie, że liczy się cały ekosystem strony.  Z tego powodu kluczowe jest, aby właściciele stron koncentrowali się na stworzeniu wartościowego contentu oraz budowaniu relacji z użytkownikami. Tylko w ten sposób mogą osiągnąć szybkie powroty szeptanek w google, które wzmocnią ich pozycję w wynikach wyszukiwania. Warto również pamiętać, że zmiany algorytmów mogą wpływać na wcześniej ugruntowane strategie, więc elastyczność i zdolność do adaptacji są istotne.

Przykłady zastosowań

1. Audyt techniczny strony

Skoro Google opiera się na crawlu i indeksowaniu, firma może sprawdzić, czy robot rzeczywiście widzi wszystkie ważne podstrony, czy nie ma blokad i czy struktura witryny wspiera odkrywanie treści. 

2. Poprawa jakości treści

Właściciel strony może odejść od pisania wyłącznie pod frazy i skupić się na tym, czy treść naprawdę odpowiada na pytanie użytkownika. To lepiej pasuje do sposobu, w jaki Google opisuje ranking. 

3. Budowanie autorytetu tematycznego

Zamiast tworzyć pojedyncze, oderwane artykuły, marka może budować całe klastry tematyczne i wzmacniać spójność ekspercką wokół konkretnego obszaru. To praktyczny wniosek z tego, że Search ocenia nie tylko pojedyncze słowa, ale też znaczenie i kontekst. 

4. Lepsze UX i zachowanie użytkownika

Choć wyciek nie daje prostego dowodu typu kliknięcia równa się ranking, wzmacnia sens pracy nad CTR, czytelnością i użytecznością strony po wejściu z Google. 

5. Rozsądniejsze podejście do link buildingu

Linki nadal mają znaczenie, ale nie są jedynym elementem. Firmy powinny dbać o jakość i kontekst linków, a nie tylko ich liczbę. 

6. Weryfikowanie mitów SEO

Po wycieku łatwiej pokazać klientowi lub zespołowi, że Google nie działa jak prosty kalkulator kilku czynników. To pomaga budować dojrzalszą strategię SEO. 

7. Edukacja zespołu marketingowego

Materiał o wycieku może służyć jako punkt wyjścia do szkoleń pokazujących, że skuteczne SEO łączy technikę, content, UX i analizę danych, a nie opiera się na jednej sztuczce. 

Największy od dawna wyciek danych Google, Github Leak z 13 marca, skrywa więcej tajemnic, niż mogłoby się wydawać. Dziś na warsztat bierzemy najnowsze analizy, które pokazują, że wyciek danych z marca zawiera jeszcze więcej ciekawych zapisów, które miały być implementowane w Google Search. Pominięte we wcześniejszych analizach aspekty dotyczą m.in. autorytetu strony, świeżości publikowania treści, polityki zbierania danych w Google Chrome i nie tylko. Przyglądamy się nowym wnioskom, do których doszli Rand Fishkin, współzałożyciel SparkToro i Michael King, właściciel iPullRank.

Nowe informacje w sprawie największego wycieku Google w 2024 r.

Ogromny wyciek dokumentów Google ujawnił wewnętrzne mechanizmy algorytmów rankingowych. Dokumenty ujawniły, w jaki sposób Google Search wykorzystuje kliknięcia, linki, treści i dane Google Chrome. Wyciek z 13 marca stał się skarbnicą wiedzy na temat realnych działań realizowanych przez Google, co do których dotąd mogły istnieć jedynie przesłanki. Przypomnijmy, że dokumenty, które wydają się pochodzić z wewnętrznego Content API Warehouse Google, zostały opublikowane 13 marca br. w serwisie Github – największej, ogólnodostępnej platformie udostępnienia kodu open source i nie tylko. Przecieki były opublikowane przez zautomatyzowanego bota o nicku yoshi-code-bot.

Logo Google na murze z kamerami zamiast liter o
Wyciek danych Google API z marca dostarczył jeszcze więcej ciekawych informacji, niż dotąd sądzono.

Algorytm rankingowy Google pod lupą

Chociaż o wycieku pisaliśmy już wcześniej, teraz na jaw wychodzą niuanse, które dodają jednak ciekawego wglądu na to, jak działa Google Search. Rand Fishkin, współzałożyciel SparkToro i Michael King, CEO iPullRank, dokonali ponownej analizy udostępnionych materiałów.

Algorytm rankingowy Google składa się z 2 596 modułów i 14 014 atrybutów. Choć dokumenty nie precyzują, jak dokładnie te funkcje są ważone. Funkcje ponownego rankingu, zwane Twiddlers, mają zdolność do „dostosowywania wyniku wyszukiwania dokumentu lub zmiany jego rankingu”. Zawartość może być zdegradowana z różnych powodów, takich jak:

  • linki niepasujące do strony docelowej,
  • sygnały z SERP wskazujące na niezadowolenie użytkowników,
  • recenzje produktów,
  • lokalizacja,
  • dokładność dopasowania domeny,
  • treści pornograficzne i inne treści zabronione lub ograniczane wiekowo.

Ogromne znaczenie linków i przechowywanie kopii każdej wersji strony

Pomimo narracji uwypuklając znaczenie contentu, która zaczęła dominować w dyskursie SEO od czasu wprowadzenia grafów wiedzy E-A-T, klasyczne linkowanie wciąż ma ogromne znaczenie. Wbrew dość lakonicznym informacjom ze strony Google Dev, system rankingowy Google bierze pod uwagę zgodność, różnorodność i trafność linków przychodzących oraz wychodzących. Wskaźnik PageRank pozostaje nadal istotnym elementem funkcji rankingowych Google szczególnie dla strony głównej. Jednocześnie, jak zauważają Fishkin i King, przedstawiciele Google kłamali na temat linków niebędących „top 3 ranking factors”. Wciąż nie jest jasne, w jaki sposób funkcje te są ważone, ale wiadomo, że wszystkie te parametry są faktycznie brane pod uwagę przez system rankingowy Google Search.

Kolejną istotną rzeczą, która została pominięta w pierwszych analizach wycieku danych, jest kwestia przechowywania danych. Google przechowuje kopię każdej wersji każdej strony, którą kiedykolwiek zaindeksował. Oznacza to, że możliwe jest „zapamiętanie” każdej zmiany wprowadzonej na stronie. Wymaga to ogromnych zasobów i kosztów, więc takie działania Google muszą być uzasadnione. Możliwe, że funkcja zapamiętywania każdego obrazu strony wykracza poza zastosowania SEO i odpowiada również za kwestie bezpieczeństwa. Z perspektywy SEO ważne jest jednak to, że przy analizie linków Google uwzględnia jedynie ostatnie 20 zmian na stronie. Prawdopodobnie to właśnie analiza tych zmian pozwala również na weryfikację, w jakim stopniu dane treści są “świeże”.

Pozytywne i negatywne kliknięcia

W pierwszej analizie tuż po wycieku pisaliśmy o tym, jak Google przez lata wprowadzało w błąd użytkowników co do kliknięć. Okazuje się bowiem, że algorytmy rankingowe dokładniej, niż sądzono, klasyfikuje nie tylko liczbę kliknięć, ale ich kontekst. Wyróżniają m.in. badClicks, goodClicks, lastLongestClicks i unsquashedClicks. Dokumenty i zeznania z procesu antymonopolowego USA przeciwko Google potwierdziły, że Google wykorzystuje kliknięcia w rankingu – szczególnie z systemem Navboost, czyli „jednym z ważnych sygnałów” wykorzystywanych przez Google do rankingu. Dzięki temu zrozumienie interakcji użytkowników z wynikami wyszukiwania staje się kluczowe dla efektywnego pozycjonowania. W praktyce oznacza to, że ignorowanie różnych rodzajów kliknięć może prowadzić do spadków w rankingach oraz narażać strony na różne rodzaje kar Google. Firmy powinny zatem dbać o jakość treści oraz doświadczenia użytkowników, aby uniknąć negatywnych konsekwencji związanych z niewłaściwym interpretowaniem tych danych.

Według Kinga sprawia to, że w obrębie SEO trzeba nastawić się na strategie polegające nie tylko na wzroście klikalności, ale także utrzymaniu ruchu i zainteresowania użytkowników. Oznacza to, że konieczne jest takie działanie, które pozwoli zmniejszyć pulę negatywnych kliknięć, np. badClicks czy unsquashedClicks, na rzecz tych pozytywnych. Skupienie się na przyciąganiu bardziej wykwalifikowanego ruchu zapewnić ma lepsze doświadczenia użytkownika, co z kolei przełoży się pozytywnie na ocenę strony przez algorytmy rankingowe Google Search.

Google śledzi zachowania użytkowników, weryfikuje dane o autorach, korzystając z informacji rejestratorów domen.

Budowanie marki i autorytetu – Google Search weryfikuje firmy za pomocą Chrome

Rand Fishkin stwierdził, że spośród wszystkich informacji dostarczanych przez marcowy przeciek Google, to właśnie marka ma największe znaczenie pod względem SEO. Mówi wprost: „jeśli miałbym jedną uniwersalną radę dla marketerów dążących do poprawy organicznych rankingów i ruchu, brzmiałaby ona tak: zbuduj znaną, popularną, dobrze rozpoznawalną markę w swojej dziedzinie, poza wyszukiwaniem Google, a Google zainteresuje się tym jeszcze bardziej”.

Dane wskazują, że faktycznie Google bardzo mocno interesuje się markami i to nie tylko w obrębie profili firmowych, ale także danych, do których ma dostęp poprzez analizę innych stron. Częściowo zadania te realizowane są przy pomocy przeglądarki Google Chrome. Jeden z modułu przeglądarki, ChromeInTotal, ma wykorzystywać dane do uzupełnienia informacji wykorzystywanych w rankingu Google Search. Obejmuje to m.in. weryfikowanie informacje o firmach. Innymi słowy, dane z Google Chrome przyczyniają się do analizy marek i firm, co przekłada się na pozycje tych stron w wyszukiwarce.

ChromeInTotal ma być wykorzystywany także w innych celach. Udostępnione na Github dane wskazują, że Google korzysta z Chrome do wewnętrznego targetowania stron internetowych i ich twórców. Google ma podobno dodawać do swojej białej listy pewne domeny związane z wyborami i COVID, za co mają odpowiadać specjalne funkcje: isElectionAuthority oraz isCovidLocalAuthority. Od dawna wiadomo, że Google (podobnie zresztą, jak Microsoft w obrębie Binga) posiadają takie listy wyjątków, a specyficzne algorytmy wpływają na ranking niektórych stron internetowych (najczęściej z tematyki YMYL, ale bynajmniej nie tylko).

Google niejawnie śledzi autorstwo publikowanych treści

Kolejną ciekawą funkcją algorytmów, której nie poświęcono uwagi w pierwszych analizach, jest smallPersonalSite. Funkcja ta dotyczy małych stron autorskich i blogów. Spekuluje się, że Google może promować lub degradować takie strony za pomocą Twiddlers – jednego z rdzeni nadrzędnych Google Search, który odpowiada za dostosowywanie wyników wyszukiwania. SmallPersonalSite ma także wpływać na docelowy poziom autorytetu strony. Z przecieku wynika bowiem, że słynna kategoria authoritativeness,należąca doE-A-T / E-E-A-T, również zależy od wyników czynnika smallPersonalSite w przypadku mniejszych stron, które nie są markami. Na tym jednak nie koniec.

Google przechowuje informacje o autorach powiązane z treścią. Przeciek pokazał, że Google ma szereg zaawansowanych mechanizmów, których celem jest weryfikacja, czy dany autor: a) istnieje, b) faktycznie jest autorem (bądź zleceniodawcą) tekstu. Pośrednio odpowiada za to również siteAuthority. Z jednej strony dowodzi to faktycznym staraniom Google’a do zapewniania użytkownikom dostępu do wysokiej jakości treści. Przypomnijmy, że cała narracja nastawiona na szczególną rolę contentu zaczyna się tuż po słynnej aktualizacji Panda w 2011 roku, kiedy Google publicznie oświadcza, że „niskiej jakości treści na części strony mogą wpływać na pozycjonowanie całej strony”. Później przedstawiciele Google wycofywali się z tej tezy, choć przecieki dowodzą, że coś jest na rzeczy.

Znaczenie świeżości treści i wektoryzacja stron

Regularne aktualizowanie treści i dodawanie nowych artykułów faktycznie ma znaczenie dla pozycjonowania i nie jest tylko mrzonką o konieczności tworzenia coraz lepszego contentu. Nie chodzi tu jednak tylko o jakość treści, co ich regularność, systematyczność publikacji i konsekwentność autorów serwisu. Google przywiązuje bowiem bardzo dużą wagę do świeżych informacji i treści, analizując nie tylko sam content, ale także tagi schema, URL-e, daty i przypisanych autorów. Z przecieku wynika, że algorytmy Google posiadają odrębne funkcje odpowiedzialne za te zadania, m.in. bylineDate, syntacticDate i semanticDate.

Procesem zachodzącym równolegle jest wektoryzacja stron w celu oceny zgodności treści z jej główną tematyką. Google porównuje m.in. osadzenia stron (funkcja siteRadius) z osadzeniami witryn (siteFocusScore), co ma dostarczać informacji nt. stopnia zgodności tematycznej witryny. Innymi słowy, algorytmy Google analizują treść tak, aby określić jej związek z ogólną tematyką witryny.

Google Ranking Features from Leaked Content Warehouse API Documentation
Google analizuje setki czynników, które wpływają na ocenę strony i jej pozycję w wyszukiwarce.

Czynniki potencjalnie obniżające pozycję strony w SERP

Dokumenty z Google API opublikowane na łamach Github pokazują też szereg funkcji odpowiedzialnych za degradacje algorytmiczne. Mówiąc wprost, chodzi o czynniki, które wpływają na obniżenie pozycji strony w SERP. Opisy te jednak są fragmentaryczne i krótkie. Wiadomo, że do takich czynników degradujących Google zalicza:

  • niedopasowanie kotwicy – ​​gdy link nie pasuje do witryny docelowej, do której prowadzi, obniża to wartość witryny,
  • degradacja SERP – funkcja prawdopodobnie wykorzystująca dane behawioralne użytkowników wyszukiwarki; jeśli algorytm widzi, że wynik strony jest omijany i rzadziej wybierany od innych, może obniżać pozycję tej strony w rankingu wyszukiwania,
  • kara za nawigacje – degradacja stosowana w przypadku stron wykazujących złe praktyki w zakresie nawigacji, które generuje problemy z komfortem użytkowania,
  • degradacja recenzji produktów – w dokumencie z Githuba pojawia się takie hasło, ale brakuje opisu,
  • degradacja lokalizacji – jak wyżej; prawdopodobnie może chodzić o problemy z przypisywaniem właściwej lokacji przez właścicieli stron,
  • inne degradacje – w dokumencie przewija się też kilka dodatkowych, ale już dość oczywistych terminów; w tym np. degradacje związane z treściami dla dorosłych czy z nielegalnymi substancjami.

Pozostałe wnioski na podstawie wycieku danych Google

Wyciek dokumentów Google API był ogromny pod względem objętościowym. Dowiedzieliśmy się z niego wielu informacji, także takich, które mogą wydawać się mniej istotne w kontekście pozostałych. Co jeszcze wiadomo? Według wewnętrznych dokumentów Google:

  • aby określić, czy strona odpowiada tematyce i mieści się w danym zakresie tematycznym, roboty Google wektoryzują strony internetowe, a następnie porównuje ich zasięgi (siteRadius) z wynikiem osadzenia strony (siteFocusScore),
  • Google przechowuje informacje o rejestracji domen (RegistrationInfo), które pobiera między innymi z WhoIs (choć możliwe jest, że także z innych źródeł),
  • tytuły stron (meta title) nadal mają znaczenie dla pozycjonowania; pomimo tego, że Google modyfikuje sposób ich wyświetlania w SERP, posiada też funkcję o nazwie titlematchScore, która odpowiada za dokonywanie pomiarów, jak dobrze tytuł strony odpowiada danemu zapytaniu,
  • Google mierzy wielkość czcionki w dokumentach (avgTermWeight) i anchorach.

Nowa analiza wycieku danych Google – podsumowanie

Nowe spojrzenie na największy w tym roku wyciek danych Google dostarcza wielu ciekawych informacji, które wcześniej zostały nieco przykryte głośniejszymi sprawami, np. podziałem na złe i dobre kliknięcia. To, co najbardziej intryguje, to zakres weryfikacji danych i wpływ z pozoru błahych czynników na pozycję stron w wynikach wyszukiwania. Analiza dat, zbieranie dokładnych informacji o autorach z całej sieci, weryfikowanie danych ze strony z danymi z innych stron (w tym m.in. danych rejestratorów domen itp.) to tylko wierzchołek góry lodowej.

Czynników, jak widać, jest mnóstwo. Google nie nazywa ich co prawda czynnikami rankingowymi, ale z dokumentu Google API jasno wynika, że to właśnie te czynniki mają pośrednie lub bezpośrednie przełożenie na wewnętrzny scoring stron w Google Search. Na pozycję strony w SERP wpływa nie tylko jakość tej strony, ale także to, czy użytkownicy chętnie klikają ją w wynikach wyszukiwania (potwierdza to wciąż istotną rolę meta description), czy daty artykułów się zgadzają, czy strony pozytywnie przechodzą wektoryzację i czy nie mają niedopasowanych kotwic.

Z niecierpliwością czekamy na kolejny wyciek danych, który na pewno nastąpi prędzej czy później i który dostarczy kolejnych puzzli to tej algorytmicznej układanki!

Napisz komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *