SGE: Search Generative Experience. Jak działa mechanizm AI wprowadzony przez Google?

Pojawienie się zaawansowanych modułów językowych A.I. spowodowało, że przez rynek marketingu online dynamicznie szuka dla siebie miejsca w nowej rzeczywistości. Na zastosowanie sztucznej inteligencji zdecydowało się już wiele firm. W maju decyzję taką podjął także gigant z Kalifornii – Google, wprowadzając SGE – Search Generative Experience. Na czym polega nowa usługa? Jak działa i czy jest w stanie zrewolucjonizować wyszukiwarkę Google i systemy reklamowe Google Ads?

Początki SGE. Sztuczna inteligencja podbija wyszukiwarki

Gdy Open A.I. wprowadziło na rynek Chat GPT, w mediach zawrzało. Zarówno branżowe, jak i mainstreamowe, międzynarodowe media biły na alarm: oto pojawiła się sztuczna inteligencja, która zmieni świat. I faktycznie: w niektórych branżach nie trzeba było długo czekać na zmiany. Świetnie rozwinięty moduł językowy A.I. zdążył już zastąpić wielu programistów niższych szczebli, nie mówiąc o copywriterach i zawodach freelancerskich związanych z tworzeniem takiej bądź innej treści.

Możliwości sztucznej inteligencji – nawet “tylko” ograniczonej do modułu językowego – są jednak znacznie szersze. Od razu zdał sobie z tego sprawę Microsoft, który zresztą w Open A.I. posiada udziały. Biorąc pod uwagę coraz większą popularność, jaką zyskuje w ostatnich latach wyszukiwarka Billa Gatesa, Bing, Google nie mogło stać bezczynnie.

10 maja 2023 roku, czyli mniej więcej dwa miesiące po udostępnieniu modułu A.I. w wyszukiwarce Bing, Google ogłasza wdrożenie do swojej wyszukiwarki nowej funkcjonalności. Jest nią SGE, czyli Search Generative Experience, które moglibyśmy spróbować przetłumaczyć jako wyszukiwanie generatywne, generatywne doświadczenie użytkownika albo wyszukiwanie na podstawie zebranych doświadczeń (choć trzeba zaznaczyć, że Google nie zaproponował oficjalnego tłumaczenia, na polskiej scenie marketingu online i SEO nikt nie pokusił się jeszcze o jednoznaczną propozycję terminu). O tym, że podana powyżej data nie do końca stanowi potwierdzenie zmiany kierunku działania przez Google, piszemy poniżej.

Search Generative Experience działa obecnie w wersji beta. To oznacza, że nie mamy do czynienia z pełnym produktem, a okresem intensywnych testów na żywej materii, jaką są użytkownicy online. Z tej przyjemności nie skorzystają jednak Polacy, ponieważ opcja nie jest dostępna dla naszego regionu. Pozostaje jednak tylko kwestią czasu, kiedy SGE zostanie w pełni inkorporowane.

Implementacja Search Generative Experience jest ściśle związana z rozwojem modułów językowych A.I.

Na czym polega Search Generative Experience?

SGE – Search Generative Experience – integruje nowe funkcje wyszukiwania, łącząc obecne systemy generowania odpowiedzi z modułami sztucznej inteligencji. W rezultacie z perspektywy użytkownika A.I. dostarcza kontekstowych odpowiedzi na potrzeby wskazane przez użytkownika.

Wiadomo, że Google nie dąży do całkowitej zmiany sposobu wyszukiwania treści. Byłby to zresztą strzał w kolano, biorąc pod uwagę skalę działania chociażby programów Google Ads i Adsense. Z wierzchu SGE ma oznaczać uruchomienie modułu znajdującego się pomiędzy wynikami Google Ads a organicznymi wynikami wyszukiwania zależnymi od SEO. Moduł ten ma mieć charakter konwersacyjny – Google ma umożliwić nie tylko wybór najlepszych monitów na przedstawioną frazę, ale przede wszystkim zapewnić możliwość jej doprecyzowania.

Interaktywność Search Generative Experience ma pozwalać na precyzyjne wyszukiwanie informacji, ale przede wszystkim lepsze dostosowanie wyników wyszukiwania do realnych potrzeb i celów użytkownika. Tajemnicą Poliszynela jest to, że te dwie wartości nierzadko od siebie odbiegają, a wpisując w Google frazy, które nie należą do grupy long tail, często pozostajemy bezsilni na bezradność wyszukiwarki, która nie pokazuje nam tego, o co prosimy.

Celem SGE jest więc dostarczenie bardziej spersonalizowanych wyników wyszukiwania i lepsze zrozumienie intencji użytkowników. To jednak nie wszystko. Nadrzędnym celem wprowadzenia SGE jest wykorzystanie potencjału machine learning – prawdopodobnie w podobny sposób, jak robi to Chat GPT. Na podstawie udzielanych odpowiedzi w module konwersacyjnym wyszukiwarka może efektywniej dostawać dane pomagające w dostosowywaniu przyszłych wyników dla podobnych fraz wpisywanych w podobnym kontekście. Złośliwy może stwierdzić, że proces ten już się dzieje – i będzie mieć rację. SGE nie używa jednak cytatów ze stron internetowych (snippety), lecz będzie interpretować treść niezależnie w oparciu o różne biblioteki danych. W założeniu SGE ma przedstawiać użytkownikom dodatkowe, ‘własne’ propozycje wyszukiwania. Może to być zarówno doprecyzowanie fraz kluczowych, albo od razu udzielenie najlepszej według siebie odpowiedzi merytorycznej, niekoniecznie stanowiącej oryginalny fragment treści z jakiejkolwiek ze stron.

SGE? Zaczęło się znacznie wcześniej

Proces tworzenia modułu A.I. przez Google zaczął się znacznie wcześniej, niż wskazują media interpretujące zwykle działania Alphabetu jako odpowiedź na rozwój Microsoft Bing. Faktem jest, że Zespół Badawczy Google zaprezentował implementację RAG w publikacji Retrieval-Augmented Language Model Pre-Training (REALM) w sierpniu 2020 roku. Trzy miesiące wcześniej na konferencji NeurLPS swoje badania pt. Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks zaprezentował Zespół Badań A.I. Facebooka. Biorąc pod uwagę realizm, obejmujący m.in. zaawansowane szpiegostwo przemysłowe, jakie ma miejsce cały czas, śmiało można wysunąć dwa twierdzenia: 1) wszyscy najwięksi giganci technologii IT nie tylko samodzielnie pracowali nad modułami A.I., 2) ale również bacznie śledzili postępy swoich konkurentów.

Aby zrozumieć Search Generative Experience, musimy zrozumieć RAG

Proces wprowadzenia modułu językowego sztucznej inteligencji do procesu wyszukiwania wyników w wyszukiwarce jest znacznie bardziej skomplikowany, niż mogłoby się wydawać. De facto nie polega też na “wprowadzaniu” nowego modułu, lecz zastosowania modułu rozszerzonego. Dlatego, aby w pełni zrozumieć SGE, trzeba zrozumieć RAG, czyli Retrieval-Augmented Generation, od którego wszystko się zaczyna.

RAG to paradygmat z dziedziny sztucznej inteligencji i przetwarzania języka naturalnego. Dotyczy modeli językowych wyposażonych w funkcje uczenia maszynowego. Najprościej rzecz ujmując, Retrieval-Augmented Generation bazuje na dwóch procesach: wyszukiwanie (retrieval) i generowania (generation) treści. W pierwszym procesie moduł zbiera dane jako punkty odniesienia z przypisanych baz. Następnie wykorzystuje zapytania (monity) jako wskazówki (prompts) dla modelu językowego. Ostatecznie za pomocą modułów językowych z funkcją machine learning tworzy bądź uzupełnia treść.

Podstawą wszelkich współczesnych modułów językowych jest właśnie RAG. O ile duże modele językowe (Large Language Models, LLM) wykorzystują moc obliczeniową do zwracania szerokich odpowiedzi opartych na prawdopodobieństwie, RAG umożliwia tym odpowiedziom stać się precyzyjnymi. Idealnie wykorzystuje do tego cytowane źródła wiedzy, niejako pełniąc funkcję kompleksowego asystenta wiedzy.

Rozwój modeli językowych całkowicie zmienia sposób generowania odpowiedzi.

Model implementacji RAG

Proces generowania treści typu RAG jest złożony, a szczegóły zależą od takich czynników, jak sposób programowania komend, rodzaj wykorzystywanych zasobów wiedzy, a także środowisko. W ujęciu teoretycznym implementacja RAG realizowane jest zawsze przez 3 główne komponenty, który praca następuje kolejno po sobie:

  • koder wejścia – fraza, pytanie, tekst czy sugestia użytkownika zostaje wstępnie zakodowana. Koder przekształca wejściowy komunikat w serię osadzeń wektorowych.
  • wyszukiwarka neuralna – na podstawie zakodowanych informacji wyszukiwarka przeszukuje wszystkie dostępne zasoby w celu tworzenia propozycji komunikatu wyjściowego. W tym miejscu następuje szereg pomniejszych procesów, m.in. indeksacja i fragmentaryzacja używanych zasobów. Wyszukiwarka analizuje bezpośrednie zasoby, np. dokumenty, albo grafy wiedzy.
  • generator wyjścia – komponent, który ostatecznie odpowiada za stworzenie komunikatu wyjściowego uwzględniając zakodowaną sugestię wejściową i wydobyte zasoby przez wyszukiwarkę. Generator wyjścia w zakresie komunikacji wykorzystuje stanowi duży model językowy (LLM), który jest w stanie skutecznie przedstawić zakodowane rezultaty i zbiory danych w zaprogramowany, zdekodowany i użyteczny dla odbiorcy sposób.

Eksperymenty Google z A.I. Od REALM do SGE

Wspomnieliśmy o publikacji Google z sierpnia 2020 pt. Retrieval-Augmented Language Model Pre-Training (REALM). Google prezentuje w niej metodę wykorzystania spopularyzowanego przez BERT podejścia zamaskowanego modelu języka (MLM) do udzielania odpowiedzi na pytania w formie „otwartej księgi” z wykorzystaniem korpusu dokumentów zawierających model językowy. Model pozwalał na identyfikację rekordów na podstawie analizy pełnych dokumentów źródłowych poprzez precyzyjne przeszukiwanie ich fragmentów. Główną innowacją było przewidywanie niewidocznych na poziomie tokenu informacji, które mogą być kluczowe w procesie znajdowania jak najbardziej użytecznej informacji. REALM szybko zyskał przewagę nad tradycyjnymi modelami językowymi.

To pierwszy, ale nie ostatni model giganta z Kaliforni. Kolejny, RETRO (Retrieval-Augmented Language Model Pre-Training), stanowiący efekt prac zespołu DeepMind Google, analizuje wydobyte dokumenty w sposób hierarchiczny. Zewnętrzne źródła informacji mają przypisywane wartości hierarchiczne, co tworzy ciąg przyczynowo-skutkowy. Model ten wyróżnia się bardziej zaawansowanym sposobem uwzględniania i zrozumienia informacji zewnętrznych, co przekłada się na generowanie tekstów o większej spójności i precyzji.

Ostatnią z większych zmian było pojawienie się modelu RARR (Retrofit Attribution using Research and Revision). Pierwsza zmiana to rozszerzenie objętości wykorzystywanych danych tak, aby model był w stanie przetwarzać jeszcze więcej informacji z bardzo dużych zasobów LLM. Z niepotwierdzonych informacji wynika, że model ten jest w pełni kompatybilny z modelem RETRO i stanowi jego rozbudowę. Jednocześnie wzbogacony jest o funkcje weryfikacji treści i oceny poprawności odpowiedzi.

To, co jest innowacyjne, to przede wszystkim nowe podejście do modelowania języka. RARR nie generuje tekstu od podstaw, lecz wydobywa zestawy z korpusu, porządkuje je, weryfikuje, łączy i dzieli tak, aby w ostateczności zaproponować najlepszy fragment. Takie podejście umożliwia RARR generowanie tekstów bardziej dokładnych i informacyjnych niż tradycyjne modele językowe, ale może być bardziej kosztowne pod względem wykorzystania mocy obliczeniowej.

Model językowy GooglePełna nazwaGłówna zasada działaniaGłówne możliwości
REALMRetrieval-Augmented Language Model Pre-Trainingidentyfikacja informacji kontekstowych niewidocznych z poziomu monitu w celu znalezienia najlepszej odpowiedziGenerowanie wartościowej treści opartej na faktach i przekazów informatywnych
RETRORetrieval-Enhanced Transformer Modelhierarchiczne przetwarzanie danychGenerowanie tekstów logicznych wewnętrznie i bardziej spójnych
RARRRetrofit Attribution using Research and Revisionbrak generowania odpowiedzi od podstaw – modelowanie na podstawie fragmentówZdolności do przetwarzania większych zasobów danych. Rozszerzona zdolność korzystania z cytatów. Umiejętność automatycznej weryfikacji treści i oceny słuszności odpowiedzi

Wyniki wyszukiwania z Search Generative Experience

Prace nad implementacją modułów wykorzystujących A.I. cały czas trwają. Google jest pod presją czasu, jak i konkurencji: przede wszystkimi Open A.I. i Microsoftu, ale także TikToka oraz… zmieniających się behawioralnych trendów wyszukiwania informacji przez użytkowników. SGE nie sprawi, że dotychczasowe wyniki wyszukiwania diametralnie się zmienią. Nie będzie to też całkowita rewolucja, po której będziemy musieli nauczyć się korzystania z wyszukiwarki na nowo.

Wdrożenie Search Generative Experience w założeniu ma być jak najbardziej naturalne. Na obecny stan wiedzy wiadomo, że powstanie wyodrębnione miejsce znajdujące się między segmentem Google Ads a wynikami organicznymi. W tym miejscu użytkownik ma znajdować odpowiedzi na swoje zapytania, cytowania, dodatkowe wskazówki, a nawet uzyskać możliwość kontynuowania konwersacji na wybrany temat z chatbotem A.I. Tym samym, po wprowadzeniu SGE, wyszukiwarka Google upodobni się do Chata GPT (choć czy to nie jest tak, że to Chat GPT upodobnił się do Google?). Użytkownik ma mieć możliwość wykonywania nowych zadań w obrębie wyszukiwarki, a SGE ma na bieżąco dostosowywać się do monitów zarówno na poziomie usługi, jak i generowanie innych wyników wyszukiwania w sekcji poniżej. Formułowanie innych zapytań w SGE ma przekładać się na cały proces wyszukiwania.

Google Search Generative Experience na pewno wpłynie również na Google Ads i SEO.

Zagrożenia związane z Search Generative Experience

Search Generative Experience ma pokazywać bardziej spersonalizowane treści, które nie będą tzw. pozycją zero (cytatami ze strony), ale hierarchicznymi, najlepiej dopasowanymi odpowiedziami po analizie wyników wyszukiwania i całego korpusu LLM Google. To rodzi potencjalne problemy na wielu polach. Główne zagrożenia związane SGE to:

  1. Nie jest jasne, co tak naprawdę preferują użytkownicy wyszukiwarki – cały świat zachwycił się możliwościami Chat GPT, ale to, co lubimy w produkcie Open A.I., niekoniecznie jest tożsame z tym, co lubimy w wyszukiwarce internetowej. Ostatnie badania pokazują, że większość użytkowników Google preferuje jednak wykonywać research na własną rękę. To olbrzymie pole do niedogodności i duży problem, który musi znaleźć rozwiązanie: jak oferując jeden produkt zapewnić swobodę wyszukiwania i brak narzucających się odpowiedzi jednej grupie, dając jednocześnie drugiej grupie docelowej jak najbardziej spersonalizowane, dokładne i ‘gotowe’ wyniki?
  2. Reorganizacja krzywej popytu i jeszcze więcej long tails – implementacja SGE może sprawić, że użytkownicy jeszcze bardziej i szybciej będą oddalać się od pierwszej, zwykle krótkiej, wpisanej frazy. Sprawia to, że dalej może rosnąć znaczenie fraz z długim ogonem. To zaś stanowi kolejne zagrożenie w dłuższej perspektywie związane z jakością treści na stronach internetowych i konfliktem z SEO (SEO bazuje na utartych wzorcach, które zyskały wiarygodność).
  3. Organiczne wyniki wyszukiwania tracą znaczenie… – wprowadzenie SGE w formie nowego segmentu sprawia, że organiczne wyniki wyszukiwania przesuwają się jeszcze bardziej w dół (pamiętajmy, że na pierwszym miejscu wciąż mają znajdować się reklamy płatne). Wskaźniki klikalności, CTR, drastycznie spadną już dla stron znajdujących się w TOP10 wyników wyszukiwania, nie mówiąc o stronach z dalszych pozycji.
  4. ale potencjalnie więcej osób zdecyduje się na reklamę w Google Ads – jeżeli organiczne wyniki wyszukiwania będą mniej istotne, a Google Ads zapewni wciąż satysfakcjonujący współczynnik klikalności, wprowadzenie SGE można też interpretować jako pozytywne krok w zakresie monetyzowania tej usługi przez Google. Z perspektywy sprzedawcy nie jest to jednak dobra wiadomość, gdyż może się wiązać z podwyższeniem stawek reklamowych.

Search Generative Experience (SGE) – podsumowanie

Jasne jest, że to właśnie rozwój sztucznej inteligencji zdecyduje o tym, kto ostatecznie zdominuje rynek SEO/SEM. Prace nad modułami A.I. Google zaczęło co najmniej w 2020 roku, a prawdopodobnie znacznie wcześniej. Wyścig trwa, a konkurencja jest niezwykle silna. Wprowadzenie Search Generative Experience w ogromnym stopniu zmieni sposób wyszukiwania informacji, ale nie jest wcale jasne, czy na lepsze.

O ile wyszukiwarka może zyskać niezwykłe możliwości w zakresie bazowania na danych zhierarchizowanych, analizy zasobów LLM i lepszego generowanie wiadomości informatywnych, o tyle paradoksalnie z perspektywy użytkownika może stanowić trudność w swobodnym wyszukiwaniu informacji tak, jak się tego aktualnie chce. Każda rewolucja wymaga jednak ofiar. O tym, jak będzie w tym przypadku, na pewno dowiemy się na przestrzeni kolejnych miesięcy!

Napisz komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *