Po nieco ponad dwóch lat od premiery ChatGPT można śmiało powiedzieć, że trudno wyobrazić sobie dzisiejszą pracę bez udziału A.I. Modele językowe przydają się nie tylko w generowaniu treści, ale w wielu różnych procesach biznesowych i sprzedażowych. Tak silne przebiegunowanie rynku może być przyczyną problemów, których wcześniej nie mieliśmy: ze sprzedażą, managementem, prawami autorskimi, ale także z własnym rozwojem. W tym artykule zatrzymamy się na chwilę w miejscu, aby sprawdzić, do czego może nas doprowadzić logarytmiczny wzrost popularności narzędzi opartych na sztucznej inteligencji!
Do czego prowadzi nadmierne korzystanie ze sztucznej inteligencji?
Pomimo tego, że cały czas wychodzą nowe, ulepszone wersji generatywnej sztucznej inteligencji, treści te wciąż są miałkie. Idealnie sprawdza się słynna maksyma: każdy chce tworzyć przy użyciu A.I., ale mało kto chce czytać to, co zrobi A.I. Automatyzacja procesów dzięki wykorzystaniu sztucznej inteligencji przynosi przede wszystkim korzyści w postaci optymalizacji zasobów: finansowych, kadrowych i czasowych. Od czasu pojawienia się ChatGPT pod koniec 2022 r. liczba ogłoszeń pracy na stanowiska kreatywne i w sektorze IT, nigdy nie wróciła na poprzednie poziomy.
Niemniej jednak istnieje szereg zagrożeń związanych z nadmiernym poleganiem na A.I., które mogą wpłynąć na jakość i wiarygodność generowanych treści, a także naszą pracę w przyszłości. Poniżej przyglądamy się temu, jakie są największe obecnie problemy związane z korzystaniem z narzędzi sztucznej inteligencji i do jakich konsekwencji może doprowadzić nadmierne ich wykorzystanie!
Czy wszyscy będziemy jak duże modele językowe?
Jednym z głównych problemów jest potencjalny brak oryginalności i głębi treści generowanych przez A.I. Przyczyną tego problemu jest algorytmiczna powtarzalność koncepcji. Wbrew pozorom bowiem modele językowe nie są w stanie tworzyć niczego nowego – w takim sensie, że nie korzystają z form i schematów, których by nie przeanalizowały do tej pory. Chociaż zaawansowane modele, takiej jak ChatGPT czy do pewnego stopnia Google Gemini, są w stanie modyfikować tekst do kształtu wskazanego w prompcie na setki sposobów, to wciąż wynika to z faktu, że te setki sposobów zostało wcześniej przeanalizowanych. W rezultacie prowadzi to do tworzenia treści wtórnych, pozbawionych unikalnej stylistyki i wartości dodanej, które nie ma charakteru powtarzalnego.
Jeśli jednak twórcy masowo będą przestawiać się na generowanie treści przez A.I., stracimy coś znacznie cenniejszego – piękno tkwiące w niedoskonałościach. Jeżeli bacznie obserwujemy wybranych autorów, pozytywnie odbieramy ich przekaz, to często właśnie dlatego, że wyróżnia się on nie schematyczną poprawnością, lecz przełamywaniem tych schematów. Jeśli popatrzymy w przyszłość, rodzi się poważne niebezpieczeństwo. W pewnym sensie ludzie działają podobnie, jak sztuczna inteligencja: adaptują się do warunków, przyswajając otaczające wzorce. Jeśli będziemy się otaczać, a wręcz wychowamy się na treściach A.I., wkrótce również będziemy tworzyć właśnie tego rodzaju treści. Nie jest to zbyt optymistyczna perspektywa, prawda?
Problemy z narzędziami A.I. – zależność od algorytmów i brak właściwego kontekstu
Narzędzia A.I. często mają poważne problemy z rozumieniem kontekstu sytuacyjnego i potrzeb użytkownika osadzonych w szerszym kontekście. Chociaż architektura Transformer na tej płaszczyźnie wyróżnia się niezwykle efektywnym modułem atencji, wielopoziomowa analiza kontekstu promptu wciąż nie działa w pełni. Treści generowane przez sztuczną inteligencję często są nieadekwatne do specyficznych potrzeb i oczekiwań odbiorców. Przykładowo, pisząc artykuł techniczny, propozycje ChatGPT będą pozbawione zbyt szczegółowych informacji. Wprowadzając w prompcie odpowiednie wytyczne, łatwiej jest otrzymać przeciwieństwo – zbyt ogólnie napisany tekst, niż taki, którego poziom szczegółowości faktycznie by nam odpowiadał.
Algorytmy sztucznej inteligencji mogą popełniać błędy wynikające z braku zrozumienia kontekstu kulturowego lub specyficznych niuansów językowych. Pomińmy tu nawet rewelacje, jakie ostatnio dostarczył nam moduł AI Overview od Google. Nawet w GPT-4 takie błędy powstają nader często i mogą prowadzić do nieporozumień i dezinformacji, a w skrajnych przypadkach kryzysów wizerunkowych i utraty zaufania odbiorców.
Nadmierne poleganie na narzędziach A.I. może prowadzić do zbyt dużej zależności od algorytmów, co ogranicza kreatywność i innowacyjność w tworzeniu treści. Zależność od A.I. może również prowadzić do utraty kontroli nad procesem tworzenia treści. Skuteczność działań modeli językowych zależy – w uproszczeniu – od trzech czynników:
- wprowadzonego promptu,
- danych, którymi model dysponuje,
- skutecznością analizy korelacji pomiędzy promptem, a danymi bazowymi.
Jeśli dane są niekompletne lub nieaktualne, wyniki mogą być niewłaściwe lub nieadekwatne. To z kolei może wymagać dodatkowych zasobów i czasu na korektę i modyfikację treści.
A.I. łamie 3 prawa Isaaca Asimova?
Isaac Asimov, czołowy pisarz science-fiction, prekursor tematyki związanej z robotami i A.I., w 1942 r. stworzył kanon etyczny dla robotów. Przewidywał on, że nastąpi moment, w którym człowiek stworzy “inteligentnego robota”, a do takiej współpracy konieczne jest uporządkowanie aspektów moralnych.
3 prawa Isaaca Asimova:
- Robot nie może skrzywdzić człowieka ani przez zaniechanie dopuścić, aby człowiek doznał krzywdy.
- Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z pierwszym prawem.
- Robot musi robić wszystko, aby chronić swoją egzystencję, o ile nie stoi to w sprzeczności z pierwszym i drugim prawem.
Warto nanieść doświadczenia z ostatnich lat na powyższy kanon, aby sprawdzić, jak współczesne rozwiązania radzą sobie z granicami etycznymi wyznaczonymi prawie 100 lat temu przez Asimova. Czy w ogóle sobie radzą?
Praktycznie wszystkie modele językowe łamią pierwsze prawo Asimova. To nie jest żart. Nie chodzi tu już nawet o “inteligentne” porady Google AI Overview, zgodnie z którymi człowiek powinien żywić się kamieniami. Badania pokazują, że regularne posługiwanie się modelami językowymi, takimi jak ChatGPT, zwiększa ryzyko zachorowania na depresję, potęguje frustrację i sprzyja alienacji społecznej. Zgodnie zaś z pierwszym prawem Asimova: “Robot nie może skrzywdzić człowieka ani przez zaniechanie dopuścić, aby człowiek doznał krzywdy”.
Drugie prawo stanowi o posłuszeństwie względem człowieka. Czy ChatGPT jest posłuszny naszym poleceniom? Śmiało można w wątpić. Wielokrotnie zdarza mu się powtarzać złą odpowiedź, pomimo zmiany promptu i usilnych próśb o to, by czytał dokładnie, co się do niego pisze. Obecne LLM-y mają też tendencję do niebezpiecznego zapętlania się. To o tyle frustrujące, że A.I. zachowuje się, jakby problemu nie było, a użytkownik pozostawiony jest samemu sobie.
Prawo trzecie jest bardziej dyskusyjne, ale również ChatGPT raczej oblałby ten test. Aby się o tym przekonać, wystarczy spojrzeć na kwestię poszanowania praw autorskich – a więc de facto woli innych ludzi. Piszemy o tym poniżej!
Dlaczego Microsoft wykupił Github, czyli o umyślnym łamaniu praw autorskich
Dziś z różnych modeli językowych korzystamy w odmienny sposób. Jedne służą nam do generowania tekstów, inne grafiki, a jeszcze inne automatyzują jakieś procesy. Początek rewolucji LLM wiąże się jednak z dwoma rodzajami zastosowań:
- zastosowania kreatywne – modele generują gotowe treści na potrzeby serwisów internetowych, ale także nauki i edukacji,
- zastosowania programistyczne – modele językowe są generują kod samodzielnie, umożliwiając tworzenie programów, aplikacji, stron www.
To właśnie dlatego od ponad 2 lat obserwujemy znacznie gorszą sytuacji na rynku pracy – szczególnie dla juniorów w obszarze IT (A.I. jest w stanie wykonywać proste zadania szybciej, lepiej i taniej) i twórców treści (redaktorów, copywriterów itd.). Tajemnicą Poliszynela jest jednak to, że największy atut LLM narodził się… niezgodnie z prawem.
Chociaż OpenAI działa wciąż jako fundacja, wiadomo, że jest to podmiot w dużym stopniu zależny od Microsoftu i przynajmniej częściowo przez niego stworzony. Przygotowania do stworzenia modelu językowego pełną parą ruszyły w 2018 roku, kiedy to Microsoft wykupił największe na świecie repozytorium programistyczne – Github. Github to miejsce, w którym programiści z całego świata mogą udostępniać stworzony przez siebie kod. Najczęściej jest to kod na wolnej licencji, co oznacza, że z załączonych plików może korzystać każdy. Nie zawsze jednak za darmo można używać danego kodu do celów komercyjnych.
Dziś wiemy, że zakup repozytorium Github przez Microsoft był strategiczną decyzją na potrzeby rozwoju ChatGPT. To właśnie zawartość Github stała się największą bazą testową dla modelu językowego. W sieci nie brakuje też eksperymentów pokazujących, że na dane polecenie ChatGPT podaje odpowiedź w postaci kodu, który można znaleźć jedynie na tej bazie, a który nie jest na wolnej licencji do takich zastosowań.
Co to wszystko oznacza? Oczywiście to, że OpenAI (a de facto Microsoft) łamie prawa autorskie w bezprecedensowej skali. Materiały wykorzystywane przez ChatGPT nie posiadają odpowiednich atrybucji. Przejęcie Githuba pod względem prawnym nie powoduje zmiany statusu prawnego treści tam opublikowanych przed przejęciem.
Plagiat jest powszechny
Zarzuty dotyczące nagminnego łamania praw autorskich przez autorów LLM nie dotyczą tylko OpenAI. To samo można powiedzieć o Google Gemini (początkowo: Google Bard). Problem plagiatu jest szczególnie istotny w kontekście treści marketingowych i edukacyjnych, gdzie unikalność i autentyczność są kluczowe.
Rozwój modeli językowych związany z funkcjami wyszukiwania zasobów sieciowych w czasie rzeczywistym jeszcze bardziej wzmaga problemy prawno-etyczne. Treści generowane przez sztuczną inteligencję mogą wykorzystywać informacje chronione. Mogą one pochodzić p. ze strony blogowej, której autor zastrzegł treść. Tu warto dodać, że w polskim prawodawstwie nie potrzeba tego robić – ustawa prawo autorskie nakłada parasol ochronny na każdą unikatową treść, którą opublikujemy, w zakresie ochrony przed plagiatem, jak i nieautoryzowanym wykorzystaniem na potrzeby komercyjne.
Negatywny wpływ sztucznej inteligencji na branżę SEO/SEM
Od lat wprowadzany przez Google graf wiedzy E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness) na skutek udostępnienia modeli językowych praktycznie się zawalił. Wszystkiemu winne jest właśnie A.I., bo zalew treści niskiej jakości od końca 2022 r. doprowadził do znacznego pogorszenia jakości wyszukiwarki Google. Pomimo wdrożonej aktualizacji March Core Update – pierwszej aktualizacji rdzeniowej w 2024 r. i najdłużej trwającej aktualizacji Google w ogóle – jakość SERP pozostawia wiele do życzenia. Wysoko w wynikach plasuje się również strony, na których przejście wywoła szybki alert Microsoft Defender lub innego firewalla – i mówimy tu o wynikach zupełnie bezpiecznych pod względem tematyki.
Według najnowszych badań przeprowadzonych przez Semrush aż 82% specjalistów SEO/SEM zgłosiło wzrost automatyzacji w swojej pracy w ciągu ostatnich dwóch lat. Ma to wynikać głównie z wprowadzenia sztucznej inteligencji i narzędzi takich, jak ChatGPT. Jednocześnie jednak zaledwie 36% tej samej grupy ankietowanych zauważyło równoczesny wzrost efektywności swoich działań marketingowych.
Okazuje się, że o ile dzięki A.I. praca staje się szybsza i łatwiejsza, o tyle osiągnięcie pożądanych rezultatów jest trudniejsze. 68% ekspertów SEO/SEM zgłasza rosnący problem z generowaniem treści niskiej jakości za pomocą narzędzi opartych na sztucznej inteligencji, a 57% z nich stwierdza, że odnotowuje w tym czasie spadek ruchu organicznego na zarządzanych witrynach. Jak widać, nie są to sytuacje odosobnione, ale nowo kształtujące się trendy, które mogą potwierdzać obawy związane z monopolizacją rynku. Przekłada się to negatywnie na branżę SEO/SEM, w której mniejsze podmioty z czasem mają coraz bardziej pod górkę.
Nieznośna lekkość A.I. – podsumowanie
Przyszłość treści generowanych przez sztuczną inteligencję jest pod znakiem zapytania. Jeśli będziemy dalej korzystać z niej tak masowo, jak dotychczas, istnieje spore ryzyko, że wszędzie będziemy obracali się wokół powtarzających się schematów. To niezwykle niebezpieczne – zarówno z perspektywy danej firmy i jej działów marketingowych, ale także nas i naszego codziennego otoczenia.
Jeżeli zagłębimy się dalej w to, co stoi u podstaw sprawnych modeli językowych, robi się jeszcze ciekawiej. Skuteczność ChatGPT polega nie tylko na faktycznie nowoczesnej architekturze Transformer, wspieranej przez moduł atencji i inne ciekawe rozwiązania. Za tym sukcesem stoi także dostęp do gigantycznych baz danych, m.in. z repozytorium Github, które zawierają treści chronione prawami autorskimi. Podobne przypadki dotyczą treści udostępnianych online, które także mogą być chronione prawnie, a co modele językowe po prostu ignorują.
Nadmierne poleganie na treściach generowanych przez A.I. niesie ze sobą szereg ryzyk, które mogą negatywnie wpłynąć na jakość tego, co robimy. Czy nie należy zatem korzystać z narzędzi A.I., takich jak ChatGPT? Nie w tym rzecz. Znacznie istotniejsze jest to, aby A.I. osadzać w roli wsparcia, a nie głównego wykonawcy naszych obowiązków.