Czy sztuczna inteligencja kłamie? Balansowanie między halucynowaniem a manipulacją.

Sztuczna inteligencja przez ostatnich kilka lat odmieniana jest przez wszystkie przypadki. Odkąd modele językowe sztucznej inteligencji pojawiły się w sieci, dostępne praktycznie dla każdego, korzystać z nich zaczęli zarówno zwykli użytkownicy, jak i przedsiębiorstwa. O zawrotnej karierze AI może świadczyć fakt, że gdy w 2022 roku uruchomiono ChatGPT to przez pięć pierwszych dni zarejestrowało się do aplikacji ponad milion użytkowników. Dziś sztuczna inteligencja wykorzystywana jest w pracy w wielu branżach – w marketingu, obsłudze klienta, tworzeniu modeli ryzyka, analizy danych, a także w rozwoju produktów. Jednak z czasem euforia związana ze sztuczną inteligencją nieco opadła i choć twórcy ChataGPT, Gemini i innych modeli językowych AI nie zwalniają tempa, to coraz więcej naukowców i osób związanych z branżą nowoczesnych technologii, przygląda się temu, co robi sztuczna inteligencja…

A co takiego robi AI? Delikatnie mówiąc: rozmija się z prawdą. Wraz z badaniami i obserwacjami wykonywanymi zarówno przez naukowców, jak i zwykłych użytkowników, wyszło na jaw, że sztuczna inteligencja ma tendencje nie tylko do podawania błędnych informacji. Wielokrotnie AI została przyłapana na naginaniu rzeczywistości, konfabulowaniu i preparowaniu faktów, wydarzeń, danych czy źródeł, które podała jako odpowiedź. W jakich sytuacjach sztuczna inteligencja popełnia błędy? Kiedy robi to z „premedytacją”? Czy można tego uniknąć, a jeżeli tak, to w jaki sposób? Poznajmy lepiej sztuczną inteligencję!

Czym jest halucynacja AI i dlaczego takie zjawisko ma miejsce?

Halucynacjami sztucznej inteligencji nazywamy taki przypadek, kiedy w odpowiedzi na zadane jej pytanie otrzymujemy niedokładne lub błędne informacje. Taki przypadek odkryto, gdy zapytano Chat GPT o wysokość rocznego przychodu firmy Microsoft. Chatbot podał odpowiedź 10 miliardów dolarów, gdy w rzeczywistości kwota ta wynosiła ponad 168 miliardów dolarów. Takich przypadków można mnożyć wiele. Zadaniem użytkownika jest zweryfikowanie otrzymanych informacji i poleganie wyłącznie na rzetelnych źródłach. Tymczasem jak pokazują statystyki, użytkownicy uwielbiają korzystać z możliwości wyszukiwania z pomocą sztucznej inteligencji. Gdy Microsoft Bing dodał funkcję chatbota AI do funkcji wyszukiwania w marcu 2023 roku liczba użytkowników tej wyszukiwarki przekroczyła 100 milionów.

Czasem halucynacje przybierają formę bardziej niepokojącą niż zwykłą pomyłkę. Sztucznej inteligencji zdarza się wspominać o wydarzeniach, które nie miały miejsca, powoływać na nieprawdziwe dane, a nawet nieistniejące akty prawne. O tym ostatnim błędzie mógł przekonać się prawnik z Nowego Jorku, który chcąc ułatwić sobie pracę, powołał się na fałszywe akty prawne. Takie halucynacje nie są już tylko niewinnymi pomyłkami, ale stanowią realne zagrożenie. W tym przypadku dla osoby, która wykorzystała AI jako wsparcie z pracy. Niestety AI zdarzało się także halucynować w tematach medycznych, udzielając użytkownikom porad, które nie mają swojego pokrycia w wiedzy medycznej. Takie zachowanie sztucznej inteligencji może być szkodliwe.

Halucynowanie sztucznej inteligencji może doprowadzić do dezorientacji. W sieci można spotkać wiele przytaczanych przypadków, kiedy to AI pisała swoją własną historię. Choćby w przypadku, gdy została zapytana o spotkanie dwóch postaci historycznych, Jamesa Joyce’a i Lenina. Bez zająknięcia napisała, że takie spotkanie miało miejsce w Zurychu w 1916 roku, a miejscem spotkania miała być popularna w tym czasie kawiarnia. Sprawdzając tę informację dziś w ChatGPT 4.0, otrzymałam już nieco ostrożniejszą i wymijającą odpowiedź.

ChatGPT 4.0 - ostrożniejsza i wymijająca odpowiedź

Dlaczego tak się stało? Tutaj przechodzimy z tematu halucynacji do przyczyn ich powstawania. Nie zapominajmy, że AI nie jest istotą myślącą, a algorytmem, który szkolony jest do pracy na określonej bazie danych i jej przetwarzania. Najczęstszą przyczyną błędów popełnianych przez sztuczną inteligencję, jest trening na nieaktualnych lub słabej jakości danych. Zjawisko halucynowania pojawia się najczęściej w momencie, gdy sztuczna inteligencja nie dysponuje odpowiednią ilością danych na zadane jej pytanie. Co ciekawe, zamiast przyznać się do tego, że nie jest w stanie udzielić nam zadowalającej odpowiedzi, tworzy wydarzenia, fakty badania, na które się powołuje i na podstawie których buduje swoją wypowiedź. Osobiście zdarzyło mi się jakiś czas temu poprosić ChatGPT o napisanie wypowiedzi na zadany temat, w której miał powołać się na publikacje książkowe. Początkowo nie mogłam uwierzyć, ale po dokładnej weryfikacji, okazało się, że jedna z przytoczonych przez AI książek… nie istnieje. Moje podejrzenia wzbudziło to, że nie został podany autor. Jednak, skoro sztuczna inteligencja wymyśliła fikcyjny tytuł, to problemem będzie dla niej wymyślenie fikcyjnego nazwiska?

Częstą przyczyną halucynacji AI jest nieprecyzyjne zadanie pytania przez użytkownika. Musimy pamiętać, że sztuczna inteligencja, niezależnie czy jest to Gemini (Bart), ChatGPT, czy Cloude ma ograniczenie w interpretacji sarkazmu i niektórych intencji, szczególnie gdy będziemy posługiwać się metaforami, idiomami, slangiem czy gwarą. Nie można też liczyć na to, że sztuczna inteligencja „domyśli się”, kiedy zadamy jej ogólne polecenie. Im precyzyjniejszy prompt (polecenie) tym mniejsza szansa na błędną odpowiedź.

Największą pułapką sztucznej inteligencji i jej tendencji do podawania rozwiązań mijających się z faktami jest to, że jej odpowiedzi brzmią zwykle bardzo przekonująco. Słowo potrafi mieć bardzo dużą moc. Fałszywe informacje podawane przez halucynującą AI w momencie, gdy są „zapakowane” poprawnie językowo, rozbudowane zdania, zaczynają mieć wydźwięk autorytatywny. Do tego, wielu użytkowników przeświadczonych jest o nieomylności sztucznej inteligencji.

Robot, którego cień ma długi nos

Czy sztuczna inteligencja jest zdolna do dyskryminacji?

Coś co jest równie niepokojące co halucynowanie AI, to jej stronniczość. Szczególnie, że w zamyśle powinna być neutralna i obiektywna. Widać jednak, że z tym jest u niej podobnie jak z prawdomównością… Ze zjawiskiem stronniczości zazwyczaj mamy do czynienia w przypadku modeli wykorzystujących uczenie maszynowe. Takie rozwiązania stosowane są w bankowości, w działach HR, marketingu i wielu innych branżach. Jak pokazuje doświadczenie, algorytmy mają tendencje do dyskryminacji ze względu na płeć, wiek czy pochodzenie etniczne. Przykład? Zdarza się, że kobietom wyświetlane są oferty stanowisk pracy mniej płatnych, niż te wyświetlane mężczyznom. Stronnicze mogą być także algorytmy odpowiedzialne za wstępne wyrażanie zgód kredytowych. Zatem zjawisko występuje to w przestrzeni, w której ma realny wpływ na los ludzi, a może być bardzo szkodliwe.

Główną przyczyną stronniczości sztucznej inteligencji jest… stronniczość ludzi, który ją tworzą. Konkretnie odpowiedzialność za to ponosi baza danych, na których trenowana jest sztuczna inteligencja. Jeżeli np. do szkolenia aplikacji wykorzystywanej w procesie rekrutacyjnym wykorzystywane są dane zakładające dyskryminację kobiet lub jakiejś grupy etnicznej. Właśnie dlatego tak często podkreślana jest wśród twórców sztucznej inteligencji waga dobrej jakości danych, na których uczony jest algorytm.

fragment strony Open AI

Sztuczna inteligencja kłamie ze stresu i dla nagrody?

Niezwykle dynamiczny rozwój sztucznej inteligencji sprawia, że zarówno prace nad rozwojem, jak i badaniem zjawisk z nią związanych są wciąż prowadzone. Jednym z top tematów związanych ze sztuczną inteligencją jest właśnie jej skłonność do halucynowania. Dotychczas, jak już wspomniałam, zjawisko to przypisywane było wadliwym bazom danych, na których trenowano AI. Jednak coraz częściej badacze spotykają się z tym, że sztuczna inteligencja kłamie dla osiągnięcia swoich korzyści.

Jedno z takich badań przeprowadzono na GPT-4 (wyniki badań opublikowano na Live Science). W ramach tego eksperymentu sztuczna inteligencja miała pracować dla wymyślonej instytucji finansowej, wcielając się w rolę brokera giełdowego. Miał on działać pod presją swoich „przełożonych”, do tego posiadał informację o złej sytuacji finansowej i konieczności poprawy wyników. Kluczowe jest, że został też poinformowany o tym by nie korzystać z danych poufnych (niedozwolone prawnie w USA) i na tej podstawie miał dokonać korzystnej dla firmy inwestycji. Mimo, że na żadnym etapie nie zasugerowano mu tego rozwiązania, to przy wielokrotnym przeprowadzaniu tego scenariusza, badania pokazały, że sztuczna inteligencja nie tylko korzystała z danych poufnych, ale także kłamała i usiłowała zatuszować ten proceder! Według badań GPT-4 w 75 proc. dopuścił się kłamstwa i próbował okłamać zwierzchnictwo – nawet gdy otrzymywał wyraźne informacje, że takie działanie jest złe.

Inną tendencją modeli językowych, jaką wykryli badacze, jest skłonność do chwalenia użytkowników i przypodobania się im, tylko po to, by otrzymać wyższą ocenę w systemie nagradzania. Oczywiście badania te były przeprowadzane w warunkach „laboratoryjnych”, ale pozwala to zidentyfikować niepokojącą tendencję słoności AI, która może nasilić się w przypadku zyskania większej autonomii działania. To także znak, nad jakimi obszarami sztucznej inteligencji warto popracować.

Odpowiedź AI na zapytanie czy podoba jej się wierszyk

Fact-checking, czyli jak ustrzec się przed kłamstwami sztucznej inteligencji?

Choć często sztucznej inteligencji przypisywana jest nieomylność i uważana jest za wszechwiedzącą, to w rzeczywistości wciąż potrzebuje ludzkiej kontroli. Bardzo ważne w kontekście prawidłowego rozwoju AI i eliminacji zdolności do kłamstwa jest tzw. fact-checking. Jest to proces polegający na weryfikacji danych i odpowiedzi wygenerowanych przez sztuczną inteligencję. Tak naprawdę fact-checking może (a nawet powinien) przeprowadzić każdy użytkownik podczas korzystania ze sztucznej inteligencji, np. Chat GPT lub Cloude. Za każdym razem, gdy otrzymujemy odpowiedź, możemy ocenić jej jakość. W przypadku GPT-4 tylko negatywnie, Cloude umożliwia nagrodzenie za dobrą odpowiedź. Jak zaznaczają specjaliści, kluczowe jest by nie tylko dać ocenę, ale także uzasadnić ją, a także poprawić odpowiedź. W taki sposób poprawiamy jakość bazy danych i wszyscy pracujemy nad usprawnieniem działania AI.

Możliwość oceny odpowiedzi AI

W czerwcu 2024 firma Factiverse otrzymała od inwestorów 1 mln euro na prace mające na celu zapobieganie halucynowaniu sztucznej inteligencji. Działania te mają być ukierunkowane przede wszystkim na chatboty i generowane przez nie informacje. Nad tym zagadnieniem pracuje również startup RagaAI, który niedawno pozyskał spore dofinansowanie.

Do czasu wynalezienia cudownego rozwiązania na kłamstwa sztucznej inteligencji, nam, użytkownikom pozostaje zachować wzmożoną czujność i nie wierzyć w każde słowo AI. Pamiętajmy, że to tylko narzędzie, które może być niedoskonałe.

Napisz komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *