Czy sztuczna inteligencja wygra wybory prezydenckie w USA? Deepfake, mikrotargetowanie i radykalizacja wyborców

Wybory prezydenckie w Stanach Zjednoczonych w 2024 roku miały nie tylko być jednymi z najbardziej brutalnych wyborów, które – bez względu na wynik – będą miały ogromny wpływ na kształtowanie się bezpieczeństwa międzynarodowego. Wybory te miały być także pierwszą, realną konfrontacją pomiędzy znanymi narzędziami marketingu politycznego, a możliwościami,  jakie oferuje sztuczna inteligencja. Początkowe przewidywania ekspertów i analityków wskazywały na możliwość wystąpienia poważnych zagrożeń dla procesu demokratycznego. Rzeczywistość okazała się jednak znacznie bardziej złożona i chociaż wpływ AI na przebieg wyborów nie przyniósł zapowiadanej rewolucji, pomógł w dezinformacji i radykalizacji wielu grup społecznych. Sprawdzamy, jak różne strony próbowały wpływać na wyniki wyborów prezydenckich USA za pomocą technologii AI.

Wybory spod znaku AI? Pierwsze ostrzeżenia zignorowane

Wybory prezydenckie 2024 r. w Stanach Zjednoczonych to jeden z najważniejszych momentów nie tylko dla Amerykanów, ale także tych państw, które w dużym stopniu zależne są od polityki handlowej i obronnej lidera paktu północnoatlantyckiego. Nie bez przesady twierdzi się, że to właśnie to, kto zasiądzie w Gabinecie Owalnym, zdecyduje o dalszym losie zarówno konfliktu na Ukrainie, na Bliskim Wschodzie, jak i przyszłego układu bezpieczeństwa międzynarodowego. Wydawałoby się, że w tak istotnym procesie tym bardziej kluczowe jest zapewnienie stabilności i bezpieczeństwa sposobu przeprowadzenia wyborów. Od czasu ostatnich wyborów zaszła jednak spora zmiana, która otwiera katalog nowych zagrożeń. Mowa oczywiście o sztucznej inteligencji – technologii, która otwiera nowe możliwości kształtowania preferencji opinii publicznej w sposób dotychczas nieznany.

Na początku 2024 roku eksperci ds. bezpieczeństwa cybernetycznego bili na alarm, ostrzegając przed potencjalnym chaosem, jaki sztuczna inteligencja może wprowadzić do amerykańskich wyborów prezydenckich. Obawy te szybko przeniknęły do społeczeństwa. Według badań przeprowadzonych przez renomowany Pew Research Center ponad połowa dorosłych Amerykanów wyraziła „skrajne” lub “bardzo duże zaniepokojenie” potencjalnym negatywnym wpływem AI na proces wyborczy w nadchodzących wyborach prezydenckich w Stanach Zjednoczonych. Obawy te nie są bezpodstawne – praktycznie w całej kampanii mogliśmy zaobserwować pierwsze, skuteczne przypadki wykorzystywania sztucznej inteligencji do manipulowania opinią publiczną i rozpowszechniania dezinformacji.

Mikrotargetowanie kampanii wyborczej

Chociaż spektrum potencjalnej ingerencji działań z użyciem AI w proces wyborczy jest niezwykle szerokie, najczęstsze zastosowanie nowych technologii dotyczy modernizacji dotychczasowych strategii marketingowych. W tym zakresie numerem 1 jest mikrotargetowanie kampanii wyborczych, czyli dopasowywanie komunikatu w taki sposób, aby skutecznie dotarł do wąskich grup społecznych.

Zarówno sztab wyborczy Donalda Trumpa, jak i Kamali Harris, wykorzystują sztuczną inteligencję do precyzyjnego dostosowywania komunikatów do konkretnych grup wyborców. Mikrotargetowanie to nie tylko próba doprowadzenia komunikatu do docelowej grupy, ale także uniemożliwienia jego odczytania przez inne, niepożądane grupy. Przykładem mogą być kontrowersyjne tezy związane z budową muru na granicy między USA a Meksykiem, które przypadną do gustu elektoratowi Trumpa w południowych Stanach, ale mogą zniechęcić wahający się elektorat w New Hampshire czy Pensylwanii.

Badania przeprowadzone przez MIT w czerwcu 2023 roku podważyły skuteczność tej metody. Według profesora Davida Randa nie ma dowodów na to, że zaawansowane mikrotargetowanie działa lepiej niż proste targetowanie demograficzne. Hipoteza jest taka, że wyborcy wydają się nie tylko rozpoznawać nadmiernie spersonalizowane komunikaty, ale wręcz aktywnie je odrzucać. Analizując jednak działalność sztabów kandydatów w mediach społecznościowych, widać wyraźnie, że spin doktorzy Harris i Trumpa wiedzą lepiej. Albo mają dowody na to, że wyborcy jednak nie radzą sobie z rozpoznawaniem tak spersonalizowanych komunikatów.

Wiadomo, że obydwa sztaby wykorzystywały AI do dopracowywania swoich przekazów medialnych. Technologia umożliwia szybkie, oparte na danych dostosowywanie komunikatów w celu skuteczniejszego dotarcia do wyborców. Tajemnicą Poliszynela jest to, że sztaby mają do dyspozycji zaawansowane funkcje mediów społecznościowych, z których nie są w stanie korzystać “zwykli” reklamodawcy”, a opcje te często związane są właśnie ze sztuczną inteligencją.

Zalew politycznych deepfake’ów tworzonych przy pomocy AI

Jednym z najbardziej niepokojących aspektów wykorzystania AI w kontekście wyborczym jest tworzenie tzw. deepfake’ów, czyli sfałszowanych materiałów audio i wideo. W styczniu 2024 roku Federal Communications Commission (Federalna Komisja Łączności; FCC) podjęła bezprecedensową decyzję w związku z wykorzystywaniem sztucznej inteligencji przez sztaby kandydatów. FCC całkowicie zakazała wykonywania połączeń automatycznych wykorzystujących głos generowany przez AI. Stało się to po tym, gdy wyborcy w New Hampshire otrzymali fałszywe nagrania głosu prezydenta Joe Bidena, które zniechęcały do udziału  udziału w prawyborach.

Departament Sprawiedliwości New Hampshire, przy wsparciu federalnego Departamentu Sprawiedliwości, postawił zarzuty konsultantowi politycznemu odpowiedzialnemu za ten incydent. Był to ten moment kampanii, w którym zaczęło być naprawdę głośno o sztucznej inteligencji. Po wprowadzeniu zakazu stosowania generowanych przez AI rozmów telefonicznych rozgorzała dyskusja nt. zagrożeń związanych ze sztuczną inteligencją.

Korytarz manekinów bez twarzy, oświetlony neonami, symbolizujący niesamowitą jednolitość i sztuczny charakter technologii deepfake
Powstanie narzędzi AI ułatwiło produkcję politycznych deepfake’ów na masową skalę.

Szczególnie aktywni w rozpowszechnianiu deepfake’ów są przedstawiciele Donalda Trumpa i jego zwolennicy. W sierpniu 2024 roku Trump opublikował wygenerowane przez AI zdjęcia Taylor Swift wspierającej jego kampanię. Sprawa rozeszła się po całym świecie, pisały o niej również mainstreamowe, polskie media, po tym, gdy sama zainteresowana udzieliła jednoznacznego poparcia Harris i skrytykowała manipulację Trumpa. Akcja ta raczej się więc nie udała, a nawet przyniosła odwrotny skutek od zamierzonego. Gdyby jednak Swift nie zabrała głosu publicznie, miliony Amerykanów byłoby skłonnych przekazać głos na Trumpa. To zresztą niejedyna gra technologią deepfake obozu Republikanów. Na swoim koncie w social mediach Trump prezentował m.in. obrazy przedstawiające Kamalę Harris w komunistycznym mundurze.

We wrześniu 2024 roku specjalistyczna jednostka Microsoftu do identyfikowania zagrożeń, Microsoft’s Threat Analysis Center, zidentyfikowała operację rosyjskich hakerów, którzy rozpowszechniali sfabrykowane materiały wideo na temat wiceprezydent Kamali Harris. Niektóre z nagrań prezentowały rzekomy wypadek samochodowy z udziałem Harris, która ucieka z miejsca zdarzenia. Niektóre z tych materiałów w ciągu kilku godzin dotarły do milionów odbiorców. Było to możliwe również dzięki wykorzystaniu sztucznej inteligencji i zaawansowanej automatyzacji. Nie jest jasne, jak bardzo akcja rosyjskich hakerów wpłynie na wyniki wyborów, ale analizując sondaże z września widać, że mogła przyczynić się do spadku popularności kandydatki Demokratów.

Według bazy danych stworzonej przez naukowców z Uniwersytetu Purdue w trakcie całej kampanii prezydenckiej w 2024 r. zarejestrowano już ponad 500 przypadków akcji polegających na przesyłaniu materiałów typu deepfake. Większość z tych materiałów była generowana i/lub rozpowszechniana przy pomocy technologii sztucznej inteligencji.

Narzędzia AI głównie do prostych działań kampanijnych

Tym obszarem prac sztabów, w którym sztuczna inteligencja jest najczęściej wykorzystywana, pozostają jednak przyziemne działania. Demokratyczny Komitet Narodowy przyznał, że używa sztucznej inteligencji do zwiększenia efektywności pracy, w tym do pisania e-maili fundraisingowych, kodowania oraz wykrywania nietypowych wzorców w publicznych rejestrach wyborców. Sztuczna inteligencja pomaga w odpowiadaniu na wiadomości (odczytuje równie tradycyjne listy), usuwania nieprawidłowości i w różnych pomniejszych pracach administracyjnych.

Mijają prawie dwa lata od momentu, kiedy na świat przyszedł ChatGPT, a wraz z nim dziesiątki innych narzędzi i chatbotów AI. Podczas gdy są one cały czas udoskonalane, zwłaszcza pod względem matematyki, nauk ścisłych i programowania, na rynku pojawiło się wiele startupów oferujących narzędzia AI dedykowane dla sztabów wyborczych. Dla przykładu można wymienić BattleGroundAI, który umożliwia błyskawiczne tworzenie setek spersonalizowanych reklam politycznych. Wiadomości można generować zarówno do mailingu, jak mediów społecznościowych. BattleGroundAI, który bazuje na modelu GPT, pozwala na dostosowanie różnych metryk odpowiadających za finalny kształt komunikatów, m.in. tonu (np. entuzjastycznego) czy stopnia kreatywności przekazu.

Innym przykładem może być Grow Progress, oferujący chatbota pomagającego w generowaniu i dostosowywaniu taktyk perswazji i komunikatów do potencjalnych wyborców. Josh Berezin, współzałożyciel Grow Progress, potwierdza, że sztaby wyborcze wielokrotnie eksperymentowały z ich chatbotem w tym roku.

BattleGroundAI to jeden z pierwszych startupów AI stworzonych na potrzeby sztabów wyborczych
BattleGroundAI to jeden z pierwszych startupów AI stworzonych na potrzeby sztabów wyborczych. Z jego narzędzi korzystał zarówno sztab Demokratów, jak i Republikanów.

Zradykalizować nieradykalnych

Rosja jest głównym aktorem, jeśli chodzi o wykorzystanie sztucznej inteligencji do prób destabilizacji społecznej innych państw. Zastosowania sztucznej inteligencji obejmują  tworzenie treści, obrazów i filmów rozpowszechniających nieprawdziwe informacje, szkalujących poszczególne osoby i grupy społeczne, a także skłaniające do teorii spiskowych. Tego typu działania realizowane są każdego dnia zarówno w Stanach Zjednoczonych, jak i w Europie (zwłaszcza tam, gdzie zbliżają się wybory parlamentarne, ostatnio np. w Gruzji i Mołdawii).

Nie jest jasne, na ile kampanie te miały znaczny wpływ na wyborców. Departament Sprawiedliwości USA informował, że we wrześniu zdołał zakłócić jedną z tych kampanii, znaną jako Doppelganger. W tym samym miesiącu społeczność wywiadowcza USA wskazała, że zagraniczne podmioty napotykają na szereg trudności w rozpowszechnianiu tych filmów, w tym konieczność przezwyciężenia coraz to nowszych ograniczeń wbudowanych w takie narzędzia.

Daniel Schiff z Purdue University twierdzi, że wiele deepfake’ów zostało prawdopodobnie zaprojektowanych w celu wzmocnienia opinii osób już skłonnych do uwierzenia w ich przekaz. Badania wskazują, że działania, w których wykorzystywana jest sztuczna inteligencja, mają niski wpływ na aktywnych wyborców, to jest na te grupy, które aktywnie interesują się polityką. Niski wpływ odnotowano także w przypadku tych osób, które kompletnie się od polityki odcinają. Na działania dezinformacji z użyciem AI najbardziej narażone są osoby ze “środka”, które mają wyrobione poglądy polityczne, ale nie są radykałami. To zasadniczo najbardziej pesymistyczny wniosek, jaki można wyprowadzić. AI ma bowiem największy wpływ na sprzyjanie postępującej polaryzacji społecznej.

Humanoidalny robot AI wygłasza mowę z ozdobnego podium. Metalowa postać ze świecącymi oczami zwraca się do uważnego ludzkiego tłumu
Czy głównym zwycięzcą wyborów prezydenckich w USA okaże się sztuczna inteligencja?

Giganci technologiczni odmawiają dostępu do danych

Chociaż wpływ rozwoju technologii AI na realizację procesów wyborczych wydaje się być oczywisty, największe trudnością związane są z przeprowadzaniem takich badań. W ostatnio udzielonym wywiadzie Mia Hoffmann, stypendystka badawcza w Centrum Bezpieczeństwa i Nowych Technologii Uniwersytetu Georgetown, twierdzi, że trudno jest ustalić wpływ AI na wyborców, bo giganci technologiczni nie dzielą się danymi. Duże firmy technologiczne ograniczyły ilość danych, które dzielą się na temat pojawiających się postów. X (dawniej: Twitter) zakończył darmowy dostęp do swojego API. Od momentu przejęcia platformy przez Elona Muska wprost manipulujące materiały sprzyjające kandydaturze Donalda Trumpa nie są zdejmowane pomimo wyraźnego łamania regulaminu serwisu. Meta niedawno zamknęła Crowdtangle na Facebooku i Instagramie, co utrudniło badaczom śledzenie mowy nienawiści i dezinformacji na tych platformach. W rezultacie badacze nie mają danych umożliwiających faktyczny pomiar niebezpiecznych zjawisk w sieci.

Szczególne obawy budzi rozprzestrzenianie się dezinformacji generowanej przez AI na zamkniętych platformach komunikacyjnych, takich jak WhatsApp, które są szczególnie popularne wśród społeczności imigranckich w USA. Ze względu na szyfrowanie tych aplikacji, dezinformacja jest trudniejsza do wykrycia i weryfikacji. Zagrożenia związane są przede wszystkim z wykorzystywaniem generowanych przez AI wiadomości głosowych, które mają podszywać się pod pracowników sztabów wyborczych.

Czy sztuczna inteligencja wygra wybory w USA? Podsumowanie

Jednym z głównych zwycięzców tegorocznych wyborów prezydenckich w USA może być sztuczna inteligencja. I to bez względu na to, kto faktycznie zasiądzie w Gabinecie Owalnym. Narzędzia AI, których nie było jeszcze za czasów poprzedniej kampanii, dodają obecnej większej dynamiki. Ulepszone mikrotargetowanie umożliwia dotarcie do bardzo wąskich, sprecyzowanych grup odbiorców. Masowe wysyłanie wiadomości, a nawet telefony z głosem AI, która podszywać się ma pod pracowników sztabów, sprawiają, że dawno już nie liczy się efektywność faktycznych pracowników komitetów wyborczych. Większe znaczenie ma to, który sztab umie lepiej w AI.

Departament Sprawiedliwości USA już rozszerzył zakres działania Grupy Zadaniowej ds. Zagrożeń Wyborczych o możliwe ingerencje w wybory powodowane przez sztuczną inteligencję. Bardzo możliwe, że po przeliczeniu głosów, bez względu na to, który kandydat wygra, na jaw wyjdą liczne nieprawidłowości, których przyczyną może być właśnie masowe wykorzystywanie AI przez sztaby wyborcze. Pewne jest również to, że już po ogłoszeniu wyników Amerykanów czekać będzie kolejny zalew różnych materiałów generowanych przez AI, które trafią zarówno do ich smartfonów, poczty, jak i zaleją media społecznościowe.

Napisz komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *