ChatGPT w służbie obcych mocarstw – rozwój A.I. zagrożeniem dla bezpieczeństwa?

Sztuczna inteligencja to nie tylko narzędzie do tworzenia treści na strony, a jej oddziaływanie już teraz wykracza znacznie poza SEO i IT. Już w trakcie premiery ChatGPT pod koniec 2022 r. nie brakowało głosów sceptycznych, które wzywały do ostrożności. Ostrożności jednak nie tej, do której wzywał Bill Gates, snując wizje rychłego zastąpienia ludźmi robotami (Fundacja OpenAI jest ściśle związana z Microsoftem), ale powściągliwości w sprawach bezpieczeństwa. Po półtora roku od udostępnienia ChatGPT widzimy już, że stało się ono dla wielu branż narzędziem nr 1. Także dla służb wywiadowczych państw niedemokratycznych.

ChatGPT wykorzystywany przez obce służby

ChatGPT, rozwijany przez OpenAI, wykorzystywany jest przede wszystkim do tworzenia treści i interakcji z użytkownikami. Tylko w czerwcu 2024 r. liczba indywidualnych wejść na stronę ChatGPT wyniosła ponad 2,9 miliarda, co stanowi ponad 1/3 całkowitej populacji kuli ziemskiej. To tak, jakby co trzeci mieszkaniec naszej planety przynajmniej raz skorzystał z generatywnej sztucznej inteligencji.

Liczby robią wrażenie, ale nie tylko one. Mija półtora roku od premiery ChatGPT. W tym czasie ewoluowały nie tylko jego funkcje, powstały nie tylko nowe warianty, ale także nowe sposoby jego wykorzystywania. Wzrost popularności ChatGPT sprawił, że stał się on narzędziem interesującym dla obcych służb wywiadowczych. Możliwości generowania realistycznych tekstów oraz analizy danych czynią go doskonałym elementem arsenału osób zajmujących się białym wywiadem (OSINT), ale także przestępców i członków organizacji terrorystycznych. W tym artykule prześledzimy kilka najważniejszych zastosowań generatywnej sztucznej inteligencji w obrębie cyberbezpieczeństwa, bazując na najnowszych informacjach.

Stary, dobry phishing… w odsłonie ChatGPT

Jednym z najpopularniejszych i jednocześnie najbardziej oczywistych zastosowań ChatGPT w kontekście cyberbezpieczeństwa jest phishing. Tworzenie zaawansowanych kampanii phishingowych z użyciem ChatGPT jest znacznie łatwiejsze. Bez trudu można generować spersonalizowane wiadomości, które wyglądają na wiarygodne i trudne do odróżnienia od prawdziwych. Zdolności translatorskie modułu  również są na bardzo wysokim poziomie, co doceniają przestępcy z różnych kontynentów.

Model może generować spersonalizowane wiadomości e-mail, które są trudniejsze do odróżnienia od prawdziwych wiadomości, co w następstwie znacznie zwiększa skuteczność ataków socjotechnicznych. Tego typu wiadomości mogą skłonić użytkowników do ujawnienia poufnych informacji, takich jak hasła czy dane karty kredytowej. ChatGPT w dostępem do API umożliwia również prowadzenie zautomatyzowanych działań. Bez trudu można połączyć operatora poczty, dowolne inne programy i ChatGPT, aby zautomatyzować przesyłanie wiadomości. ChatGPT pomoże także w analizie adresów mailowych i informacji dostępnych w sieci, przyspieszając znacznie wykonywane prace.

Służby reżimów niedemokratycznych nie pogardzą ChatGPT

14 lutego 2024 r. OpenAI, we współpracy z Microsoftem, opublikowało raport pt. Disrupting malicious uses of AI by state-affiliated threat actors. Z publikacji dowiadujemy się o działaniach podejmowanych przeciwko wykorzystywaniu narzędzi A.I. w celach przestępczych i wywiadowczych. Okazuje się, że zastosowania te są powszechne.

OpenAI z Microsoftem miało uniemożliwić prowadzenie działań pięciu rządowym podmiotom prowadzących działalność dywersyjną. Dwa podmioty związane są z Chinami (Charcoal Typhoon i Salmon Typhoon), jeden z Iranem (Crimson Sandstorm), jeden z Koreą Północną (Emerald Sleet) i jeden z Federacją Rosyjską (Forest Blizzard). Konta i wykonywane działania zostały zidentyfikowane i zablokowane.

Powyższe podmioty wykorzystywały OpenAI do wyszukiwania informacji z otwartych źródeł, tłumaczenia, znajdowania błędów w kodzie i wykonywania zadań programistycznych. Wszystkie służyły operacjom wywiadowczym bądź przestępczym:

  • Charcoal Typhoon (Chiny) – wykorzystywanie OpenAI do badania różnych firm i narzędzi cyberbezpieczeństwa, debugowania kodu i generowania skryptów, tworzenia treści prawdopodobnie wykorzystywanych w kampaniach phishingowych,
  • Salmon Typhoon (Chiny) – tłumaczenia dokumentów technicznych, pozyskiwania publicznie dostępnych informacji o wielu agencjach wywiadowczych i regionalnych podmiotach zagrażających, pomocy w kodowaniu oraz badania typowych sposobów ukrywania procesów w systemie,
  • Crimson Sandstorm (Iran) – wykorzystywanie modeli językowych do tworzenia skryptów, aplikacji, stron internetowych, generowania treści do kampanii spear-phishingowych oraz badania sposobów unikania wykrycia złośliwego oprogramowania,
  • Emerald Sleet (Korea Północna) – identyfikacja ekspertów i organizacji skupiających się na kwestiach obronnych w regionie Azji i Pacyfiku, a także identyfikacja i analiza publicznie dostępnych luk bezpieczeństwa, programowanie, tworzenie treści do kampanii phishingowych,
  • Forest Blizzard (Rosja) – korzystało z usług OpenAI głównie do badań open-source dotyczących protokołów komunikacji satelitarnej i technologii obrazowania radarowego.

Obce służby wywiadowcze mogą wykorzystać ChatGPT do przeprowadzania socjotechnicznych ataków na wybrane cele. Zaawansowane możliwości techniczne umożliwiają także wykonywanie specjalistycznych zadań, takich jak te wykonywane przez podmiot rosyjski (badania protokołów komunikacji satelitarnych) czy północnokoreański (identyfikacja ekspertów związanych z bezpieczeństwem Azji i Pacyfiku).

Fabryka cyber trolli, rzędy komputerów, manipulacja w Internecie, niewyraźne postacie
Z ChatGPT korzystają pracownicy służb reżimów niedemokratycznych, m.in. Rosji, Korei Północnej i Chin.

Raport OpenAI podkreśla, że GPT-4 oferuje jedynie ograniczone, przyrostowe możliwości dla działań przestępczych z zakresu cyberbezpieczeństwa, wykraczające poza to, co jest już osiągalne za pomocą publicznie dostępnych narzędzi niewyposażonych w funkcje A.I. Nie zmienia to jednak faktu, że sama możliwość wykonania poszczególnych działań pięć razy krócej przez służby i przestępców również może przekładać się na ogólny spadek bezpieczeństwa.

Idealne narzędzie do masowej dezinformacji

ChatGPT może być używany do szerzenia dezinformacji na szeroką skalę. To ważne, bo skuteczność procesu dezinformacji polega zwykle na ilości, a nie jakości, zgodnie z maksymą “kłamstwo powtarzane tysiąc razy staje się prawdą”. Służby mogą używać ChatGPT do manipulowania informacjami i oddziaływania w mediach społecznościowych. Za sprawą dostępu do ChatGPT mogą wielokrotnie zwiększać zasięgi, ponieważ generowanie większej liczby kont, nieograniczonej de facto treści, staje się bezproblemowe i nie jest już tak czasochłonne. Prowadzenie kampanii zmierzających do zdyskredytowania danej osoby publicznej, szerzenia chaosu informacyjnego, a nawet podważania zaufania do instytucji publicznych – w tym wszystkich generatywna sztuczna inteligencja niezwykle pomaga.

Źródła branżowe, m.in. The Hacker News, podają, że ChatGPT wykorzystywany jest między innymi do tworzenia fałszywych profili w mediach społecznościowych, które rozpowszechniają dezinformację lub prowadzą działania szpiegowskie. Łatwość integracji API OpenAI z ogromną rzeszą programów sprawia, że obecnie social media będą niezwykle podatne na manipulacje w niespotykanej dotąd skali.

Testy bezpieczeństwa i łamanie zabezpieczeń

Wyposażony w odpowiednie algorytmy za pośrednictwem połączeń API ChatGPT może wspierać ataki na systemy zabezpieczeń. Pod tym względem najbardziej przydają się funkcje analityczne. Znajdowanie potencjalnych luk systemu wymaga zaawansowanej i czasochłonnej analizy kodu. ChatGPT może badać struktury kodów przesłanych przez użytkownika i znajdować potencjalne luki, które mogą zostać wykorzystane do przeprowadzania ataków.

Obce służby wywiadowcze mogą używać ChatGPT do wspierania działań wywiadowczych poprzez analizę kodu i wykrywanie luk w zabezpieczeniach kluczowych systemów. Istnieje także poważne zagrożenie związane z automatyzacją procesów przygotowawczych do przeprowadzania cyberataków. Automatyzacja za pomocą ChatGPT może obejmować nie tylko analizę kolejnych części kodów, zmian w danym środowisku programistycznym itp., ale także analizę odpowiedzi i adaptację strategii ataków w czasie rzeczywistym.

Wojny informacyjne: koncepcyjna ilustracja wojny informacyjnej i dezinformacji we współczesnym społeczeństwie
ChatGPT może skutecznie pomagać w szerzeniu dezinformacji czy tworzeniu kampanii phishingowych.

ChatGPT w służbie obcych mocarstw – podsumowanie

Zastosowanie ChatGPT w obszarze cyberbezpieczeństwa jest oczywiste i słusznie może budzić obawy. Już teraz jest to jedno z podstawowych narzędzi OSINT. Chociaż generatywna sztuczna inteligencja nie jest narzędziem dostarczającym finalnych rezultatów, przede wszystkim znacznie przyspiesza działania przygotowawcze. Możliwość dokładnej analizy języku naturalnego i kodu w znacznie krótszym czasie oznacza, że kampanie phishingowe, działania dezinformacyjne w mediach społecznościowych, a także testy zabezpieczeń w celu wykrywania luk bezpieczeństwa będą mogły być realizowane w jeszcze większej skali niż dotychczas.

ChatGPT oczywiście nie jest zagrożeniem samym w sobie. Daleko mu również do cyberbroni, a nawet oprogramowania wywiadowczego. Sprawdza się za to doskonale w roli asystenta. Asystenta copywritera, asystenta programisty, asystenta specjalisty OSINT i asystenta członka organizacji terrorystycznej.

Napisz komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *