Rozwijająca się sztuczna inteligencja budzi bardzo duże emocje. Po tym, jak przez ostatnie miesiące, a świat z ekscytacją obserwował postęp AI pędzący niczym TGV, nastał czas niepewności. Im dłużej przyglądamy się sztucznej inteligencji, tym coraz częściej widzimy w niej pędzącą z góry kulę śnieżną, która być może na początku była niewinną „zabawą”, jednak przez brak kontroli i jednocześnie dynamiczny, niepohamowany postęp zmieniła się w groźne narzędzie. Czy jesteśmy skazani na przytłoczenie przez tę rozpędzoną śnieżną kulę?
Po euforii, jaka ogarnęła świat na punkcie sztucznej inteligencji, przyszedł czas na refleksji nad przyszłością. Zapewne trudno byłoby nam sobie wyobrazić życie bez AI, która podsunie wieczorem film trafiający w Twój gust, wykona za Ciebie część żmudnych obowiązków w pracy, nauczy obcego języka czy odpowie na nurtujące pytania. Jednak ta poczciwa i uczynna sztuczna inteligencja ma swoje mroczne oblicze. Dyskryminuje, pogłębia społeczne dysproporcje, pomaga szerzyć dezinformację, wprowadza w błąd, wykorzystuje nasze dane, narusza prywatność, a w skrajnych przypadkach staje się zagrożeniem dla… życia. Według badań przeprowadzonych przez NASK Państwowy Instytut Badawczy ponad 60 procent badanych obawia się, że rozwój AI będzie równoznaczny z naruszeniem prywatności i śledzeniem. Przyjrzyjmy się zatem dziś potencjalnym zagrożeniom ze strony sztucznej inteligencji. Faktycznie jest się czego obawiać? W jaki sposób sztuczna AI może nam zagrażać i czy już to robi? I pytanie najważniejsze – czy korzyści, jakie przynosi nam narzędzie, jakim jest sztuczna inteligencja, wkrótce nie zostaną przysłonięte przez liczne ryzyka? Jaki w tym wszystkim jest udział człowieka i czy nad tą śnieżną kulą można jeszcze zapanować?
Deepfake, czyli magia ataku klonów
Pamiętacie Muppet Show, w którym lalki przemawiały głosem lektorów? Dziś taką kukiełką może stać się każdy. Wystarczy, że mamy jego wizerunek, próbkę głosu i aplikację do generowania deepfake’ów. Kilkanaście sekund później dysponujemy filmikiem, na którym wybrana przez nas osoba wypowiada słowa, których prawdopodobnie nigdy w życiu nie wypowiedziała. Brzmi zabawnie? Z pewnością, póki aplikacja służy rozrywce. Niestety deepfake, to także jedno z ulubionych narzędzi cyberprzestępców, służące do oszustw finansowych na dużą skalę. Jak to działa w praktyce? Najczęściej stosowane są dwie metody.
Jedna z nich, to wykorzystanie wizerunku znanych osób – dziennikarzy, sportowców, polityków, gwiazd show biznesu do stworzenia filmików, w których namawiają odbiorców do zainwestowania pieniędzy, oczywiście obiecując niewiarygodnie wysokie zyski, w krótkim czasie. Zgodnie z badaniami NASK aż 32 procent przestępstw inwestycyjnych typu deepfake wykorzystuje w wizerunek dziennikarzy, jako postaci z życia publicznego cieszących się największym zaufaniem. Cyberprzestępcy chętnie pożyczają sobie wizerunki polityków, znanych przedsiębiorców, piosenkarzy, sportowców, a nawet osób duchownych – wszystko zależy od grupy docelowej. Wiele też zależy od rodzaju oszustwa, bo deepfake’i mają nas naciągnąć nie tylko na fałszywe inwestycje, ale także na zakup „cudownych” preparatów uzdrawiających i innych wynalazków mających magicznie zmienić nasze życie. Na stronie NASK można pobrać listę 121 osób, których wizerunek był wykorzystywany w deepfake’ach w 2024 roku – a lista ta wciąż jest uzupełniania i się powiększa, bo cyberprzestępcom kreatywności nie brakuje. Niestety finał tych historii jest zwykle podobny: nie ma żadnej inwestycji, nie ma wspaniałych produktów i nie ma też pieniędzy…
O ile nie każdy jest podatny na argumenty znanych person namawiających do zainwestowania swoich pieniędzy, to trudniej o racjonalne myślenie, gdy w grę wchodzą emocje i lęk o dobro naszych bliskich. Wiedzą to także oszuści, którzy bez skrupułów podszywają się w rozmowach telefonicznych pod głos naszego rodzica, brata, ciotki, żony, czy przyjaciela, informujący nas o wypadku, pobycie w szpitalu i oczywiście konieczności zasilenia konta. Najlepiej w tym momencie, bo na szali ważą się losy naszych bliskich.
Jak uchronić się przed deepfake’iem? Słowem kluczem jest: ostrożność. Sprawdzajmy, kto stoi za rzekomym funduszem inwestycyjnym. Nie ufajmy obietnicom wielkich zysków, w krótkim czasie i przy niewielkim wkładzie, a także w rewolucyjne preparaty, które uleczą nas ze wszystkich dolegliwości. Jeżeli dzwoni do nas bliska osoba lub ktoś znajomy i mamy wątpliwości co do wiarygodności, warto zweryfikować jej tożsamość, kontaktując się za pomocą innego komunikatora. Zwalczaniem stron używających fałszywych nagrań zajmuje się m.in. NASK, do którego powinniśmy zgłaszać podejrzane witryny – co ciekawe, proceder ten zwalczany jest przy użyciu sztucznej inteligencji.
Nakarm sztuczną inteligencję swoimi danymi i prywatnością
Sztuczna inteligencja nie działa w oderwaniu od internetu i świata. Kluczowe dla jej rozwoju uczenie się przy wykorzystaniu baz danych. Ogromnych ilości danych. Skąd AI bierze informacje, na których może pracować? Najczęściej są to publicznie dostępne zestawy tekstów, obrazów, materiałów video i dźwięków. Kolejną pulę stanowią dane użytkowników, które sami dobrowolnie udostępniamy. Kiedy zgadzamy się na wykorzystanie naszych danych? Głównie wtedy kiedy nie czytamy regulaminów, tylko ślepo klikamy „tak, zgadzam się”. W taki sposób duże firmy stają się posiadaczami cennych informacji na nasz temat (np. danych o stanie zdrowia udostępnionych ze smatwatchy), które z chęcią wykorzystają do celów marketingowych, a także nauki sztucznej inteligencji (która, na przykład zostanie użyta do sprofilowania reklamy leków czy badań, które zostaną nam podsunięte w odpowiedniej chwili). Czasem jednak nie jesteśmy informowani o tym, że nasze dane zostaną użyte do uczenia maszynowego AI. Takiego „występku” dopuściła się choćby firma Meta, która w zamian za umożliwienie swoim użytkownikom korzystania z nowych funkcji Meta AI, postanowiła skorzystać z ich danych. Szkopuł w tym, że nikogo o tym fakcie nie poinformowała – dlatego właśnie dostępność Meta AI została wstrzymana w krajach Unii Europejskiej, do wyjaśnienia sytuacji.
Wiele kontrowersji wzbudzają aplikacje, które rozpoznają osobę, która jest na zdjęciu i podpowiadają inne zdjęcia danej osoby, dostępne w sieci, a nawet podają jej dane osobowe. Kiedyś taką kontrowersyjną aplikacją była rosyjska Find Face. Poważną wpadkę zaliczyli pod tym względem twórcy technologii rozpoznawania twarzy Clearview AI. Program ten wykorzystywany był w kanadyjskiej policji, jako pomoc przy identyfikacji sprawców przestępstw. Technologia ta zapewne była niezwykle pomocna, tylko, że… nielegalna. Dokładnie rzecz ujmując, bezprawnie wykorzystywała dane kanadyjskich obywateli i gromadziła ich zdjęcia, nie mając na to zgody.
Pamiętacie futurystyczne wizje okularów tajnych agentów, które identyfikują osoby w otoczeniu? Taki dystopijny scenariusz rzeczywistości, w której możliwa jest inwigilacja innych, stał się coraz bardziej realny. W październiku 2024 dwójka studentów z Uniwersytetu Harvarda zmodyfikowali okulary Ray-Ban Meta, nazywając je I-XRAY. Okulary Meta zostały wyposażone w model językowy, rozpoznający twarz widzianej osoby. Podczas testów użytkownicy okularów bez problemu otrzymywali całkiem dokładne informacje o przechodniach: imię, nazwisko, czym się zajmuje zawodowo, a w niektórych przypadkach nawet numer telefonu. Oczywiście mechanizm rozpoznawania twarzy przez AI wykorzystywany jest przez Meta już od dawna w działaniu platform społecznościowych. Jednak pierwszy raz technologia ta ujrzała światło dzienne i co najistotniejsze – pojawiła się realna obawa, że może ona trafić w niepowołane ręce.
Nad bezpieczeństwem danych użytkowników działa wiele instytucji. Jedną z prężniej śledzących przewinienia AI w zakresie nadużyć danych osobowych jest organizacja Human Rights Watch. To właśnie badaczka Hye Jung Han należąca do tej organizacji przeanalizowała niewielką część bazy danych LAION-58, na której szkolony jest m.in. model językowy Stable Diffusion. W bazie znajdują się wpisy (treść+zdjecie), które opublikowane zostały w internecie po 2008 roku. Jak pokazały analizy, część zdjęć – głównie brazylijskich dzieci – została użyta w tej bazie w sposób nieuprawniony, bez zgody rodziców czy opiekunów tych dzieci. Fotografie miały charakter zdjęć z rodzinnego archiwum i najczęściej pochodziły z niewielkich blogów, a dzieci na nich były doskonale rozpoznawalne, gdyż przypisane były do fotografii dokładne dane osobowe. Organizacja LION momentalnie odniosła się do tek kwestii, usuwając nielegalne elementy z bazy danych. Jednak co AI nauczyła się na nich, tego już nie da się cofnąć. Jak zaznacza organizacja Human Rights Watch, skala procederów związanych z bezprawnym wykorzystaniem zdjęć, czy innych danych jest ogromna, a ten incydent był tylko jednym z wielu jeszcze nie wykrytych przykładów.
AI zdecyduje czy dostaniesz kredyt albo pracę
Innym poważnym zagrożeniem ze strony AI jest jej stronniczość. Zapewne u wielu z Was właśnie rodzi się pytanie, w jaki sposób sztuczna inteligencja może być stronnicza, skoro maszyny w swoim założeniu są pozbawione emocji, a przez to neutralne i obiektywne. Nie zapominajmy, że AI funkcjonuje dzięki bazom danych i to właśnie w nich tkwi problem. Istnieje możliwość, że sztuczna inteligencja przechodzi trening na bazie danych, w która zawarta jest jakaś stronniczość, np. taka baza zbudowana jest z tekstów i decyzji osób dyskryminujących mniejszości seksualne czy etniczne. Do takiego zjawiska może dochodzić nawet, gdy AI podczas pracy nie ma do dyspozycji danych dotyczących płci czy pochodzenia, i informacje uzyskuje na podstawie brzmienia imienia i nazwiska.
Istotne jest by podkreślić, że to nie tylko gdybanie sceptyków, a proceder, który już ma miejsce – i to w świecie, który nas bezpośrednio otacza. Zdarzało się algorytmy wspierające działy HR podczas rekrutacji faworyzowały specjalistów płci męskiej, częściej wybierając ich kandydatury na dane stanowisko. A skoro jesteśmy przy dyskryminacji płci, zaobserwowano, że w przypadku reklam internetowych wiodących reklamodawców (choćby Google), kobietom wyświetlane były oferty pracy o niższych wynagrodzeniach niż męskim użytkownikom. Stronniczość algorytmu zaobserwowana była także w przypadku instytucji bankowych w Stanach Zjednoczonych, gdzie dochodziło do sytuacji, w których osoby o pochodzeniu afroamerykańskim rzadziej otrzymywały zgody kredytowe.
Co ciekawe, zjawisko dyskryminacji przez sztuczną inteligencję nie jest nowe. Już w 2020 roku rząd holenderski na wniosek Human Rights Watch nakazał wstrzymanie z korzystania rządowego systemu automatyzacji, który wykorzystywany był w zakresie przyznawania świadczeń społecznych. W teorii system ten, opierający się na AI, która do dyspozycji miała archiwalne dane na temat osób ubiegających się o zasiłek i otrzymujących go w przeszłości, miał zmniejszać ryzyko wyłudzeń świadczeń społecznych. Zastrzeżenia budził przede wszystkim brak przejrzystości, niejasne zasady działania, a także w zakresie nadużycia prywatności „prześwietlanych” osób i ich praw. Istniało także ryzyko, że działanie systemu pogłębi problem dyskryminacji społecznej i zwiększy rozłam w społeczeństwie, zamiast wyrównywać szanse.
Czy sztuczna inteligencja nam zagraża?
Po garści nie do końca optymistycznych informacji, możemy zastanawiać czy w pojawieniu się sztucznej inteligencji powinniśmy dopatrywać się szans na lepszą przyszłość, czy może raczej zagrożenia ludzkości. Należy pamiętać, że za każdym modelem AI stoją ludzie, którzy go stworzyli i udostępnili konkretną bazę danych, na której sztuczna inteligencja uczyła się i rozwijała. Powyższe przykłady powinny być pewną przestrogą i uwrażliwieniem, że rozwój AI powinien być równoznaczny z jego kontrolą, a także odpowiedzialnością za popełniane przez nie błędy i odpowiedzialnością etyczną. Co jeżeli tego nie dopilnujemy? Brutalnie pokazuje to wydarzenie mające miejsce w USA. Zdaniem matki 14-letniego chłopca jeden z chatbotów dostępnych na platformie Character.AI miał pośrednio doprowadzić do jego samobójstwa. Nie możemy zapominać, że sztuczna inteligencja nie jest niezależnym bytem, a bardzo zaawansowanym narzędziem, które w jednych rękach może być wykorzystane do przełomowych odkryć, a z drugiej do krzywdzenia innych. Dzięki odpowiednim regulacjom i nadzorowi możemy uniknąć tego i wyhamować tą rozpędzoną śnieżną kulę.