Pomimo tego, że modele językowe były trenowane na wielu różnych zasobach, w tym prawdopodobnie takich, co do których są poważne wątpliwości w zakresie prawa autorskiego, OpenAI od dłuższego czasu rozważa znakowanie swoich treści. Pozwoliłoby to na szybkie sprawdzenie, które treści zostały napisane przez człowieka, a które przez algorytmy sztucznej inteligencji. Najnowszy pomysł, stosowanie znaków wodnych, chyba jednak się nie sprawdził. Na skutek dużego oporu społeczności OpenAI porzuca znaki wodne, ale poszukuje alternatywnych metod identyfikacji treści.
Nie będzie znaków wodnych w ChatGPT
OpenAI porzuca plany dotyczące znakowania wodnego treści ChatGPT. Oficjalny komunikat firmy rozwiewa wszystkie wątpliwości. Nowo upieczony gigant powołuje się w nim na aktywny opór i dezaprobatę użytkowników, a także wyzwania techniczne. OpenAI zrezygnowało z tekstowego znakowania wodnego ChatGPT po tym, jak badanie sondażowe unaoczniło, że aż 30% użytkowników przestałoby korzystać bądź korzystałoby rzadziej z ChatGPT, gdyby wprowadzono tego typu identyfikację treści. To solidne żółte światło dla OpenAI.
Biorąc pod uwagę rosnącą na rynku konkurencję, zwłaszcza w postaci projektów typu open source, OpenAI musi liczyć się ze zdaniem społeczności. Jeżeli wprowadzi restrykcyjne znakowanie treści, wielu użytkowników przerzuci się po prostu na programy konkurencji, np. Perplexity, którego popularność stale rośnie. O ile dla większości użytkowników prywatnych takie ograniczenia nie stanowią przeszkody, trzeba pamiętać o tym, że z ChatGPT korzysta większość programistów, redaktorów i pracowników różnych agencji digital na świecie. Znaki wodne przy treściach ChatGPT uniemożliwiłyby im wykorzystywanie narzędzia w pełni tak, jak robią to dotychczas.
Presja użytkowników okazała się skuteczna
Według informacji cytowanych przez The Wall Street Journal system znakowania wodnego OpenAI miał być aż w 99,9% skuteczny i odporny na proste parafrazy. Jednak OpenAI ujawniło, że bardziej wyrafinowane metody manipulacji, takie jak użycie innego modelu A.I. do przepisania tekstu własnymi słowami, mogą łatwo obejść tę ochronę. Programiści z OpenAI proponowali szereg metod znakowania wodnego, ale bardziej zaawansowane były krytykowane ze względu na utrudnienia techniczne, wyższy koszt realizacji oraz potencjalne problemy z wykorzystywaniem tworzonych zasobów.
Decyzja OpenAI o wycofaniu się z oznaczania tekstowego związana jest z trudnością ze znalezieniem balansu pomiędzy przejrzystością całego systemu, skutecznością, a preferencjami użytkowników. Search Engine Journal, częściowo za The Wall Street Journal, wskazuje, że branża potrzebuje nowych sposobów radzenia sobie z problemem wiarygodności treści. Na razie odpowiedzialność za etyczne wykorzystanie sztucznej inteligencji spoczywa na użytkownikach. Ich preferencje z kolei są jasne: znakowanie utrudniłoby wykorzystywanie tworzonych zasobów.
DALL-E 3, C2PA i problemy ze znakowaniem treści
Na początku tego roku pojawiły się nowe informacje w sprawie znakowania zasobów graficznych tworzonych przy pomocy DALL-E 3. Rozwiązanie to było pokłosiem przystąpienia do C2PA (Koalicja ds. Pochodzenia i Autentyczności Treści), organu normalizacyjnego, który odpowiada za opracowanie specyfikacji technicznych dotyczących sprawdzania pochodzenia i uwierzytelniania treści. Warto przypomnieć nawiasem, że w skład grupy C2PA wchodzą między innymi Adobe i Microsoft, który jest blisko związany z Fundacją OpenAI. Identyfikacja treści generowanych przez sztuczną inteligencję jest także jedną z głównych dyrektyw najnowszego rozporządzenia wykonawczego prezydenta Joe Bidena dotyczącego A.I.
Znaki wodne zgodne z dyrektywą C2PA mają pojawiać się w generowanych przez DALL-E zasobach zarówno w API, jak i ChatGPT w wersji płatnej. System znakowania ma składać się z niewidocznego dla użytkownika znaku wodnego, ukrytego komponentu metadanych oraz widocznego symbolu CR w lewym górnym rogu obrazu.
Znakowanie materiałów graficznych powstałych przy pomocy sztucznej inteligencji ma sprzyjać identyfikacji treści i budowaniu zaufania między twórcami, serwisami a użytkownikami. Ci ostatni zresztą mogą samodzielnie sprawdzać pochodzenie dowolnego obrazu generowanego przez platformy OpenAI za pośrednictwem stron internetowych takich jak Content Credentials Verify. Jak dotąd tylko obrazy statyczne, a nie filmy czy tekst, mogą być opatrzone znakiem wodnym.
OpenAI twierdzi, że dodanie metadanych znaku wodnego do obrazów ma „nieznaczny wpływ na opóźnienie w generowaniu zasobów i nie wpłynie na jakość obrazów”. Na stronie OpenAI można przeczytać, że “przyjęcie tych metod [znakowania obrazów – red.] i zachęcanie użytkowników do rozpoznawania tych sygnałów ma kluczowe znaczenie dla zwiększenia wiarygodności treści cyfrowych”.
Zabezpieczanie i identyfikowanie treści A.I. palącym problemem
Zabezpieczanie i identyfikowanie treści generowanej przez sztuczną inteligencję jest coraz bardziej palącym problemem. Algorytmy sztucznej inteligencji nie tylko już generują treści i tworzą obrazy, ale odpowiadają za coraz bardziej wymagające czynności. To między innymi tworzenie materiałów marketingowych, strategii biznesowych, analiz rynkowych, draftów i nie tylko. Nic więc dziwnego, że temat oznaczania treści powstałych przy użyciu A.I. wraca jak bumerang co kilka miesięcy.
Zwolennicy wprowadzenia rygorystycznych zabezpieczeń podnoszą argumenty dotyczące bezpieczeństwa, etyki i transparentności. W tej chwili internet cierpi na powtarzalność i zalew stron spamerskich. W przeciągu kilku lat możemy zmagać się z deficytem kreatywności, bo gdy nikt nie będzie tworzył samodzielnie, różnice między zasobami będą marginalizowane i wszystko stanie się bardziej powtarzalne. Ostatecznie zabezpieczanie treści A.I. ma ogromne znaczenie w kontekście wykorzystywania takich narzędzi do tworzenia i rozpowszechniania dezinformacji, propagandy i fałszywych informacji.
Sprawa nie jest jednak tak jednoznaczna, jak można byłoby Wprowadzenie mechanizmów identyfikujących treści generowane przez sztuczną inteligencję może prowadzić do naruszeń związanych z prywatnością i wolnością słowa. Obawy dotyczą przede wszystkim ewentualnego nadużywania technologii identyfikacji do cenzurowania treści użytkowników. Obawy te nie są nieuzasadnione, a przykłady historyczne dowodzą, że często tego typu regulacje prowadzą do niezamierzonych konsekwencji.
OpenAI rezygnuje ze znaków wodnych ChatGPT – podsumowanie
OpenAI zdaje sobie sprawę z ryzyka, jakie niesie ze sobą decyzja o oznaczeniu treści generowanych przez ChatGPT za pomocą znaków wodnych. Najnowsze badania wskazują, że większość użytkowników ograniczyłaby korzystanie z narzędzia, jeżeli tego typu restrykcje zostałyby wprowadzone. O ile użytkownik prywatny, który np. szuka informacji o pogodzie czy przepisu na ciasto, nie przejmuje się zanadto takimi rozwiązaniami, o tyle z narzędzi OpenAI korzystają miliony firm z całego świata. ChatGPT pomaga w programowaniu, pisaniu, analityce danych i zarządzaniu.
Rezygnacja ze znaków wodnych nie oznacza wycofania się z pomysłu wprowadzenia identyfikacji treści. Prawdopodobnie następny system weryfikacji OpenAI będzie opierał się na zastosowaniu ukrytych metadanych. Celem OpenAI jest stworzenie takiego systemu, który będzie umożliwiał weryfikowaniu autorstwa i ograniczał ryzyko nadużyć wykorzystania generowanej treści. Z drugiej strony ważne jest to, aby dla użytkowników wprowadzenie metod weryfikacji nie stanowiło ograniczenia, które przełożyłoby się na mniejsze zainteresowanie ChatGPT.