Google jako pierwsze wprowadza już ograniczenia dotyczące stosowania contentu wytworzonego przy pomocy narzędzi A.I. Zmiany są drobne, dotyczą obecnie tylko Google Merchant Center, ale otwierają pewien nowy rozdział w historii sztucznej inteligencji. Jednocześnie także inni giganci zapowiadają intensywne prace nad procesem identyfikacji contentu wytworzonego przez sztuczną inteligencję. Trudno się temu dziwić – gdybyśmy mieli transparentne warunki, dziś ChatGPT byłby najbardziej znanym dziennikarzem i lekarzem, a także najbardziej poczytnym naukowcem. Zobacz naszą najnowszą analizę!
Content A.I. – treści, które każdy chce tworzyć, ale nikt nie chce ich czytać
ChatGPT od Open AI zadebiutowało w ostatnim kwartale 2022 roku i prędko stało się tematem numer jeden, jeśli chodzi o technologie. Najbardziej wpływowe postacie ze świata Doliny Krzemowej zaczęły nie tylko wyrażać podziw, ale także potrzebę wstrzymania rozwoju ze względu na konieczność przeprowadzania dalszych badań. Szczególnie dyskusyjne są aspekty psychologiczno-społeczne dotyczące tego, jak zaawansowane modele językowe wpłyną na naszą pracę i współpracę. Drugim filarem wątpliwości są kwestie prawne – i to na nich się dzisiaj skupimy.
Szacuje się, że ChatGPT obsługuje 15 milionów promptów dziennie. Kilka milionów zapytań obsługują też konkurencyjne systemy, takie jak Microsoft Copilot czy Google Gemini (dawniej: Bard). Te ostatnie są w stanie również generować grafikę A.I., która zalała internet w ostatnich miesiącach. Wykorzystanie sztucznej inteligencji do tworzenia contentu budzi coraz więcej wątpliwości prawnych. New York Times opisywał ostatnio kazus łamania praw autorskich, powołując się na faktyczny przypadek generowania obrazów zastrzeżonych znakami towarowymi (m.in. postaci Jokera z serii Batman).
Z treścią generowaną przez moduły A.I. jest ten problem, że każdy chętnie ją tworzy, ale mało kto chce czytać. Niemniej jednak dowolność w kreacji nawet zaawansowanych tekstów prowadzi do problemów prawnych. W Stanach Zjednoczonych ruszają pierwsze procesy o plagiat naukowy, których zarzuty dotyczą wykorzystywania A.I. Pojawiają się procesy o nieprzestrzeganie praw autorskich i łamanie treści zastrzeżonych patentów. Z miesiąca na miesiąc wątpliwości przybywa, podobnie jak pomysłów na nowelizacje prawne. Nie brakuje również kontrowersji w środowisku dziennikarskim . New York Times pozwał ostatnio Open AI i Microsoft za naruszenie praw autorskich, które miałoby polegać na bezprawnym wykorzystywaniu artykułów dziennika do szkolenia systemów sztucznej inteligencji.
Pierwsze ograniczenia dla contentu A.I. – oznakowanie obrazków
Pod koniec lutego Google zrobiło pierwszy krok w kierunku własnych regulacji treści generowanych przez A.I. Od marca używanie obrazów wygenerowanych przez sztuczną inteligencję w swoich kanałach Google Merchant Center będzie ograniczone. Wstawiając jakąkolwiek grafikę, będzie trzeba potwierdzić, że obraz został utworzony samodzielnie bądź przy użyciu A.I.
W oficjalnym komunikacie Google czytamy: „Jeśli używasz obrazów wygenerowanych przez sztuczną inteligencję w Google Merchant Center, Google będzie wymagać, abyś zachował wszystkie tagi metadanych wskazujące na to, że obraz został stworzony za pomocą generatywnej sztucznej inteligencji w oryginalnym pliku obrazu”.
Google wyjaśniło, że nie należy usuwać osadzonych tagów metadanych, takich jak trained Algorithmic Media. Wszystkie obrazy wygenerowane przez sztuczną inteligencję muszą zawierać tag IPTC DigitalSourceType trained Algorithmic Media„. Powyższe zasady dotyczą poszczególnych atrybutów obrazów w Merchant Center, takich jak:
- Link obrazu [image_link]
- Dodatkowy link obrazu [additional_image_link]
- Link do obrazu stylu życia [lifestyle_image_link]
Oficjalne zasady serwisu zostały już zaktualizowane. Śmiało można zakładać, że powyższe wymogi są dopiero początkiem. W przyszłości Google może wymagać wskazania powyższych atrybutów także dla innych właściwości wyszukiwania Google, niezwiązanych wyłącznie z Merchant Centre.
Grafika się nie ukryje – będą niejawne oznaczenia?
W ostatnich dniach pojawiła się również głośna wypowiedź wiceprezesa Google ds. zaufania i bezpieczeństwa, Laurie Richardson, która prędko stała się cytowana przez zagraniczne media. Stwierdziła, że Google pracuje nad rozwiązaniami, które umożliwiają lepszą identyfikację tworzonych treści. Obecne wysiłki Google mają na celu dostarczenie użytkownikom więcej informacji na temat treści online, z którymi się spotykają. Przyznaje, że Google widzi problem w tym, że użytkownik nie wie obecnie, czy czyta treść redaktora, czy treść modelu A.I. Opracowywane rozwiązania mają dotyczyć także oznaczania materiałów opartych na sztucznej inteligencji na YouTube i udostępniania szczegółów o obrazach w wyszukiwarce.
Rozwiązaniem ma być przypisanie konkretnych referencji do metadanych, czyli podstawowych informacji osadzonych w plikach cyfrowych. Nie są to rozwiązania idealne. OpenAI poinformowało w tym tygodniu, że narzędzia do generowania obrazów oparte na sztucznej inteligencji wkrótce będą dodawać znaki wodne do obrazów zgodnie ze standardami C2PA. Open AI zakłada, że od marca obrazy generowane przez swojego internetowego chatbota, ChatGPT, oraz autonomiczną technologię generowania obrazów, DALL-E, będą zawierać zarówno znak wodny wizualny, jak i ukryte metadane. Metadane mają być zaprojektowane w taki sposób, aby móc je zidentyfikować jako stworzone przez sztuczną inteligencję.
Za wprowadzeniem tego rodzaju zabezpieczeń opowiada się także Adobe ustami dyrektora autentyczności, Andy Parsonsa. Wskazuje on, że istnieje silna potrzeba wzmacniania zaufania do treści cyfrowych i zapowiada dalsze działania związane z ochroną praw autorskich. Warto zauważyć, że Adobe nie tak dawno opublikowało Firefly – narzędzie do generowania sztuki online, a także generatywną wersję Photoshopa.
Jak rozwiązać problem z treścią?
Stosowanie znaków wodnych jest dyskusyjne i na pewno nie będzie mogło być jedynym rozwiązaniem. Łatwiej wyobrazić sobie scenariusz, w którym darmowe grafiki A.I. będą dodatkowo oznakowane. Istotniejszym konceptem jest wprowadzenie uniwersalnego systemu metadanych, które musiałyby być odpowiednio ustandaryzowane. Nie przyczyni się to do rozpoznawania contentu A.I. z perspektywy użytkownika, ale da możliwość dodatkowych analiz i selekcjonowania przez algorytmy wyszukiwarek.
Trudniej wyobrazić sobie analogicznie przebiegający proces identyfikacji treści. Problem polega na tym, że treść nie jest tworzona jako osobny plik, który mógłby być opatrzony dodatkowymi zapisami. Wygenerowany content kopiowany z botów konwersatoryjnych A.I. do edytorów zewnętrznych pozbawiony jest danych meta, co uniemożliwia taką identyfikację.
Treści generowane przez A.I. będą oznaczane – podsumowanie
Coraz powszechniejsze wykorzystywanie treści generowanej przez A.I. przyczynia się do powstawania nowych problemów. Już teraz, jeśli istniałaby możliwość zachowania jakiejś odgórnej transparentności, ChatGPT byłby najchętniej cytowanym naukowcem, lekarzem i najbardziej poczytnym dziennikarzem. Świadczy o tym skala ujawnianych plagiatów i naruszeń praw autorskich związanych z wykorzystywaniem sztucznej inteligencji.
Google jako pierwsza firma wprowadza oznaczanie contentu A.I. poprzez metadane, co może być skutecznym sposobem identyfikacji wygenerowanych obrazów. Z pewnością identyfikacja takich treści będzie z czasem przekładać się na pozycjonowanie. Pomimo podejmowanych wysiłków przez firmy takie jak Google, OpenAI i Adobe, aby wprowadzić odpowiednie znaczniki i metadane, nadal istnieją wyzwania związane z autentycznością i pochodzeniem tych treści. Największy i wciąż nierozwiązany problem dotyczy treści tekstowych, bo nie występują one jako oddzielny plik, który może być zaszyfrowany bądź opatrzony stosowanymi metadanymi.
Oczywiste jest, że tylko poprzez współpracę z głównymi koncernami IT możliwe będzie stworzenie skutecznych rozwiązań bez ryzyka prób omijania ustalonych restrykcji. Trudności polegają jednak również na tym, że wciąż nie ma obiektywnie stwierdzonego zakresu, jakie wyzwania konkretnie powinny być regulowane, w jaki sposób i w jakim stopniu. Na pewno do kwestii dotyczących praw autorskich w kontekście A.I. będzie regularnie wracać.