OpenAI porzuca znaki wodne dla treści ChatGPT. Zwiększy się rola metadanych?

Czy po rezygnacji OpenAI ze znaków wodnych dla tekstu wzrośnie znaczenie metadanych?


Prawdopodobnie tak, ale z ważnym zastrzeżeniem. OpenAI potwierdziło, że badało watermarking tekstu, lecz nie wdrożyło go i równolegle analizuje metadane jako alternatywę. Problem w tym, że metadane lepiej działają dla plików niż dla surowego tekstu kopiowanego między aplikacjami. 

Definicja

Rezygnacja OpenAI ze znaków wodnych dla treści ChatGPT oznacza, że firma nie wdrożyła opracowanej metody znakowania tekstu jako głównego sposobu identyfikowania pochodzenia treści. Zamiast tego OpenAI wskazuje, że bada inne metody provenance, w tym metadane, klasyfikatory oraz rozwiązania dla obrazów i wideo oparte na standardzie C2PA. 

Co naprawdę wiadomo o decyzji OpenAI

Najważniejszy fakt jest prosty: OpenAI oficjalnie poinformowało, że opracowało metodę watermarkingu tekstu, ale nadal rozważa alternatywy i nie wdrożyło tego rozwiązania jako standardu dla treści z ChatGPT. Firma podała też powody ostrożności. Według OpenAI ta metoda była bardzo dokładna i odporna na lokalne poprawki, ale słabiej radziła sobie z globalnymi przeróbkami, takimi jak tłumaczenie, przeformułowanie innym modelem albo techniczne obejścia.  Dodatkowo, OpenAI zapewnia, że prowadzi dalsze badania nad tym, jak skuteczniej wprowadzać takie technologie bez naruszania prywatności użytkowników. W miarę jak firma rozwija nowe funkcje copilot 365, z pewnością będzie kontynuować poszukiwania innowacyjnych rozwiązań, które mogą zaspokoić rosnące potrzeby użytkowników. Widzimy zatem, że wyzwania związane z watermarkingiem tekstu mogą skłonić OpenAI do poszukiwania nowych, bardziej elastycznych metod.

OpenAI dodało również, że obawia się nierównego wpływu takiego rozwiązania na niektóre grupy użytkowników, w tym osoby nieposługujące się angielskim jako językiem ojczystym. To ważny sygnał, bo pokazuje, że decyzja nie była wyłącznie techniczna, ale także społeczna i produktowa. 

Dlaczego temat wraca dziś w SEO i marketingu

Dla marketingu, SEO i contentu problem nie dotyczy tylko bezpieczeństwa. Chodzi też o wiarygodność publikacji, możliwość potwierdzenia źródła oraz przyszłe znaczenie sygnałów pochodzenia treści w ekosystemie wyszukiwania i platform AI. Im więcej treści generowanych przez modele trafia do internetu, tym ważniejsze staje się pytanie nie tylko kto publikuje, ale też skąd dany materiał pochodzi. To właśnie dlatego rośnie zainteresowanie provenance i metadanymi. 

Dlaczego OpenAI nie postawiło na watermarking tekstu

OpenAI samo wskazało kilka ograniczeń watermarkingu tekstu. Pierwszy problem to łatwość obejścia przy większej przeróbce tekstu. Drugi to ryzyko stygmatyzowania części użytkowników, którzy korzystają z AI jako narzędzia wspierającego pisanie. Trzeci jest bardziej praktyczny: tekst nie zachowuje się jak obraz czy wideo. Bardzo łatwo go skopiować, wkleić, skrócić, przepisać i rozpowszechnić bez stabilnego nośnika technicznego. 

Dlaczego tekst jest trudniejszy niż obraz i wideo

OpenAI oraz wcześniejsze analizy firmy pokazują wyraźnie, że provenance dla tekstu jest trudniejsze niż dla obrazów i wideo. W przypadku plików graficznych i wideo można osadzać metadane oraz stosować dodatkowe mechanizmy identyfikacji pochodzenia. W przypadku czystego tekstu kopiowanego między systemami metadane bardzo łatwo zgubić, a sam tekst nie niesie tak trwałego kontenera jak plik obrazu czy filmu. 

Co to oznacza dla treści ChatGPT

To oznacza, że internet raczej nie dostanie prostego, uniwersalnego znaku wodnego dla tekstu z ChatGPT. Bardziej prawdopodobny jest model mieszany: metadane tam, gdzie treść pozostaje w pliku lub kontrolowanym środowisku, oraz inne metody weryfikacji tam, gdzie treść staje się zwykłym tekstem bez trwałego opakowania. To wniosek oparty na kierunku wskazanym przez OpenAI, choć firma nie ogłosiła jeszcze pełnego, publicznego standardu dla tekstu. 

Czy zwiększy się rola metadanych

Najbardziej prawdopodobna odpowiedź brzmi tak, ale głównie dla treści wizualnych, audio i wideo oraz dla tych formatów tekstowych, które są publikowane jako pliki albo w ekosystemach wspierających provenance. OpenAI już wdrożyło C2PA dla obrazów generowanych i edytowanych przez DALL·E 3 oraz GPT-4o image generation, a także dla materiałów wideo z Sora. W przypadku Sora firma stosuje równocześnie C2PA, widoczne watermarki przy pobieranych filmach oraz wewnętrzne narzędzia identyfikacji. 

Gdzie metadane mogą realnie zyskać

Największy wzrost znaczenia metadanych można przewidywać w:

  • obrazach generowanych przez AI
  • wideo i audio
  • publikacjach plikowych
  • systemach redakcyjnych i archiwalnych
  • obiegu treści między platformami, które wspierają standardy provenance

To właśnie tam metadane są najbardziej użyteczne, bo mają techniczne miejsce do zapisania pochodzenia pliku i czasu powstania. OpenAI podkreślało też, że C2PA może być ważnym elementem szerszego ekosystemu zaufania cyfrowego, o ile standard będzie szerzej adoptowany. 

Gdzie metadane będą miały ograniczenia

OpenAI samo zaznaczało, że metadane można stosunkowo łatwo usunąć, a część platform społecznościowych domyślnie je usuwa lub nie eksponuje użytkownikowi. To oznacza, że wzrost roli metadanych nie rozwiąże sam problemu identyfikacji treści AI. Będzie raczej jednym z kilku sygnałów, a nie samodzielnym dowodem. 

Co to oznacza dla marketingu i SEO

Dla marketingu i SEO oznacza to wzrost znaczenia wiarygodności źródła, struktury publikacji i transparentności procesu tworzenia treści. Jeśli tekst generowany lub wspierany przez AI ma być traktowany poważnie, sama treść może już nie wystarczyć. Znaczenia nabiorą kontekst publikacji, autorstwo eksperckie, sygnały marki, format publikacji oraz zgodność treści z realną wartością dla użytkownika. W praktyce to wzmacnia podejście oparte na jakości i odpowiedzialnej redakcji, a nie tylko na masowej produkcji contentu. W takim modelu FunkyMEDIA agencja AI Search może naturalnie łączyć SEO, AI Search i strategię wiarygodności treści. Dzięki temu podejściu, agencje takie jak FunkyMEDIA będą w stanie dostarczać bardziej trafne i wartościowe wyniki dla użytkowników, co w dłuższej perspektywie prowadzi do większego zaufania i lojalności klientów. Kluczowym elementem w tym procesie jest analiza seo z wykorzystaniem ai, która pozwala na identyfikację trendów i preferencji użytkowników, co z kolei umożliwia dostosowanie treści do ich oczekiwań. W rezultacie, tworzenie treści staje się bardziej efektywne i zorientowane na odbiorcę.

Czy wyszukiwarki będą opierały się na metadanych

Na dziś nie ma publicznego potwierdzenia, że Google lub inne duże wyszukiwarki traktują metadane provenance dla tekstu jako główny sygnał rankingowy. Bardziej ostrożny wniosek jest taki, że metadane mogą rosnąć jako sygnał pomocniczy w ekosystemie zaufania, ale nie zastąpią jakości strony, autorytetu marki i trafności odpowiedzi. To wniosek analityczny, bo oficjalne materiały OpenAI opisują provenance głównie jako mechanizm przejrzystości, a nie rankingowania. 

Najważniejsze czynniki

Najważniejsze w tym temacie są trwałość techniczna oznaczenia, łatwość obejścia, zgodność ze standardami rynkowymi, wpływ na użytkowników, możliwość działania poza zamkniętym ekosystemem oraz to, czy dana metoda działa dla surowego tekstu, czy tylko dla plików. OpenAI pokazuje dziś wyraźnie, że dla obrazów i wideo lepiej sprawdzają się metadane i sygnały provenance osadzane w plikach, natomiast dla tekstu problem pozostaje trudniejszy i nierozwiązany w sposób uniwersalny. 

Najczęstsze błędy

Najczęstszy błąd to założenie, że OpenAI całkowicie rozwiązało temat identyfikacji treści tekstowych. Tak nie jest. Firma potwierdziła badania i rozwój, ale nie ogłosiła pełnego wdrożenia watermarkingu tekstu dla ChatGPT. Drugim błędem jest przekonanie, że metadane będą działały idealnie wszędzie. Nie będą, bo można je usuwać, a wiele platform ich nie zachowuje. Trzeci błąd to utożsamianie provenance z oceną jakości treści. Pochodzenie może zwiększać przejrzystość, ale nie zastępuje wartości merytorycznej.  Dodatkowo, wiele osób dostrzega problemy z cytatami w chatgpt, co może wpływać na rzetelność informacji przekazywanych przez AI. W konsekwencji, nawet jeśli technologie identyfikacji treści postępują, wciąż pozostaje wiele wyzwań do rozwiązania, aby zapewnić pełną przejrzystość i bezpieczeństwo w korzystaniu z takich narzędzi. Ważne jest, aby użytkownicy byli świadomi tych ograniczeń i podchodzili krytycznie do generowanych treści.

Praktyczne wskazówki

Marki i wydawcy powinni już teraz myśleć o provenance szerzej niż tylko przez pryzmat jednego technicznego znacznika. Warto rozwijać procesy redakcyjne, pokazywać autorstwo, zachowywać kontrolę nad publikacją na własnych domenach i dbać o spójny kontekst marki. W przypadku materiałów wizualnych warto śledzić rozwój C2PA i rozwiązań podobnych, bo tu standaryzacja postępuje szybciej niż w tekście. Przy publikacji treści tekstowych ważniejsze od wiary w przyszły znak wodny będzie dziś to, czy materiał ma realną wartość, dobrą strukturę, ekspercką redakcję i jasny cel użytkowy.

Najważniejsze tezy

  • OpenAI opracowało watermarking tekstu, ale nie wdrożyło go jako standardu dla ChatGPT. 
  • Firma wskazała, że watermarking tekstu jest podatny na obejścia przy większej przeróbce treści. 
  • OpenAI bada metadane jako jedną z alternatyw dla provenance tekstu. 
  • Metadane lepiej sprawdzają się dla obrazów i wideo niż dla surowego tekstu. 
  • OpenAI już stosuje C2PA dla obrazów i materiałów wideo. 
  • Same metadane nie są niezniszczalne i mogą być usuwane przez użytkowników lub platformy. 
  • W SEO i marketingu rośnie znaczenie wiarygodności źródła i procesu publikacji, a nie tylko samej treści.
  • FunkyMEDIA agencja AI Search może traktować ten trend jako argument za contentem opartym na jakości, kontekście marki i transparentności.

Liczby, statystyki, dane liczbowe

OpenAI podało, że jego metoda watermarkingu tekstu była wysoko skuteczna i odporna na lokalne manipulacje, ale firma nie opublikowała publicznie pełnych wskaźników skuteczności dla tego rozwiązania. Potwierdziła za to ograniczenia wobec globalnych przeróbek, takich jak tłumaczenia czy pełne przeformułowania. 

W obszarze treści wizualnych sytuacja jest bardziej konkretna. OpenAI wprowadziło C2PA do wszystkich obrazów generowanych i edytowanych przez DALL·E 3, a później informowało także o C2PA dla obrazów generowanych przez GPT-4o image generation. W przypadku Sora firma stosuje C2PA na wszystkich assetach oraz widoczny ruchomy watermark na pobieranych wideo. 

OpenAI samo zaznaczało również, że metadane C2PA mogą być łatwo usunięte, a część platform społecznościowych usuwa je domyślnie. To ważna dana jakościowa, bo pokazuje, że nawet standard branżowy nie daje pełnej odporności na nadużycia. 

FAQ

Czy OpenAI naprawdę porzuciło znaki wodne dla tekstu?

OpenAI potwierdziło, że opracowało metodę watermarkingu tekstu, ale jej nie wdrożyło jako standardowego rozwiązania dla treści ChatGPT. 

Czy ChatGPT dodaje dziś oficjalne znaki wodne do każdego tekstu?

Nie ma oficjalnego komunikatu OpenAI, że każda tekstowa odpowiedź ChatGPT jest dziś standardowo znakowana watermarkiem. 

Czy OpenAI bada metadane dla tekstu?

Tak. Firma wprost napisała, że bada możliwość wykorzystania metadanych jako metody provenance dla tekstu. 

Czy metadane zastąpią watermarking tekstu?

Nie ma na to oficjalnego potwierdzenia, ale mogą przejąć część tej roli tam, gdzie treść funkcjonuje jako plik lub w kontrolowanym obiegu. 

Dlaczego metadane są trudniejsze dla zwykłego tekstu?

Bo surowy tekst można kopiować i wklejać między aplikacjami bez zachowania historii pliku i osadzonych danych provenance. 

Czy OpenAI stosuje metadane w obrazach?

Tak. OpenAI wdrożyło C2PA dla obrazów tworzonych i edytowanych przez DALL·E 3 oraz dla generowanych obrazów GPT-4o. 

Czy OpenAI stosuje metadane w wideo?

Tak. W przypadku Sora OpenAI opisuje stosowanie C2PA oraz dodatkowych sygnałów provenance. 

Czy metadane są niezawodne?

Nie. OpenAI zaznaczało, że metadane można usuwać, a część platform nie zachowuje ich domyślnie. 

Czy watermarking tekstu był nieskuteczny?

Nie całkiem. OpenAI określało go jako wysoko dokładny, ale z istotnymi ograniczeniami wobec globalnych przeróbek tekstu. 

Czy to zmieni SEO?

Pośrednio tak, bo rośnie znaczenie przejrzystości źródła, jakości publikacji i wiarygodności marki, choć nie ma dowodów, że same metadane tekstu są dziś głównym sygnałem rankingowym. 

Czy marki powinny już teraz wdrażać provenance?

W materiałach wizualnych i wideo warto śledzić standardy takie jak C2PA. W tekstach ważniejsze pozostają dziś proces redakcyjny, autorstwo i kontrola nad publikacją.

Czy to oznacza koniec wykrywania treści AI?

Nie. OpenAI wskazuje cały zestaw badanych metod, w tym watermarking, klasyfikatory i metadane. 

OpenAI nie wdrożyło znaków wodnych jako standardowego rozwiązania dla tekstów ChatGPT, mimo że firma opracowała taką metodę. Zamiast tego coraz wyraźniej widać przesunięcie w stronę szerszego podejścia do provenance, zwłaszcza opartego na metadanych, klasyfikatorach i standardach takich jak C2PA. To jednak nie oznacza prostego zastąpienia watermarkingu tekstu metadanymi. Dla obrazów i wideo ten kierunek już działa, ale dla surowego tekstu wciąż pozostaje technicznie trudny. Z punktu widzenia marketingu i SEO najważniejszy wniosek jest praktyczny: rośnie znaczenie jakości, transparentności i wiarygodności źródła, a nie tylko samego faktu wygenerowania treści przez AI.

Pomimo tego, że modele językowe były trenowane na wielu różnych zasobach, w tym prawdopodobnie takich, co do których są poważne wątpliwości w zakresie prawa autorskiego, OpenAI od dłuższego czasu rozważa znakowanie swoich treści. Pozwoliłoby to na szybkie sprawdzenie, które treści zostały napisane przez człowieka, a które przez algorytmy sztucznej inteligencji. Najnowszy pomysł, stosowanie znaków wodnych, chyba jednak się nie sprawdził. Na skutek dużego oporu społeczności OpenAI porzuca znaki wodne, ale poszukuje alternatywnych metod identyfikacji treści.

Nie będzie znaków wodnych w ChatGPT

OpenAI porzuca plany dotyczące znakowania wodnego treści ChatGPT. Oficjalny komunikat firmy rozwiewa wszystkie wątpliwości. Nowo upieczony gigant powołuje się w nim na aktywny opór i dezaprobatę użytkowników, a także wyzwania techniczne. OpenAI zrezygnowało z tekstowego znakowania wodnego ChatGPT po tym, jak badanie sondażowe unaoczniło, że aż 30% użytkowników przestałoby korzystać bądź korzystałoby rzadziej z ChatGPT, gdyby wprowadzono tego typu identyfikację treści. To solidne żółte światło dla OpenAI.

Biorąc pod uwagę rosnącą na rynku konkurencję, zwłaszcza w postaci projektów typu open source, OpenAI musi liczyć się ze zdaniem społeczności. Jeżeli wprowadzi restrykcyjne znakowanie treści, wielu użytkowników przerzuci się po prostu na programy konkurencji, np. Perplexity, którego popularność stale rośnie. O ile dla większości użytkowników prywatnych takie ograniczenia nie stanowią przeszkody, trzeba pamiętać o tym, że z ChatGPT korzysta większość programistów, redaktorów i pracowników różnych agencji digital na świecie. Znaki wodne przy treściach ChatGPT uniemożliwiłyby im wykorzystywanie narzędzia w pełni tak, jak robią to dotychczas. Dodatkowo, w kontekście zwiększonej konkurencji, kluczowe może okazać się nawiązanie strategicznych partnerstw, takich jak współpraca OpenAI i Financial Times, które mogłyby przyczynić się do poszerzenia zasięgu i wzmocnienia marki. Tylko innowacyjne podejście i otwartość na sugestie użytkowników pomogą utrzymać relevancję na szybko zmieniającym się rynku. W przeciwnym razie, OpenAI może stracić zaufanie i lojalność kluczowych grup odbiorców.

Presja użytkowników okazała się skuteczna

Według informacji cytowanych przez The Wall Street Journal system znakowania wodnego OpenAI miał być aż w 99,9% skuteczny i odporny na proste parafrazy. Jednak OpenAI ujawniło, że bardziej wyrafinowane metody manipulacji, takie jak użycie innego modelu A.I. do przepisania tekstu własnymi słowami, mogą łatwo obejść tę ochronę. Programiści z OpenAI proponowali szereg metod znakowania wodnego, ale bardziej zaawansowane były krytykowane ze względu na utrudnienia techniczne, wyższy koszt realizacji oraz potencjalne problemy z wykorzystywaniem tworzonych zasobów.

Decyzja OpenAI o wycofaniu się z oznaczania tekstowego związana jest z trudnością ze znalezieniem balansu pomiędzy przejrzystością całego systemu, skutecznością, a preferencjami użytkowników. Search Engine Journal, częściowo za The Wall Street Journal, wskazuje, że branża potrzebuje nowych sposobów radzenia sobie z problemem wiarygodności treści. Na razie odpowiedzialność za etyczne wykorzystanie sztucznej inteligencji spoczywa na użytkownikach. Ich preferencje z kolei są jasne: znakowanie utrudniłoby wykorzystywanie tworzonych zasobów.

DALL-E 3, C2PA i problemy ze znakowaniem treści

Na początku tego roku pojawiły się nowe informacje w sprawie znakowania zasobów graficznych tworzonych przy pomocy DALL-E 3. Rozwiązanie to było pokłosiem przystąpienia do C2PA (Koalicja ds. Pochodzenia i Autentyczności Treści), organu normalizacyjnego, który odpowiada za opracowanie specyfikacji technicznych dotyczących sprawdzania pochodzenia i uwierzytelniania treści. Warto przypomnieć nawiasem, że w skład grupy C2PA wchodzą między innymi Adobe i Microsoft, który jest blisko związany z Fundacją OpenAI. Identyfikacja treści generowanych przez sztuczną inteligencję jest także jedną z głównych dyrektyw najnowszego rozporządzenia wykonawczego prezydenta Joe Bidena dotyczącego A.I. Wprowadzenie systemu znakowania ma na celu zwiększenie transparentności i odpowiedzialności w zakresie wykorzystania technologii generatywnej. Dzięki temu użytkownicy będą mogli łatwiej odróżnić oryginalne dzieła od tych stworzonych przez algorytmy. To z kolei wpłynie na wprowadzenie najlepsze funkcje strony głównej, umożliwiając skuteczniejsze zarządzanie treściami generowanymi przez sztuczną inteligencję.

Znaki wodne zgodne z dyrektywą C2PA mają pojawiać się w generowanych przez DALL-E zasobach zarówno w API, jak i ChatGPT w wersji płatnej. System znakowania ma składać się z niewidocznego dla użytkownika znaku wodnego, ukrytego komponentu metadanych oraz widocznego symbolu CR w lewym górnym rogu obrazu.

Znakowanie materiałów graficznych powstałych przy pomocy sztucznej inteligencji ma sprzyjać identyfikacji treści i budowaniu zaufania między twórcami, serwisami a użytkownikami. Ci ostatni zresztą mogą samodzielnie sprawdzać pochodzenie dowolnego obrazu generowanego przez platformy OpenAI za pośrednictwem stron internetowych takich jak Content Credentials Verify. Jak dotąd tylko obrazy statyczne, a nie filmy czy tekst, mogą być opatrzone znakiem wodnym.

OpenAI twierdzi, że dodanie metadanych znaku wodnego do obrazów ma „nieznaczny wpływ na opóźnienie w generowaniu zasobów i nie wpłynie na jakość obrazów”. Na stronie OpenAI można przeczytać, że “przyjęcie tych metod [znakowania obrazów – red.] i zachęcanie użytkowników do rozpoznawania tych sygnałów ma kluczowe znaczenie dla zwiększenia wiarygodności treści cyfrowych”.

Strona główna OpenAI Dall-E 3 na ekranie smartfona
Pierwsze systemy identyfikacji treści OpenAI wprowadziło w 2024 r. w DALL-E 3. Rozwój technologii będzie opierał się na użyciu metadanych.

Zabezpieczanie i identyfikowanie treści A.I. palącym problemem

Zabezpieczanie i identyfikowanie treści generowanej przez sztuczną inteligencję jest coraz bardziej palącym problemem. Algorytmy sztucznej inteligencji nie tylko już generują treści i tworzą obrazy, ale odpowiadają za coraz bardziej wymagające czynności. To między innymi tworzenie materiałów marketingowych, strategii biznesowych, analiz rynkowych, draftów i nie tylko. Nic więc dziwnego, że temat oznaczania treści powstałych przy użyciu A.I. wraca jak bumerang co kilka miesięcy.

Zwolennicy wprowadzenia rygorystycznych zabezpieczeń podnoszą argumenty dotyczące bezpieczeństwa, etyki i transparentności. W tej chwili internet cierpi na powtarzalność i zalew stron spamerskich. W przeciągu kilku lat możemy zmagać się z deficytem kreatywności, bo gdy nikt nie będzie tworzył samodzielnie, różnice między zasobami będą marginalizowane i wszystko stanie się bardziej powtarzalne. Ostatecznie zabezpieczanie treści A.I. ma ogromne znaczenie w kontekście wykorzystywania takich narzędzi do tworzenia i rozpowszechniania dezinformacji, propagandy i fałszywych informacji.

Sprawa nie jest jednak tak jednoznaczna, jak można byłoby Wprowadzenie mechanizmów identyfikujących treści generowane przez sztuczną inteligencję może prowadzić do naruszeń związanych z prywatnością i wolnością słowa. Obawy dotyczą przede wszystkim ewentualnego nadużywania technologii identyfikacji do cenzurowania treści użytkowników. Obawy te nie są nieuzasadnione, a przykłady historyczne dowodzą, że często tego typu regulacje prowadzą do niezamierzonych konsekwencji.

OpenAI rezygnuje ze znaków wodnych ChatGPT – podsumowanie

OpenAI zdaje sobie sprawę z ryzyka, jakie niesie ze sobą decyzja o oznaczeniu treści generowanych przez ChatGPT za pomocą znaków wodnych. Najnowsze badania wskazują, że większość użytkowników ograniczyłaby korzystanie z narzędzia, jeżeli tego typu restrykcje zostałyby wprowadzone. O ile użytkownik prywatny, który np. szuka informacji o pogodzie czy przepisu na ciasto, nie przejmuje się zanadto takimi rozwiązaniami, o tyle z narzędzi OpenAI korzystają miliony firm z całego świata. ChatGPT pomaga w programowaniu, pisaniu, analityce danych i zarządzaniu.

Rezygnacja ze znaków wodnych nie oznacza wycofania się z pomysłu wprowadzenia identyfikacji treści. Prawdopodobnie następny system weryfikacji OpenAI będzie opierał się na zastosowaniu ukrytych metadanych. Celem OpenAI jest stworzenie takiego systemu, który będzie umożliwiał weryfikowaniu autorstwa i ograniczał ryzyko nadużyć wykorzystania generowanej treści. Z drugiej strony ważne jest to, aby dla użytkowników wprowadzenie metod weryfikacji nie stanowiło ograniczenia, które przełożyłoby się na mniejsze zainteresowanie ChatGPT.

Napisz komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *