DeepSeek – chińska AI podbija świat

Jeszcze nigdy nie było tak gorąco w świecie AI, jak po premierze DeepSeek – pierwszego, zaawansowanego modelu AI stworzonego przez Chiny. Powodem do światowych niepokojów nie są jednak fenomenalne umiejętności DeepSeek, bo w testach porównawczych chiński model R1 jest nieco gorszy od ChatGPT o1. Napięcie wywołane jest postępującym rozwojem Chin, które pokazały, że potrafią robić AI tak prawie tak wydajne, jak Amerykanie, ale jednocześnie znacznie tańsze pod względem wykorzystywanych zasobów. Sprawdziliśmy w Funkymedia, na ile DeepSeek jest podobny do innych głównych modeli AI, jak Perplexity, Claude czy ChatGPT i na ile może zagrozić ich pozycji!

DeepSeek – sztuczna inteligencja z Państwa Środka

20 stycznia 2025 r. światło dzienne ujrzała nowa sztuczna inteligencja, DeepSeek. Do częstych premier kolejnych modeli zdążyliśmy się już przyzwyczaić. Tym razem jednak premiera nabrała od razu światowego rozgłosu, a to wszystko przez fakt, że DeepSeek stworzony jest chińską firmę o tej samej nazwie, która została założona… w maju 2023 roku.

Nowy chatbot stworzony przez chińską firmę DeepSeek wzbudził ogromne zainteresowanie w świecie sztucznej inteligencji i wywołał poruszenie na amerykańskiej giełdzie. Tydzień po premierze, 27 stycznia, chińska AI pobiła rekord najczęściej pobieranej aplikacji w historii, wyprzedzając tym samym rekordowe wyniki aplikacji OpenAI. Przypomnijmy, że jest to model open source i każdy może go uruchomić niezależnie.

Sztuczna inteligencja z Państwa Środka prędko znalazła się w tytułach branżowej i mainstreamowej prasy, i na ustach najważniejszych osób ze świata IT. Do globalnego i natychmiastowego sukcesu DeepSeek odniósł się także świeżo zaprzysiężony prezydent Stanów Zjednoczonych, Donald Trump. Wszystko wskazuje na to, że pojawienie się na rynku DeepSeek zmieni wiele nie tylko na płaszczyźnie konsumenckiej, ale przede wszystkim w obszarze rywalizacji technologicznej. Do wyścigu zbrojeń, jaki toczy się na rynku AI od 2022 r., właśnie dołączyły Chiny – i to w sposób, którego mogą pozazdrościć zachodnie koncerny.

Parametry techniczne DeepSeek R1

Zanim przejdziemy do analizy specyfikacji technicznej warto wspomnieć słowo o nazewnictwie. O ile aplikacja i sztuczna inteligencja sama w sobie nazywa się DeepSeek, tak jak firmy, która ją stworzyła, o tyle najnowszy obsługiwane przez nie model językowy to R1. Analogicznie w przypadku ChatGPT od OpenAI najnowszym modelem jest o1. W praktyce mówimy więc o DeepSeek R1.

Patrząc na parametry techniczne DeepSeek R1, aż pragnie się zapytać: jak to możliwe, że od podstaw Chińczycy zbudowali taki model w niespełna 2 lata? Model korzysta z architektury Mixture-of-Experts (MoE), używa 671 miliardów parametrów (przy czym aktywuje 37 miliardów na zapytanie, optymalizując wydajność obliczeniową). Wyposażony jest w komponent wzmacniania rozumowania – Post-Training Reinforcement Learning (RL), który odpowiada za umiejętność “myślenia łańcuchowego”. To kluczowa zdolność AI, które w największym stopniu ma przybliżać nas do docelowego poziomu AGI (Artificial General Intelligence) – ogólnej sztucznej inteligencji, która będzie miała zdolności na poziomie człowieka.

CechyDeepSeekChatGPT
Architektura modeluMixture-of-Experts (MoE) dla większej efektywnościModel oparty na Transformerze dla wszechstronności
Koszt treningu12 milionów dolarów500 milionów dolarów
WydajnośćOptymalizowany pod konkretne zadania, silna analiza logicznaWszechstronny i spójny w różnych dziedzinach
DostosowanieWysoka możliwość dostosowania do specyficznych zastosowańOgraniczone możliwości dostosowania w domyślnych ustawieniach
Kwestie etyczneWyraźne skupienie na eliminacji uprzedzeń, uczciwości i przejrzystościWymaga ręcznej implementacji mechanizmów kontroli uczciwości
Zastosowanie w praktyceIdealny do rozwiązywania problemów technicznych i zadań domenowychŚwietny do ogólnej wiedzy i zadań kreatywnych
SzybkośćSzybszy dzięki zoptymalizowanemu wykorzystaniu zasobówŚrednia prędkość, zależna od wielkości zadania
Generowanie języka naturalnegoKontekstowe, uporządkowane i dostosowane do zadaniaKonwersacyjne i przyjazne dla użytkownika
SkalowalnośćWysoce skalowalny przy efektywnym wykorzystaniu zasobówSkalowalny, ale wymagający dużej ilości zasobów
Łatwość integracjiElastyczny w rozwiązaniach dla przedsiębiorstwProsty w zastosowaniach ogólnych

Parametry techniczne DeepSeek R1

Pod względem możliwości technicznych można być pod wrażeniem. Model ten nie tylko dorównuje rozwiązaniom czołowych gigantów AI, takich jak OpenAI czy Anthropic (twórcy Claude), ale osiągnął ten poziom przy znacznie mniejszych zasobach obliczeniowych i finansowych. DeepSeek R1 został pochwalony przez badaczy za zdolność do radzenia sobie ze złożonymi zadaniami rozumowania, szczególnie w matematyce i kodowaniu. Model wykorzystuje podejście „łańcucha myśli” – podobne do tego, które jest stosowane przez ChatGPT o1, co pozwala rozwiązywać problemy poprzez przetwarzanie zapytań krok po kroku.

Testując ten model, możemy zauważyć, że skutecznie rozwiązuje on złożone problemy matematyczne, fizyczne oraz logiczne niemal dwukrotnie szybciej niż ChatGPT od OpenAI. W przypadku pytań dotyczących programowania – takich, z jakimi można się spotkać podczas technicznej rozmowy kwalifikacyjnej – DeepSeek dostarcza odpowiedzi równie szczegółowe i precyzyjne jak konkurenci, ale z zauważalnie większą szybkością. W testach wymagających dostępu do informacji z internetu, np. przy generowaniu biografii, DeepSeek wykazywał mniejszą skłonność do halucynacji niż ChatGPT.

MetrykaDeepSeek R1ChatGPT
Matematyka90% dokładności (przewyższa GPT-4o)83% dokładności w zaawansowanych testach
Programowanie97% skuteczności w zagadkach logicznychNajwyższy poziom debugowania (89. percentyl na Codeforces)
RozumowanieWyjaśnienia krok po kroku oparte na RLLepsze rozwiązywanie problemów wieloetapowych
Zadania multimodalneSkupienie tylko na tekścieObsługa tekstu i obrazów
Okno kontekstowe128K tokenów200K tokenów

W nieco bardziej szczegółowych testach widoczne są jednak opóźnienia, zwiększa się też częstotliwość błędów w porównaniu do ChatGPT-o1. Znacznie gorzej radzi sobie też z mniej popularnymi językami, takimi jak polski. W ujęciu porównawczym najgorzej DeepSeek radzi sobie z zadaniami kreatywnymi, pisaniem wierszy, układaniem kompozycji muzycznych, planowaniem podróży itd. Wyniki pod tym względem pozostawiają DeepSeek w znacznej odległości od głównych rywali w tym obszarze: ChatGPT i ClaudeAI.

DeepSeek, Ernie Bot i ChatGPT, różne aplikacje AI
W testach wydajności DeepSeek prawie dorównuje ChatGPT.

Porównanie potencjałów – DeepSeek nieco mniej wydajny od ChatGPT, ale wciąż imponujący

Ze względu na ogólnoświatowy hype znaleźć można już dziesiątki profesjonalnych testów praktycznych, które pokazują, jak radzi sobie chińska sztuczna inteligencja w porównaniu z najlepszymi, zachodnimi modelami. Ze względu na charakter open source chińskiego projektu, każdy jest w stanie przeprowadzić amatorski test porównawczy we własnym zakresie.

Jednym z najpopularniejszych rodzajów zadań zlecanych AI jest generowanie treści. Użytkownicy z całego świata wspomagają się sztuczną inteligencją do tworzenia treści na strony internetowe, generowania opisów produktów, rozwiązywania zadań do szkoły i na studia, czy nawet tworzenia menu restauracji.  Aby przetestować zdolności modeli w tym zakresie, można poprosić DeepSeek i ChatGPT o stworzenie konspektu dla przykładowego artykułu pt. „Czym jest LLM i jak działa?”. Pełna treść wprowadzonego promptu brzmiała:

„Piszę szczegółowy artykuł na temat 'Czym jest LLM i jak działa?’. Podaj najważniejsze punkty, które powinienem uwzględnić, aby użytkownicy lepiej zrozumieli modele LLM. Pomóż mi opracować konspekt”.

Wyniki DeepSeek były imponujące. Choć obydwa modele uwzględniły najważniejsze aspekty, R1 wykazał się bardziej uporządkowanym podejściem do tematu. Struktura odpowiedzi była zgodna z intuicyjnym sposobem prezentacji treści, uwzględniając m.in.:

  • definicję LLM,
  • ewolucję LLM i kluczowe kamienie milowe,
  • przykłady różnych modeli LLM (GPT, BERT itd.),
  • Porównanie LLM z tradycyjnym NLP.

Odpowiedź ChatGPT była bardziej strukturalna. Zaproponowany konspekt wygląda następująco:

  1. Wprowadzenie
    • Krótkie wyjaśnienie, czym jest LLM (Large Language Model).
    • Omówienie rosnącego znaczenia modeli LLM w różnych dziedzinach, np. tworzenie treści, obsługa klienta, wsparcie techniczne.
  2. Zrozumienie LLM
    • Definicja LLM i jego podstawowa funkcja.
    • Jak LLM są projektowane do rozumienia i generowania tekstu podobnego do ludzkiego.

W ujęciu porównawczym widać, że ChatGPT zaprezentował odpowiedź lepiej skonstruowaną językowo i bardziej atrakcyjną od strony stylistycznej. Ostatnie punkty, nieco bardziej szczegółowe, kompletnie jednak umknęły chatbotowi od OpenAI. Co więcej, DeepSeek zdradził swój tok rozumowania, prezentując logiczne kroki, które doprowadziły do ułożenia konspektu, co wynika z bardziej otwartej konstrukcji modelu, umożliwiającej weryfikację poszczególnych kroków wykonywanych przez AI.

Obydwa modele są w stanie dostarczać wartościowe wyniki i realizować zadania z podobną dokładnością oraz starannością. DeepSeek wyróżnia się na tym polu nieco bardziej analitycznym podejściem. Nie znaczy to jednak, że jest lepszy w zadaniach matematycznych, bo według benchmarków R1 i o1 są porównywalne, ale z jasnym wskazaniem na ChatGPT. Pomimo problemów językowych wydaje się, że DeepSeek może wstępnie nieco lepiej rozumieć intencje użytkownika. Brakuje mu jednak składni oraz kreatywności, którą charakteryzują się modele o1.

Wyniki tego prostego testu pokrywają się z dostępnymi analizami i benchmarkami. W zakresie wydajności i zdolności do wykonywania zaawansowanych zadań obliczeniowych ChatGPT wygrywa z chińskim modelem. Te różnice nie są jednak tak duże, co daje do myślenia, biorąc pod uwagę fakt, że nad DeepSeek Chińczycy pracowali znacznie krócej, niż OpenAI, ze wsparciem Microsoftu, nad ChatGPT.

Logo firmy Nvidia na ekranie smartfona na rozmytym tle wykresu giełdowego
Wyprzedaż na akcjach Nvidia jest bezpośrednią reakcją rynku na tańszy od ChatGPT model DeepSeek R1.

Panika wśród inwestorów Nvidii

Od momentu pojawienia się chińskiego chatbota AI w przestrzeni medialnej zalewani jesteśmy nagłówkami wróżącymi rychły koniec spółek technologicznych odpowiadających za hardware używany do trenowania AI. Jest ku temu dobry powód: po premierze DeepSeek akcje Nvidii zanurkowały. Dotychczas najwyżej wyceniana spółka świata (w kategoriach wartości kapitalizacji rynkowej) od 23 do 28 stycznia odnotowała prawie 17% spadek ceny za akcję. W przeciągu niespełna tygodnia poziom kapitalizacji rynkowej zmniejszył się o przeszło 0,5 mld dolarów.

Przyczyną gigantycznych spadków Nvidii w ostatnich dniach jest właśnie DeepSeek. Nvidia jest światowym liderem, jeśli chodzi o infrastrukturę sprzętową do szkolenia modeli AI. Okazuje się jednak, że o ile chiński model był co prawda szkolony na kartach GPU Nvidia H200/H800, o tyle znaczny udział w całym procesie odnotowały też karty innego chińskiego producenta, Huawei. Drugim, jeszcze ważniejszym argumentem skłaniającym rynek do przeceny jest fakt, że Chińczycy dokonali ekonomicznego cudu. I to właśnie ten aspekt, nie wydajność mierzona benchmarkami, jest główną przyczyną tego, że cały świat obecnie mówi jedynie o DeepSeek. Szkolenie chińskiej AI trwało jedynie 55 dni, a łączny koszt wyniósł tylko 5,5 mln dolarów. Dla porównania: szkolenie ChatGPT-o1 było kilka razy dłuższe i wygenerowało ponad 10 razy wyższe koszty.

Chociaż rola Nvidii jest wciąż niezastąpiona i obecne spadki są raczej jedynie chwilową korektą trendu, to faktem jest to, że Chińczycy położyli kamień milowy, jeśli chodzi o ekonomię procesu treningowego. Wynika to zresztą z konieczności dostosowania swojego procesu do dostępnej infrastruktury. Chipsety Nvidii, które trafiają na chiński rynek, mają ograniczoną przepustowość – nie są to te same modele pod względem specyfikacji technicznej, z których korzysta chociażby OpenAI.

Nie tylko DeepSeek AI – Chińczycy rosną w siłę

Sukces DeepSeek nie jest wyjątkiem, lecz wpisuje się w ciąg ostatnich osiągnięć technologicznych Chin w dziedzinie IT. Widać też, że kształtuje się pewien trend: chińskie firmy coraz częściej przyjmują zasady open source. W ciągu ostatniego roku Alibaba Cloud wydała ponad 100 nowych modeli AI typu open source, obsługujących 29 języków i obsługujących różne aplikacje, w tym kodowanie i matematykę. Podobnie startupy takie jak Minimax i 01.AI udostępniły swoje modele jako open source.

Według białej księgi opublikowanej w zeszłym roku przez państwowy instytut badawczy ChRL, China Academy of Information and Communications Technology, liczba dużych modeli językowych AI (LLM) na świecie osiągnęła 1328. 36% z nich pochodzi z Chin. Chiny są na drugim miejscu pod względem wielkości udziału w rozwoju AI – tuż po Stanach Zjednoczonych. Jak podkreśla w jednym z wywiadów Matt Sheehan, badacz AI w Carnegie Endowment for International Peace, kluczowym czynnikiem okazały się restrykcje i regulacje eksportu. Chińczycy musieli znaleźć sposób na optymalizację kosztów i rozwój wydajności modeli AI przy bardzo ograniczonych zasobach mocy obliczeniowej. DeepSeek udowadnia, że to się powiodło.

DeepSeek cenzuruje informacje o Chinach, ale można tego uniknąć

Jednym z aspektów związanych z chińską AI, który przenika przez nagłówki prasowe, jest kwestia autocenzury. DeepSeek ma wbudowane solidne ograniczenia treści, które uniemożliwiają publikowanie jakichkolwiek informacji, które w złym świetle przedstawiałyby Chiny. Cenzura treści dotyczy wydarzeń politycznych, oceny Chin i tuszowania niewygodnych faktów.

Najgłośniejszym przykładem jest test polegający na zapytaniu chatbota o przebieg i znaczenie wydarzeń, które miały miejsce w 1989 r. na placu Tiananmen. Chatbot zdaje się mieć dwie ścieżki behawioralne. Pierwsza to brak odpowiedzi: „Porozmawiajmy o czymś innym” – usłyszymy od DeepSeek. Drugi wariant reakcji obejmuje publikowanie informacji, które nie różnią się de facto od tych, które ujrzelibyśmy w ChatGPT czy Perplexity – moduł informuje o szczegółach masakry, podaje jej polityczno-społeczny kontekst bez cenzurowania. Gdy tylko jednak model przestanie generować odpowiedź i postawi ostatnią “kropkę”, cały tekst znika. W jego miejscu pojawia się informacja, że nie może o tym rozmawiać.

Czat aplikacji DeepSeek AI widoczny na smartfonie i rozmyta chińska flaga w tle
Uruchamiając DeepSeek w trybie open source, np. przy użyciu Perplexity, można pominąć mechanizmy cenzury treści wbudowane w aplikację mobilną.

Warto jednak zwrócić uwagę na to, że ograniczenia związane z cenzurą informacji mają miejsce tylko w przypadku wersji bezpośrednio uzależnionej od pracy na chińskich serwerach. Oznacza to, że korzystając z oficjalnej aplikacji na telefon nie będziemy mogli uzyskać wrażliwych dla Chin informacji. Jednak, jak wspomnieliśmy, DeepSeek to model open source. Jeśli więc uruchomimy go w neutralnym środowisku lub skorzystamy z takich rozwiązań, jak np. Perplexity z silnikiem R1, problem cenzury znika. Widać więc, że ograniczenia pod względem technicznym nie są wbudowane bezpośrednio w model, ale wynikają z kontroli następczej poprzez mechanizmy filtrujące po stronie chińskich serwerów. To bardzo dobra wiadomość dla każdego, kto chce przetestować DeepSeeka, ale nie być narażonym na weryfikację każdego napisanego przez siebie promptu!

DeepSeek, czyli żółte światło dla zachodnich AI. Podsumowanie

Sukces DeepSeek to sygnał ostrzegawczy dla zachodnich gigantów technologicznych. Fakt, że chiński model został stworzony w rekordowym czasie i przy znacznie niższych kosztach niż konkurencyjne rozwiązania, podważa dotychczasowe przekonania o konieczności gigantycznych inwestycji w rozwój AI. Jeżeli zupełnie porównywalny wydajnościowo model powstaje przy użyciu gorszej infrastruktury, niższych zasobach mocy obliczeniowej i 10 raz niższym koszcie, to coś jest na rzeczy.

O ile ChatGPT nadal wygrywa pod względem wydajności i uniwersalności, to ekonomiczna efektywność DeepSeek sprawia, że chińska sztuczna inteligencja staje się realnym zagrożeniem dla amerykańskich i europejskich firm działających w tym sektorze. Dodatkowym “problemem” dla dotychczasowych głównych graczy w branży jest fakt, że DeepSeek jest modelem w pełni otwartoźródłowym (i w takiej formie warto z niego korzystać, aby uniknąć cenzury charakterystycznej dla aplikacji na smartfona). Debiut DeepSeek oznacza nową fazę w globalnym wyścigu technologicznym. Chiny nie tylko udowodniły, że są w stanie konkurować z zachodnimi liderami, ale także zaproponowały alternatywny model rozwoju AI – tańszy, szybszy i oparty na własnej infrastrukturze. Co z tego, że trochę wynika to z ograniczonego dostępu do zachodniej infrastruktury, będących wynikiem restrykcji eksportu z USA, a trochę z kradzieży wartości intelektualnych. Stan końcowy jest taki, jak widać: DeepSeek jest prawie tak dobry, jak ChatGPT, ale znacznie tańszy. 

Napisz komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *