Czym jest OpenELM i dlaczego Apple rozwija A.I. inaczej niż firmy stawiające głównie na bardzo duże modele chmurowe i chatboty ogólnego przeznaczenia?
OpenELM to rodzina otwartych, wydajnych modeli językowych Apple, zaprojektowanych z myślą o wysokiej efektywności i przejrzystości badań. Kierunek Apple jest wyraźnie inny niż u części konkurencji: firma mocniej stawia na małe lub średnie modele, działanie on-device, prywatność i ściśle zintegrowane funkcje systemowe, a nie wyłącznie na wielkie chatboty działające w chmurze.

1. Czym jest OpenELM?
OpenELM to rodzina Open Efficient Language Models opracowana przez Apple i opisana w pracy badawczej zaakceptowanej na warsztacie Efficient Systems for Foundation Models podczas ICML 2024.
2. Czy OpenELM jest open source?
Tak. Apple opublikowało OpenELM jako otwarty projekt badawczy, udostępniając modele oraz materiały związane z treningiem i inferencją.
3. Jakie rozmiary modeli OpenELM udostępniło Apple?
Apple udostępniło wersje pretrained i instruction tuned o wielkościach 270M, 450M, 1.1B oraz 3B parametrów.
4. Co wyróżnia OpenELM technicznie?
Apple podkreśla warstwowe skalowanie parametrów, czyli takie rozdzielanie pojemności modelu między warstwy, które ma poprawiać efektywność i jakość względem bardziej jednolitych konstrukcji.
5. Czy OpenELM to fundament Apple Intelligence?
Nie wprost. OpenELM było ważnym sygnałem kierunku badań Apple, ale w 2025 Apple opisało Apple Intelligence jako oparte na osobnym około 3-miliardowym modelu on-device oraz skalowalnym modelu serwerowym dla Private Cloud Compute.
6. Dlaczego mówi się, że Apple idzie w innym kierunku?
Bo Apple nie pozycjonuje swoich modeli przede wszystkim jako ogólnych chatbotów wiedzy światowej. Firma akcentuje raczej użyteczność systemową, prywatność, integrację z urządzeniem i zadania praktyczne, takie jak streszczanie, rozumienie tekstu czy krótkie dialogi.
7. Czy Apple stawia głównie na A.I. działającą na urządzeniu?
Tak. Apple Intelligence jest projektowane przede wszystkim wokół przetwarzania on-device, a dopiero trudniejsze zadania mogą być kierowane do Private Cloud Compute.
8. Czym jest Private Cloud Compute?
To system chmurowy Apple stworzony dla bardziej złożonego przetwarzania A.I., zaprojektowany tak, aby rozszerzać prywatność urządzenia na zadania wykonywane po stronie serwera.
9. Czy Apple rozwija też większe modele serwerowe?
Tak. W technicznym raporcie z 2025 Apple opisało skalowalny model serwerowy oparty na architekturze Parallel-Track Mixture-of-Experts dla platformy Private Cloud Compute.
10. Czy OpenELM jest nastawiony na wydajność bardziej niż na gigantyczną skalę?
Tak. Już sama nazwa Open Efficient Language Models i opis projektu wskazują, że Apple skupia się na efektywności, reprodukowalności i rozsądnym wykorzystaniu parametrów, a nie wyłącznie na jak największym rozmiarze modelu.
11. Czy Apple chce konkurować z klasycznymi chatbotami?
Po części tak, ale nie tylko. Apple w materiałach o Foundation Models zaznacza, że jego około 3B model on-device nie jest projektowany jako chatbot do ogólnej wiedzy o świecie, lecz jako model do konkretnych funkcji systemowych i aplikacyjnych.
12. Czy deweloperzy mogą korzystać z modeli Apple?
Tak. Apple ogłosiło Foundation Models framework, który daje deweloperom dostęp do modelu on-device Apple Intelligence do budowy funkcji generatywnych w aplikacjach.
13. Czy OpenELM pokazuje bardziej badawczy niż produktowy kierunek Apple?
Tak, można tak to odczytać. OpenELM było mocnym ruchem w stronę otwartej nauki i transparentności, podczas gdy późniejsze Apple Intelligence pokazuje, jak Apple przekłada te badania na bardziej zamknięty, produktowy ekosystem urządzeń. To jest wniosek z zestawienia obu oficjalnych linii komunikacji Apple.
14. Czy Apple rozwija multimodalne foundation models?
Tak. Raport Apple z 2025 mówi wprost o dwóch wielojęzycznych, multimodalnych foundation language models napędzających Apple Intelligence.
15. Czy prywatność jest centralnym elementem strategii Apple w A.I.?
Tak. Apple bardzo mocno eksponuje prywatność zarówno w komunikacji o Apple Intelligence, jak i w opisach działania Private Cloud Compute.
16. Czy OpenELM było dużym modelem jak największe systemy konkurencji?
Nie. Największa publicznie udostępniona wersja OpenELM miała 3 miliardy parametrów, co jest znacznie mniejszą skalą niż największe komercyjne frontier models konkurencji.
17. Czy to oznacza, że Apple rezygnuje z wyścigu na skalę?
Nie całkowicie. Apple rozwija również większe modele serwerowe, ale ich strategia wygląda na bardziej zrównoważoną: mały lub średni model na urządzeniu, większy model w prywatnej chmurze i silna integracja z systemem. To jest wniosek z oficjalnych materiałów Apple.
18. Czy OpenELM ma znaczenie dla rynku open source A.I.?
Tak. Apple dołączyło dzięki niemu do grona firm, które nie tylko publikują badania, ale też realnie udostępniają modele i framework do dalszej analizy przez społeczność.
19. Czy OpenELM było sygnałem, że Apple chce budować własny ekosystem A.I.?
Tak. Udostępnienie OpenELM, a później rozwój Apple Intelligence i Foundation Models framework pokazują spójną linię: Apple chce mieć własne modele, własny stos prywatności i własne środowisko dla deweloperów.
20. Jaki jest najważniejszy wniosek?
Najważniejsze jest to, że Apple nie rozwija A.I. głównie jako samodzielnego czatbota w chmurze, lecz jako warstwę inteligencji wbudowanej w urządzenia, system operacyjny i aplikacje. OpenELM dobrze zapowiadał ten kierunek, a Apple Intelligence i Private Cloud Compute go potwierdziły. Taka strategia umożliwia Apple tworzenie bardziej spersonalizowanych doświadczeń użytkowników, co przekłada się na lepszą interakcję z produktami. W kontekście przyszłości technologii, inteligentne zakupy w a.i. staną się nowym standardem, ułatwiając codzienne decyzje zakupowe oraz dostosowując oferty do indywidualnych potrzeb klientów. W ten sposób Apple nie tylko zwiększa swoją konkurencyjność, ale i redefiniuje sposób, w jaki postrzegamy zakupy w erze cyfrowej.
Najważniejsze dane związane z OpenELM i kierunkiem Apple w A.I.
- OpenELM zostało opisane w pracy zaakceptowanej na warsztacie ICML w 2024 roku.
- Apple udostępniło modele OpenELM w czterech rozmiarach: 270M, 450M, 1.1B i 3B parametrów.
- W 2025 Apple opisało on-device foundation model Apple Intelligence jako model o wielkości około 3B parametrów.
- Apple Intelligence zostało rozszerzone w czerwcu 2025 roku na kolejne urządzenia i funkcje, a deweloperzy dostali dostęp do modelu on-device przez Foundation Models framework.
- Private Cloud Compute Apple ogłosiło 10 czerwca 2024 roku jako nowy system prywatnego przetwarzania A.I. w chmurze.
- W raporcie technicznym z 2025 Apple opisało dwa główne foundation models dla Apple Intelligence: model on-device oraz skalowalny model serwerowy oparty na PT-MoE.
Praktyczne zastosowanie
OpenELM i cały kierunek Apple mają duże znaczenie praktyczne, bo pokazują alternatywę wobec modelu wszystko do chmury. W podejściu Apple inteligencja ma działać blisko użytkownika, na jego urządzeniu, szybciej, prywatniej i bardziej kontekstowo. To szczególnie ważne dla firm budujących aplikacje mobilne, narzędzia produktywności, asystentów systemowych i funkcje wymagające przetwarzania danych osobistych bez szerokiego ich wysyłania poza urządzenie.
Dla rynku oznacza to też zmianę myślenia o A.I. Nie zawsze trzeba budować największy możliwy model i udostępniać go jako ogólny chatbot. Apple pokazuje, że można postawić na mniejsze, bardziej wyspecjalizowane modele, silną optymalizację pod sprzęt i bardzo głęboką integrację z systemem operacyjnym.
Z perspektywy deweloperów ten kierunek jest ważny jeszcze z jednego powodu: Apple otwiera dostęp do własnych foundation models na poziomie frameworka, co pozwala budować funkcje generatywne bez konieczności każdorazowego polegania na zewnętrznym API dużego dostawcy chmurowego.
Przykłady zastosowań
1. Inteligentne funkcje w aplikacjach mobilnych
Deweloper może użyć modelu on-device Apple do streszczania tekstu, wyodrębniania informacji, redagowania treści czy krótkich interakcji bez pełnego uzależnienia od zewnętrznej chmury. Model on-device pozwala na szybsze przetwarzanie danych oraz większą prywatność użytkowników, eliminując potrzebę przesyłania danych do chmury. W kontekście podobnych narzędzi, warto zastanowić się, ’microsoft copilot co to jest’ i jak może przyczynić się do usprawnienia pracy w biurze dzięki zautomatyzowanej pomocy przy codziennych zadaniach. Integracja takich technologii staje się kluczowym elementem w tworzeniu efektywnych środowisk roboczych.
2. A.I. z naciskiem na prywatność
Aplikacje pracujące na wrażliwych danych użytkownika mogą korzystać z przetwarzania lokalnego, a w trudniejszych zadaniach z Private Cloud Compute, który Apple przedstawia jako rozszerzenie prywatności urządzenia.
3. Badania nad wydajnymi małymi modelami
OpenELM może służyć zespołom badawczym jako punkt odniesienia dla eksperymentów z efektywnymi modelami językowymi, które nie wymagają skali największych frontier models.
4. Integracja A.I. z Apple Silicon
Firmy budujące rozwiązania na iPhone, iPad i Mac mogą projektować funkcje A.I. z myślą o lokalnym wykonaniu, niższym opóźnieniu i lepszej integracji z urządzeniem.
5. Alternatywa wobec modelu chatbot-first
Zamiast tworzyć klasycznego czatbota ogólnego przeznaczenia, firma może wzorować się na Apple i budować A.I. jako dyskretną warstwę funkcjonalną w produkcie: do edycji, pomocy kontekstowej, automatyzacji i rozumienia treści.
6. Łączenie modeli lokalnych i chmurowych
Strategia hybrydowa Apple pokazuje, że część zadań może być wykonywana na urządzeniu, a bardziej złożone trafiać do bezpiecznej infrastruktury serwerowej. To praktyczny wzór dla firm szukających kompromisu między wydajnością, kosztem i prywatnością.
7. Budowanie własnego ekosystemu A.I.
OpenELM jest też przykładem, że rozwój A.I. nie musi ograniczać się do korzystania z cudzych modeli przez API. Można równolegle inwestować w badania, własne modele, integrację sprzętową i środowisko deweloperskie. Takie podejście nie tylko pozwala na większą niezależność technologiczną, ale także otwiera drzwi do innowacji i personalizacji rozwiązań dostosowanych do konkretnych potrzeb. W miarę jak rośnie konkurencja na rynku A.I., inwestycje w własne modele mogą zminimalizować rosnące ryzyko dla OpenAI oraz innych firm, które polegają wyłącznie na zewnętrznych API. Niezależność w badaniach i rozwoju staje się kluczowym czynnikiem w dążeniu do utrzymania przewagi konkurencyjnej.
Apple nie wystartowało w wyścigu technologicznym w zakresie A.I. z najlepszego miejsca. Nie znaczy to jednak, że się poddało. Rywalizację traktuje bardziej jako maraton, niż sprint, w którym nie planuje wybić się na lidera innowacji, ale odpowiedzialnego partnera. W kwietniu Apple zademestrowało najnowszy model językowy o otwartym kodzie źródłowym: OpenELM. Od tego czasu podpisano porozumienie o współpracy z OpenAI, twórcami ChatGPT i wprowadzono kolejne modyfikacje. Najciekawsze jest jednak to, że również w dziedzinie sztucznej inteligencji Apple chce iść nieco pod prąd. Zobacz, na czym polega najnowsza technologia A.I. od Apple i czym wyróżnia się od ofert konkurencji!
Apple OpenELM – pierwszy moduł sztucznej inteligencji Apple
OpenELM został zaprezentowany w kwietniu 2024 r. jako niezależny, nowy model językowy, który ma być zgodny z koncepcją demokratyzacji sztucznej inteligencji. To jedna idei, która – przynajmniej w oficjalnych komunikatach – przyświeca Apple w tworzeniu A.I. Nazwa, składająca się z Open i skrótu od Efficient Language Models, sugeruje główne cechy nowego modelu firmy tworzonej przez Steve’a Jobsa. OpenELM ma być z jednej strony jak najbardziej wydajnym modelem, z drugiej zaś dwustronnie otwartoźródłowym – kod jest dostępny dla każdego, a Apple zapewnia, że do szkolenia modelu wykorzystywano tylko bazy open source. Cały kod można samodzielnie pobrać ze strony Hugging Face: https://huggingface.co/apple/OpenELM.
OpenELM nie jest jednym modelem językowym, ale tak naprawdę ośmioma, które składają się z różnej liczby parametrów. Najuboższy model obejmuje 270 milionów, a najbogatszy – 3 miliardy parametrów. Modele te można podzielić na dwie nadrzędne kategorie: cztery modele wstępnie wytrenowane oraz cztery modele instruktażowe, które zostały dostosowane do wykonywania konkretnych zadań.
Apple od zawsze była firmą, która pomimo mniej lub bardziej dosłownych fajerwerków w trakcie imprez technologicznych stroniła od publicity w zakresie nowych technologie. W cyklu rozwojowym produktów Apple pierwsze lata zawsze są ściśle strzeżoną tajemnicą. W tym kontekście nie powinno nikogo dziwić, że o postępach w zakresie tworzenia A.I. przez Apple świat dowiedział się dopiero w 2024 roku, czyli półtora roku po udostępnieniu ChatGPT od OpenAI. Jednak nie tylko pod tym względem Apple, również w dziedzinie A.I., po raz kolejny odstaje od swoich konkurentów.
Wizja Apple jak zwykle odmienna. Ochrona prywatności i lokalne modele A.I.
Decyzja Apple o udostępnieniu OpenELM jako modelu open source już teraz (czyli jak na standardy Apple – dość wcześnie) jest częścią szerszej strategii firmy. Jeśli chodzi o rozwój sztucznej inteligencji, strategia Apple zakłada nie tylko pracę nad własnymi technologiami, ale także tworzenie bazy do potencjalnej współpracy z innymi; implementacji zewnętrznych rozwiązań, takich jak Google Gemini czy OpenAI ChatGPT.
Różnic koncepcyjnych jest więcej. Apple ma inną wizję co do sposobu wykorzystania sztucznej inteligencji. Podczas gdy Google i OpenAI skupiają się głównie na rozwoju dużych modeli językowych działających w chmurze, z zewnętrznym przetwarzaniem danych, Apple wyraźnie koncentruje się na rozwoju modeli działających lokalnie na urządzeniach. Podejście to ma sprzyjać zachowaniu prywatności użytkowników oraz umożliwiać wygodniejszą integrację poszczególnych urządzeń z ekosystemem Apple.
Chociaż gigant stworzony przez Steve’a Jobsa również inwestuje duży kapitał w badania nad A.I. (ponad miliard dolarów w poprzednich latach) i dokonuje przejęć mniejszych firm, nie stara się o dominację na rynku. Celem Apple jest hybrydowe podejście, które będzie łączyć rozwój własnych modeli z potencjalną integracją zewnętrznych rozwiązań (np. od Google, OpenAI czy Microsoftu).
Architektura OpenELM i główne parametry techniczne
OpenELM wykorzystuje architekturą Transformer, którą dobrze znamy z innych modeli. Korzysta z niej między innymi ChatGPT, Microsoft Copilot czy Perplexity. Architektura ta została jednak zmodyfikowana przez inżynierów Apple Zastosowano strategię skalowania warstwowego pod kątem optymalizacji alokacji parametrów w poszczególnych warstwach modelu. Dzięki temu warstwy bliższe wejściu mają mniejsze wymiary, które ukryte są w mechanizmach atencji oraz sieciach feed-forward. To zupełnie odmienna strategia względem koncepcji OpenAI, których modele oparte są na jednolitej alokacji parametrów i w których każda warstwa ma jednolitą pojemność i rozmiar.
Architektura OpenELM została zoptymalizowana także pod kątem wydajności na urządzeniach mobilnych. W tym celu Apple zastosowano techniki kompresji modelu i kwantyzacji, które pozwalają na znaczne zmniejszenie rozmiaru modelu bez istotnej utraty jakości. Apple wyposażył swój model w szereg innowacyjnych funkcji, m.in.:
- Grouped Query Attention (GQA) – umożliwia efektywne przetwarzanie zapytań w grupach, dzięki czemu zmniejszają się wymagania obliczeniowe,
- Switched Gated Linear Unit (GLU) – dostosowuje architekturę sieci do rodzaju przetwarzanych danych, zapewniając większa elastyczność pracy modułu,
- sieci feed-forward – bierze udział we wspomnianym procesie alokacji warstw oraz zapewnia komunikację pomiędzy poszczególnymi warstwami w trakcie dekodowania danych,
- Rotatory Positional Embeddings (RPE) – koduje bezwzględną informację o położeniu za pomocą macierzy rotacji; ma wpływać na efektywniejsze kodowanie pozycji tokenów w sekwencji.
Cały model Apple został zaprojektowany tak, aby działał efektywnie na urządzeniach lokalnych bez konieczności ciągłego przetwarzania danych w chmurze. Szczegółowe dane techniczne i wyniki testów opublikowane są w formie artykułu naukowego na Arxiv: https://arxiv.org/pdf/2404.14619.

Bez chodzenia na skróty. OpenELM od Apple jako open source trenowany na otwartych źródłach
Innowacyjnym aspektem procesu treningu OpenELM było zastosowanie tokenizacji w czasie rzeczywistym, technik augmentacji danych oraz adaptacyjnego filtrowania danych. W procesie treningu OpenELM zastosowano również techniki uczenia transferowego i fine-tuningu. Jednak aspekty techniczne stają się mniej istotne, jeśli przyjrzymy się samemu sposobowi szkolenia modeli. Model językowy OpenELM miał zostać wytrenowany na publicznie dostępnych, otwartych danych. Apple deklaruje, że trening odbywał się przy wykorzystaniu otwartych źródeł danych, takich jak Wikipedia, Wikibooks, Reddit, GitHub, arXiv.org oraz Project Gutenberg. Łączna ilość danych użytych do treningu wynosi około 1,8 biliona tokenów, co ma przekładać się na finalny stopień efektywności.
Jest to zupełnie przeciwna droga względem tej, którą poszło OpenAI. Z biegiem czasu rośnie liczba zarzutów dotyczących procesu szkolenia ChatGPT. Wiadomo, że Fundacja OpenAI jest bardzo mocno związana z Microsoftem, który kilka lat temu wykupił platformę Github. Ta zaś stała się głównym zbiorem danych szkoleniowych dla modeli językowych OpenAI. Zakłada się również, że modele szkolone są z różnych źródeł internetowych, łamiąc tym samym licencje i prawa autorskie. Apple wprost przyznaje, że prywatność użytkowników oraz szacunek wobec publikowanych treści musi być na pierwszym miejscu. Chociaż nie wiem, jak jest naprawdę, nawet na poziomie przekazów oficjalnych podejście Apple zgoła różni się od podejścia OpenAI. Różni się zdecydowanie na plus.
Co ważne, OpenELM jest udostępniony jako oprogramowanie open source na platformie Hugging Face. Dzięki temu każdy, już teraz, może zacząć swobodnie z niego korzystać, jak również modyfikować i redystrybuować (w obrębie publicznej, darmowej licencji). Otwartość OpenELM obejmuje nie tylko same modele, ale również kod źródłowy i narzędzia używane do ich treningu i optymalizacji. Apple udostępniło szczegółową dokumentację techniczną, stworzyło otwarte repozytorium na GitHubie z własnym supportem i stara się otwierać na współpracę ze społecznością. OpenELM ma potencjał, aby znacząco przyczynić się do postępu w dziedzinie uczenia maszynowego, a także wspierać innowacje w różnych branżach. Na strona główna witryny można znaleźć wszystkie niezbędne zasoby, w tym przykłady użycia oraz wskazówki dotyczące integracji OpenELM z innymi projektami. Dzięki aktywnej społeczności, użytkownicy mogą również dzielić się swoimi doświadczeniami i najlepszymi praktykami.
Jak OpenELM wypada na tle innych modeli językowych?
Zanim przejdziemy do analizy dostępnych wyników porównawczych, warto zwrócić uwagę raz jeszcze na kolejne różnice w podejściu Apple. Nie chodzi o gloryfikowanie jakiejkolwiek firmy, ale tam, gdzie te różnice faktycznie występują, warto je unaoczniać. Otóż Apple, pomimo tego, że nazwało swój model “efektywnym” (Effective Language Model), stroni przed porównywaniem go z innymi. W oficjalnej komunikacji brakuje “pompy” charakterystycznej dla OpenAI czy Google. Czy to znaczy, że OpenELM po prostu nie ma się czym pochwalić i wypada gorzej na tle innych modeli językowych? Absolutnie nie!
OpenELM wykazuje imponującą wydajność w porównaniu do innych modeli, także w tych wersjach, które wykorzystują wyższą liczbę parametrów. Według analiz porównawczych OpenELM przewyższa modele OLMo Instytutu Allena o 2,36%, wymagając jednocześnie dwukrotnie mniej tokenów do wstępnego treningu. Model Apple ma wyjątkowo dobrze sprawdzać się w takich zadaniach, jak klasyfikacja tekstu, odpowiadanie na pytania i generowanie kodu. Warianty OpenELM posiadające miliard parametrów osiągały wyniki porównywalne z modelami GPT-3, które wykorzystują 175 miliardów parametrów. Wydajność ma być szczególnie wyraźna w zadaniach dotyczących analiz i wnioskowania.
Jednym z kluczowych aspektów wydajności OpenELM jest jego zdolność do szybkiego przetwarzania i generowania tekstu na urządzeniach lokalnych. Testy przeprowadzone na iPhone’ach najnowszej generacji wykazały, że OpenELM może generować odpowiedzi z prędkością do 100 tokenów na sekundę. To wynik nieco gorszy od najnowszych rezultatów modeli OpenAI, ale sprzyja na korzyść Apple. Dlaczego? Model Apple w tym teście nie wykorzystywał obliczeń wykonywanych w chmurze, lecz pracował lokalnie. To duża zmiana i widać, że Apple nie zamierza tworzyć, pisząc kolokwialnie, ogólnie najlepszej sztucznej inteligencji, lecz najlepszej dla swoich odbiorców – użytkowników produktów Apple.

Główne zastosowania OpenELM
Model językowy Apple ma podobne zastosowania względem konkurencyjnych projektów. Wyróżnia się jednak lepszym dostosowaniem do pracy na urządzeniach mobilnych oraz deklarowanym brakiem zależności od przetwarzania danych w chmurze. Dzięki temu świetnie sprawdzi się także w systemach o ograniczonych zasobach. Apple wskazuje, że potencjalne obszary zastosowania OpenELM mogą obejmować:
- asystentów głosowych z zaawansowanymi możliwościami rozumienia kontekstu i generowania naturalnych odpowiedzi,
- systemy rekomendacji w aplikacjach e-commerce i platformach streamingowych,
- zaawansowaną analizę sentymentu w mediach społecznościowych i systemach obsługi klienta,
- generowanie spersonalizowanych treści, takich jak e-maile, raporty czy artykuły,
- wsparcie w zadaniach programistycznych, w tym automatyczne uzupełnianie kodu i debugowanie,
- tłumaczenie maszynowe w czasie rzeczywistym na urządzeniach mobilnych,
- inteligentne systemy zarządzania danymi.
Modele OpenELM mogą również znaleźć zastosowanie w różnych aplikacjach systemowych, takich jak Notes, Messages czy Mail. Możliwość przetwarzania języka naturalnego bezpośrednio na urządzeniu użytkownika sprzyja dalszym integracjom modelu z różnymi aplikacjami zewnętrznymi i zewnętrznymi. Dzięki otwartemu dostępowi do kodu, deweloperzy mają możliwość dostosowania i rozszerzania funkcji modeli OpenELM, co może prowadzić do bardziej spersonalizowanych rozwiązań. Dodatkowo, integracja z jetstream jako narzędzie open source umożliwia łatwe wdrażanie i skalowanie tych modeli w różnych środowiskach. Takie podejście nie tylko zwiększa wydajność aplikacji, ale także otwiera nowe możliwości w zakresie analizy danych i wspomagania decyzji.
Inkluzywny model współpracy – Apple podpisuje umowę z OpenAI
W przeciwieństwie do Google, które toczy aktywną rywalizację z OpenAI / Microsoftem, pozycja Apple jest nieco inna. Apple nie stara się wyrastać na giganta A.I. Próbuje za to stworzyć szyte na miarę rozwiązania A.I., które przydadzą się użytkownikom korzystających z produktów Apple. Takie podejście do sprawy jest bardziej koncyliacyjne i charakteryzuje się większą otwartością.
O tym, że to nie tylko słowa, świadczą ostatnie wydarzenia. Apple aktualnie prowadzi rozmowy z Google w sprawie integracji modelu OpenELM z modelami Google’a. Rozważa też wykorzystanie modelu Gemini od Google lub ChatGPT od OpenAI do zasilenia nowych funkcji AI w iPhone’ach. Według raportu Bloomberga w maju Apple miało sfinalizować umowę z OpenAI, zgodnie z którą ChatGPT będzie mógł pojawić się na smartfonach z iOS 18 jeszcze w 2024 roku. Apple nie ma problemu z korzystaniem z technologii OpenAI, jeśli jest to korzystne dla użytkowników. Jednocześnie oferuje wykorzystanie OpenELM do celów OpenAI, zacieśniając tym samym współpracę.

Nowy moduł językowy Apple OpenELM – podsumowanie
OpenELM to nie tylko nowy moduł językowy Apple’a, ale również kierunkowskaz, które odczytanie umożliwia sprawdzenie, jak Apple widzi się w trwającej rewolucji A.I. Na ten moment jasne jest to, że Apple nie podnosi rękawicy i nie wchodzi w szranki z głównymi podmiotami na rynku – Google, OpenAI i Microsoftem. Zamiast tego koncentruje się na tworzeniu rozwiązań, które mają bezpośrednio przyczynić się do uatrakcyjnienia własnych produktów – smartfonów i laptopów.
Najnowszy model językowy wyróżnia się dobrą wydajnością w porównaniu do modeli o podobnych ograniczeniach co do liczby obsługiwanych parametrów. Pomimo implementacji wielu przełomowych funkcji, m.in. Grouped Query Attention i Switched Gated Linear Unit, model nie zaskakuje jednak swoimi możliwościami technicznymi. Nie ma tu rewolucji, która kazałaby spojrzeć na Apple jako innowatora technologii A.I. Jest za to znaczny postęp w zakresie transparentności procesu tworzenia modeli językowych przez duże korporacje.
Apple od początku udostępniło model jako open source na Hugging Face. Model miał być testowany wyłącznie w oparciu o dane, co do których nie ma podejrzenia łamania praw licencyjnych i autorskich. Funkcje modelu dostosowano do urządzeń mobilnych i produktów Apple, tak, aby również mogły szanować prywatność użytkowników. Dowodem na to ma być możliwość pracy lokalnej bez przetwarzania w chmurze.



