Największa coroczna impreza Google, konferencja Google I/O, stała się w trakcie edycji 2025 festiwalem nowości. Zaprezentowano nowe usługi agentowe (Agent Mode), nowy tryb AI, który może zrewolucjonizować SEO, kolejne wersje Gemini wraz z usługą Gemini Live i wsparciem dla aplikacji. Widać, że Google robi postępy w dziedzinie nie tylko sztucznej inteligencji, ale także technologii immersyjnych, które mają zmienić sposób prowadzenia rozmów wideo, pracy z asystentami AI oraz wyszukiwania treści w sieci. Innowacje obejmują zarówno urządzenia pozwalające na realistyczne renderowanie postaci w trójwymiarze, jak i zaawansowane tryby agentów oraz głęboko spersonalizowane funkcje komunikacyjne. W niniejszym przeglądzie autorskim Funkymedia prezentujemy wszystkie najważniejsze punkty z Google I/O 2025!

Konferencja Google I/O 2025 – jedna z najlepszych od lat
Cóż to było za wydarzenie – mówią dziś w Dolinie Krzemowej nawet ci, którzy za Google nie przepadają. Okazuje się, że słowa Sundara Pichai nadające kierunek zmian na 2025 roku, poskutkowały. Konferencja Google I/O nie okazała się żadną ściemą (a kiedyś tak bywało), ale pełnoprawnym eventem, w trakcie którego faktycznie zaprezentowano szereg ciekawych nowości technologicznych giganta. Wspólnym mianownikiem wszystkich wynalazków jest nadrzędne skoncentrowanie się Google na wprowadzeniu zaawansowanych rozwiązań immersyjnych i rozbudowanych funkcji sztucznej inteligencji, które mają przeobrazić codzienną komunikację w wirtualnych przestrzeniach Google.
W trakcie konferencji poznaliśmy zarówno te małe, jak i te największe projekty. Nawet tych pierwszych nie warto jednak bagatelizować. Do takich należy, przykładowo, urządzenie Google Beam tworzone we współpracy Google-HP. Wykorzystuje ono sześć wbudowanych kamer oraz algorytmy AI do przekształcania dwuwymiarowego obrazu w realistyczny trójwymiarowy przekaz na wyświetlaczu lightfield z precyzyjnym śledzeniem ruchów głowy w czasie rzeczywistym. Równolegle rozwijane narzędzia w Google Meet wprowadzają niemal natychmiastowe tłumaczenia mowy, dopasowujące barwę głosu i wyraz twarzy. W rezultacie ma to ułatwiać prowadzenie bezproblemowychh rozmów między użytkownikami posługującymi się różnymi językami. Projekt Astra, teraz znany jako Gemini Live, poszerza możliwości współdzielenia obrazu z kamery i ekranu, co znajduje zastosowanie m.in. w szkoleniach online, przygotowaniach do rozmów kwalifikacyjnych czy sesjach treningowych.
Ogromną innowacją jest Project Mariner, pełniący rolę wstępnego prototypu agentów z umiejętnością obsługi aplikacji webowych. Wprowadza on metodę “teach and repeat” i z czasem zostanie udostępniony programistom poprzez Gemini API. Wyszukiwarka zyskuje nowy AI Mode, pozwalający na formułowanie dłuższych i bardziej złożonych zapytań oraz kontynuowanie dialogu. W trybie AI możliwe też będzie zlecanie wyszukiwarce monitorowania zmian cen danego produktu, a nawet pozwolenia jej kupna go dla nas wtedy, gdy będzie kosztował najmniej. Nowości dotykają też appki. Aplikacja Gemini coraz bardziej integruje funkcje Deep Research, Canvas i vibe coding, umożliwiając tworzenie raportów, infografik i prototypów aplikacji bezpośrednio z poziomu czatu.
Nowe technologie immersyjne
Jako jedno z pierwszych na Google I/O 2025 zostało zaprezentowane urządzenie Google Beam. Tu od razu disclaimer: nie należy mylić Google Beam z funkcją z Androida związaną z płatnościami NFC! To zupełnie różne projekty. Czym zatem jest ten nowy wynalazek?
Google Beam przekształcają dwuwymiarowy obraz w realistyczne obrazy trójwymiarowe. Realizują to dzięki wbudowanym kamerom i zaawansowanym algorytmom sztucznej inteligencji. Strumienie wideo są łączone i renderowane na wyświetlaczu typu lightfield, co pozwala na uzyskanie śledzenia głowy z precyzją do milimetra. Całość działa w czasie rzeczywistym przy odświeżaniu sięgającym stabilnych 60 klatek na sekundę. Beam w ten sposób jest w stanie sprofesjonalizować każdą rozmowę zdalną. Z drugiej strony mogą dodawać też głębi i intymności. W rezultacie Beam z powodzeniem znajdą też szereg ciekawych zastosowań w branży rozrywkowej.
W zakresie Google Meet mamy też nowe funkcje związane z tłumaczeniami na żywo. Wprowadzana technologia tłumaczeń mowy w czasie zbliżonym do rzeczywistego potrafi odzwierciedlać ton głosu oraz mimikę uczestników. Innymi słowy, system wykrywa preferencje komunikacyjne użytkowników i sprawia, że “nadają oni na podobnych falach”. Jeśli większość interlokutorów ma określoną manierę językową, może ona automatycznie być dodana do naszych wypowiedzi. Dzięki tej opcji użytkownicy prowadzą rozmowy niemal bez barier językowych. To szczególnie przydatne w przypadku spotkań z osobami, z którymi różnią nas nie tylko fundamenty językowe, ale też kulturowe, wpływające na niuanse komunikacyjne.
Project Astra, czyli Gemini Live
Projekt Astra to próba stworzenia uniwersalnego asystenta AI, który będzie zdolny do pełnego zrozumienia otoczenia użytkownika. Wiemy już, że w praktyce za kodową nazwą Astra kryje się funkcja Gemini Live, która łączy w sobie możliwości przechwytywania obrazu z kamer oraz udostępniania ekranu. Ma to potencjalnie całą paletę różnych zastosowań – zarówno prywatnych, jak i komercyjnych. W praktyce bowiem użytkownicy mogą użyć Gemini Live do przygotowania się do rozmowy kwalifikacyjnej, egzaminu, treningu do maratonu itd. Rozwiązanie zagościło już na urządzeniach z systemem Android, a najnowsza wersja natychmiast została opublikowana.
To, co jest najbardziej innowacyjne w projekcie, to wzrost znaczenia przestrzeni. Włączenie kamer i funkcji dzielenia ekranu pozwala na prowadzenie interaktywnych sesji szkoleniowych oraz kreatywnych warsztatów online. Użytkownicy mogą modelować różne scenariusze, korzystając z wizualnego sprzężenia zwrotnego w czasie rzeczywistym. Dzięki możliwości jednoczesnego śledzenia mimiki i prezentowania materiałów ekranowych, rozmowa nabiera głębi i autentyczności. Rozwiązanie Gemini Live stanowi etap w kierunku pełnowymiarowych, wirtualnych spotkań, w których uczestnicy czują się obecni w tej samej przestrzeni.

Project Mariner, czyli asystent AI
Kolejny jest Project Mariner, którego prototyp został udostępniony badaczom w grudniu ubiegłego roku. Widać, że Google wciąż bada kwestie nazewnicze. Z nowej prezentacji wyświetlanej podczas ostatniego Google I/O 2025 wyłania się obraz zaawansowanego asystenta AI (a może asystentów?), wykonującym zadania za użytkowników. Projekt został zaprezentowany jako rozwiązanie, które łączy inteligencję zaawansowanych modeli z dostępem do różnych narzędzi, wprowadza wielozadaniowość oraz metodę „teach and repeat”. Ta ostatnia polega na tym, że system uczy się nowych zadań po jednokrotnym ich zademonstrowaniu pokazaniu. Dzięki temu oprogramowanie potrafi automatycznie tworzyć plany działań dla podobnych zadań w przyszłości. Architektura Agent Mode oparta jest na protokole Agent2Agent, który pozwala na komunikację między poszczególnymi agentami. Co ważne – asystent AI ostatecznie ma być zaimplementowany zarówno w wyszukiwarce, jak i przeglądarce Chrome. Najszybciej dostępny będzie w aplikacji rozszerzonej Gemini.
AI Mode w wyszukiwarce
AI Mode, czyli tryb sztucznej inteligencji, zostanie włączony bezpośrednio do wyszukiwarki Google. Dostępny będzie w formie zakładki – takiej, jak np. “Produkty”, “Witryny Produktów” czy “Wiadomości”. Tryb AI to całkowite przeprojektowanie klasycznego procesu wyszukiwania, umożliwiające zadawanie dłuższych i bardziej złożonych pytań. Nowa funkcja umożliwia zaawansowane wyszukiwanie oraz generowanie skompilowanych materiałów. Więcej o tej ciekawej funkcji piszemy na blogu Funkymedia w osobnym tekście, bo może mieć ona bardzo duże przełożenie na kształt przyszłego pozycjonowania stron!

Ewolucja Gemini 2.5
Dotychczasowy sukces modeli językowych Google jest niepodważalny, jeśli spojrzymy na statystyki. Nie zawsze można było to powiedzieć. Dziś jednak Gemini 2.5 Flash stanowi jeden z najpopularniejszych modeli wśród deweloperów. Ceniony jest za szybkość działania i niskie koszty eksploatacji. W porównaniu z poprzednimi wersjami osiąga lepsze wyniki w obszarach takich jak wnioskowanie, analiza multimodalna, programowanie oraz obsługa długiego kontekstu. Na platformie LMArena zajmuje drugie miejsce tuż za wariantem Gemini 2.5 Pro. Model Flash pozwala na tworzenie zaawansowanych aplikacji przy ograniczonym zapotrzebowaniu na zasoby obliczeniowe. Wciąż jednak – w wersjach płatnych – jest tańszy od ChatGPT.
W przeciwieństwie do ubiegłorocznej konferencji tym razem nie zaprezentowano za to zupełnie nowego modelu. Skupiono się raczej na prezentacji nowych możliwości najszybszych, wcześniej już dostępnych modeli (2.5 Pro i 2.5 Flash). Nowe opcje i rozszerzenia obejmują m.in.:
- lepsze zdolności kodowania – usprawnienie tworzenia i edycji kodu w różnych językach,
- funkcja „deep think” – tryb głębokiego rozumowania do rozwiązywania złożonych problemów,
- zaawansowane rozumienie wideo – analiza i interpretacja treści wideo na wysokim poziomie,
- dynamiczne rozumowanie – dostosowywanie poziomu analizy w zależności od złożoności zadania,
- kontrola budżetu rozumowania – możliwość zarządzania zasobami modelu dla optymalizacji kosztów,
- gemini live api – przetwarzanie strumieniowego audio, wideo i tekstu na żywo,
- integracja z project mariner – automatyzacja zadań i wykonywanie wielu operacji internetowych jednocześnie.
Google I/O 2025 – podsumowanie
Trudno nie odnieść wrażenia, że Google postanowiło nadać nowy ton swojej głównej konferencji. Google I/O 2025 o tyle zaskoczyło, że zamiast symbolicznych nowinek czy wyczekiwanych od lat produktów otrzymaliśmy całościową wizję przyszłego ekosystemu Google. Inaczej mówiąc, widzimy, co jest głównym celem Google, dzięki czemu możemy łączyć ze sobą kolejne, mniejsze elementy. A wizja Google jest następująca: integracja wszystkich usług i wykorzystywanie ich przez agentów AI.
Szczególnie istotne w tym kontekście wydają się wysiłki włożone w rozwój funkcji immersyjnych i agentowych. Zarówno Google Beam, jak i Project Mariner pokazują, że dla Google przyszłość nie polega wyłącznie na lepszych algorytmach, ale na tworzeniu ekosystemów, które wspierają użytkownika na każdym etapie działania – niezależnie od tego, czy ten pracuje, rozmawia, uczy się czy szuka inspiracji. Z kolei to, jak ewoluują modele językowe Gemini, zwraca uwagę na konsekwentne pogłębianie integracji między usługami.
Google I/O 2025 zapisze się w historii jako konferencja, która nie tylko zaprezentowała nowe technologie, ale też pokazała klarowny kierunek, w którym zmierza rozwój cyfrowego świata. Wiele z zaprezentowanych rozwiązań dopiero zacznie trafiać do rąk użytkowników, ale już teraz można mieć pewność, że będą one miały realny wpływ na sposób, w jaki korzystamy z technologii w codziennym życiu. Jeśli tempo innowacji zostanie utrzymane, przyszłoroczne I/O może być jeszcze bardziej przełomowe… także dla SEO!