Jeszcze do niedawna Google trzymało swoje największe działa na specjalne okazje – jak coroczna konferencja I/O. Ale czasy się zmieniają. Teraz nowy model AI może wpaść w ręce użytkowników… we wtorek o 13:00. Bez fanfar, ale z ogromnym impaktem. Tak działa era Gemini. I o tym był właśnie keynote Sundara Pichai’a:
Modele lepsze, szybsze, tańsze
Gemini 2.5 Pro to aktualnie najlepszy zawodnik na boisku AI – prowadzi we wszystkich kategoriach rankingu LMArena. W porównaniu do pierwszej generacji modelu Pro, wynik Elo (czyli miara „inteligencji” modelu) skoczył o ponad 300 punktów. Co pozwala na takie skoki? Nowe układy TPU, a konkretnie siódma generacja o nazwie Ironwood. Każdy „pod” ma aż 42,5 eksaflopsów mocy obliczeniowej. Brzmi abstrakcyjnie? To jakby każdemu mieszkańcowi Ziemi dać superkomputer — i jeszcze trochę by zostało.
To wszystko przekłada się na szybkość i przystępność modeli. Google nie tylko goni konkurencję — przesuwa granice możliwości całej branży. Cena spada, wydajność rośnie.
AI idzie w lud
Jeszcze rok temu produkty i API Google’a przetwarzały 9,7 biliona tokenów miesięcznie. Dziś to już ponad 480 bilionów. W ciągu roku! W aplikacji Gemini aktywnych jest ponad 400 milionów użytkowników miesięcznie, a liczba deweloperów pracujących z tymi modelami wzrosła pięciokrotnie.
Wersja 2.5 Pro w samej aplikacji Gemini notuje 45% wzrost użycia. Można powiedzieć: sztuczna inteligencja wchodzi pod strzechy – tylko że te strzechy są cyfrowe i obsługiwane głosem.
Z projektów badawczych do naszych kieszeni
Pamiętacie Project Starline, czyli wideorozmowy w 3D, które miały sprawić, że poczujemy się jak w jednym pokoju, mimo setek kilometrów dzielących rozmówców? Ten projekt teraz staje się rzeczywistością jako Google Beam. Sześć kamer, renderowanie 3D w czasie rzeczywistym i współpraca z HP. Pierwsze urządzenia jeszcze w tym roku trafią do klientów.
Z kolei w Google Meet pojawia się tłumaczenie mowy w czasie rzeczywistym – głos, ton i mimika pozostają takie same, ale mówią po hiszpańsku, angielsku… a niedługo pewnie i po polsku.
Astra, Mariner, agenci – AI do zadań specjalnych
Projekt Astra, który zaczynał jako eksperyment, już teraz żyje w postaci funkcji Gemini Live. Kamera i udostępnianie ekranu pozwalają na interakcję ze światem w sposób, który przypomina osobistego asystenta – tylko że dużo bystrzejszego.
Agent Mode to kolejny krok – asystent, który nie tylko mówi, ale działa. Szuka mieszkań na stronach jak Zillow, dopasowuje filtry i może nawet umówić Cię na wizytę. Takie rzeczy wkrótce będą testowane przez użytkowników aplikacji Gemini.
Google nie działa w pojedynkę – rozwija standardy, by agenci AI mogli ze sobą „rozmawiać” i współpracować. Brzmi jak science fiction? Może. Ale podobnie mówiono kiedyś o samochodach bez kierowcy.
Personalizacja ma znaczenie
Nowe inteligentne odpowiedzi w Gmailu to przykład, jak AI może znać nas lepiej niż niejeden znajomy z pracy. Gemini przeszuka stare maile i dokumenty na Drive, by wygenerować odpowiedź dopasowaną do Ciebie – twojego stylu, słownictwa, a nawet ulubionego powitania. Oczywiście tylko za Twoją zgodą i pod pełną kontrolą prywatności.
AI Mode w wyszukiwarce
Szukasz przepisu, planu treningowego, albo listy prezentów na święta? W trybie AI Mode w wyszukiwarce Google możesz wpisać wszystko – długie, złożone pytania i rozwijać je dalej. Nowe AI Overviews są już dostępne dla 1,5 miliarda ludzi, a teraz do gry wchodzi model Gemini 2.5.
Veo 3, Imagen 4 i… kino z AI
Modele generatywne Google’a idą dalej. Veo 3 generuje wideo z dźwiękiem, Imagen 4 – obrazy jak z galerii sztuki. Dla filmowców pojawiło się Flow – narzędzie do tworzenia ujęć i scen rodem z Hollywood.
I na koniec – coś z serca
Szef Google wspomniał historię z niedawnej wizyty w San Francisco, gdzie jego rodzice – zwłaszcza 80-letni ojciec – byli oczarowani przejażdżką Waymo. Bo AI, choć zakorzenione w serwerowniach i kodzie, ma też twarz zachwytu. I czasem właśnie taki moment — zdziwione oczy taty — mówi więcej niż wszystkie benchmarki świata.