Google nie zwalnia tempa w rozwoju AI. Po premierze w grudniu 2024 roku rodzina modeli Gemini 2.0, zaprojektowanych specjalnie dla nowej epoki agentowej sztucznej inteligencji, szybko trafiła do programistów i testerów w wersji eksperymentalnej – Gemini 2.0 Flash. Teraz firma ogłasza, że model ten jest ogólnodostępny.
To nie wszystko. Google wypuściło też funkcję Deep Research, czyli narzędzie do zaawansowanego wnioskowania i analizy kontekstowej, które może pełnić rolę inteligentnego asystenta badawczego. W międzyczasie udoskonalono również Gemini 2.0 Flash Thinking Experimental, a CEO Sundar Pichai zasugerował w trakcie rozmowy z inwestorami, że 2025 rok będzie przełomowy dla AI.
Gemini 2.0 Flash dostępny dla programistów
Dzięki ogólnodostępnej wersji Gemini 2.0 Flash, deweloperzy mogą teraz korzystać z tego modelu za pośrednictwem API Gemini w Google AI Studio i Vertex AI. Co więcej, według bloga Google, już wkrótce Flash zyska funkcję generowania obrazów oraz zamiany tekstu na mowę.
To jednak nie koniec premier. Wraz z tą zapowiedzią firma poinformowała o eksperymentalnym wydaniu Gemini 2.0 Pro, który będzie skupiał się na zaawansowanym kodowaniu i obsłudze skomplikowanych zapytań. Dodatkowo Google wprowadza Gemini 2.0 Flash-Lite, czyli model językowy zoptymalizowany pod kątem kosztów, ale bez kompromisów jakościowych.
Co ciekawe, Gemini 2.0 Flash Thinking trafi także do użytkowników Gemini App zarówno na komputerach, jak i urządzeniach mobilnych. Jak zapowiada Koray Kavukcuoglu, CTO Google DeepMind, wszystkie nowe modele obsłużą multimodalne wejścia i tekstowe odpowiedzi, a kolejne formaty wyjściowe pojawią się w nadchodzących miesiącach.
Gemini 2.0 – w stronę uniwersalnego asystenta
Nowa linia modeli AI została zaprojektowana specjalnie z myślą o agentowej AI. Google określa Flash jako swój „model roboczy” – zoptymalizowany pod kątem niskich opóźnień i wysokiej wydajności.
Podczas premiery Sundar Pichai podkreślił, że firma dąży do budowy coraz bardziej zaawansowanych agentów AI, które rozumieją otoczenie, przewidują kolejne kroki i działają w imieniu użytkownika – oczywiście pod jego nadzorem.
„Dzięki nowym możliwościom multimodalnym – takim jak natywne generowanie obrazów i dźwięku oraz wbudowana obsługa narzędzi – jesteśmy bliżej stworzenia prawdziwie uniwersalnego asystenta AI” – powiedział Pichai.
Gemini 2.0 to ewolucja tego, co rozpoczęła pierwsza wersja modelu. Podczas gdy Gemini 1.0 koncentrował się na analizie informacji z różnych źródeł (tekst, wideo, obrazy, kod), jego następca ma na celu przekucie tych danych w użyteczne działania.
AI kształtuje przyszłość Google
Podczas rozmowy inwestorskiej Alphabet Inc., Pichai zdradził, że Google Search jest w trakcie wielkiej transformacji opartej na AI. Podkreślił, że znakomite wyniki finansowe firmy w 2024 roku to efekt inwestycji w sztuczną inteligencję i konsekwentnego rozwijania trzech kluczowych filarów:
- Zaawansowanej infrastruktury AI
- Najlepszych na świecie zespołów badawczych
- Innowacyjnych produktów i platform
W trakcie rozmowy Pichai wspomniał też o projekcie Astra – multimodalnym systemie AI opracowywanym przez DeepMind, który potrafi analizować na żywo obraz z ekranu lub kamery i natychmiast odpowiadać na pytania użytkownika.
Podsumowując, 2025 rok zapowiada się jako przełomowy dla AI. Jak ujął to sam Pichai: „Sztuczna inteligencja rozszerza horyzont zapytań, jakie mogą zadawać użytkownicy – to będzie największy rok dla innowacji w wyszukiwaniu”.