Big Data Business Wybór redakcji

NVIDIA i OpenAI budują „fabryki AI”. Największa infrastruktura w historii sztucznej inteligencji

Na Wall Street trudno już zliczyć rekordy, ale dziś padł taki, który nie ma wiele wspólnego z giełdą, a raczej z prądem. Dużo prądu. NVIDIA i OpenAI ogłosiły bowiem strategiczne partnerstwo, które ma doprowadzić do powstania największej w historii infrastruktury sztucznej inteligencji. Mowa o centrach danych zasilanych milionami procesorów graficznych i mocą liczonych w… gigawatach.

Dziesięć gigawatów na start

Jensen Huang, założyciel i CEO NVIDII, nie krył entuzjazmu: „To największy projekt infrastruktury AI w historii. Chcemy wynieść sztuczną inteligencję z laboratoriów do świata”. I rzeczywiście – plan zakłada budowę systemów o łącznej mocy co najmniej 10 GW, z wykorzystaniem nowej platformy NVIDIA Vera Rubin.

OpenAI nie ukrywa, że to właśnie skalowanie mocy obliczeniowych jest teraz kluczem do kolejnego etapu rozwoju. Sam Altman, CEO firmy, stwierdził wprost: „Budowa tej infrastruktury to paliwo, którego potrzebujemy, aby ulepszać modele, generować przychody i po prostu – iść naprzód”. A żeby tego było mało – NVIDIA planuje zainwestować nawet 100 miliardów dolarów w rozwój partnerstwa, przy każdym kolejnym „gigawacie” oddanym do użytku.

Fabryki inteligencji na milionach GPU

Nowe centra danych – zwane nieco poetycko „fabrykami AI” – mają zaspokoić gigantyczne potrzeby związane z trenowaniem i działaniem przyszłych modeli OpenAI. Firma obsługuje dziś ponad 700 milionów aktywnych użytkowników tygodniowo, a jej narzędzia potrafią już nie tylko generować teksty czy obrazy, ale także rozumować, działać jak agenci i przetwarzać dane w wielu formatach.

Altman zwrócił uwagę na problem, który brzmi jak dylemat z filozoficznego eseju: bez odpowiedniej mocy obliczeniowej ktoś musiałby decydować, czy priorytetem jest np. badanie leków na raka, czy darmowa edukacja dla milionów. „Nikt nie chce podejmować takich wyborów” – mówił. „Dlatego rozwiązaniem jest po prostu więcej mocy, by obsłużyć ogromne zapotrzebowanie”.

Od jednego serwera do miliarda razy większej skali

Historia współpracy obu gigantów zaczęła się w 2016 roku, gdy Jensen Huang własnoręcznie dostarczył pierwszy serwer NVIDIA DGX do siedziby OpenAI w San Francisco. Greg Brockman, prezes OpenAI, przypomniał tę anegdotę w rozmowie z CNBC, dodając, że obecne plany oznaczają „miliard razy więcej mocy niż wtedy”. Trudno o lepszą ilustrację skali.

Pierwsze systemy oparte na platformie Vera Rubin mają zacząć działać w drugiej połowie 2026 roku. A według Huanga – te 10 gigawatów to dopiero początek. „Będziemy łączyć inteligencję z każdą aplikacją, każdym urządzeniem. To dopiero start” – zapowiedział.

Co to oznacza dla nas?

Dla przeciętnego użytkownika komputerów czy smartfonów – niewiele zmieni się z dnia na dzień. Ale konsekwencje mogą być ogromne: ta infrastruktura to podstawa dla AI, która w kolejnych latach będzie coraz bardziej przypominać narzędzie powszechnego użytku, jak dziś internet.

Można powiedzieć, że NVIDIA i OpenAI budują coś na kształt elektrowni dla sztucznej inteligencji. A my – użytkownicy – będziemy tylko podłączać się do gniazdka.

Źródło

Wyjście z wersji mobilnej