Sztuczna inteligencja to temat, który nie tylko rozpala wyobraźnię, ale też generuje całkiem realne rachunki za prąd. ChatGPT, flagowy chatbot OpenAI, od dawna budził obawy o swoje zużycie energii, ale nowe badanie sugeruje, że jego apetyt na prąd jest mniejszy, niż sądzono. Ile faktycznie energii pochłania AI? To zależy – od modelu, od długości zapytań, a nawet od tego, czy generujemy tylko tekst, czy też obrazy.
ChatGPT a Google – kto zużywa więcej prądu?
Badacze z organizacji Epoch AI postanowili dokładnie oszacować, ile energii potrzebuje przeciętne zapytanie do ChatGPT. Wcześniej popularne było stwierdzenie, że jedna odpowiedź AI zużywa około 3 watogodzin – czyli dziesięć razy więcej niż pojedyncze wyszukiwanie w Google.
Okazuje się jednak, że te szacunki były zawyżone. Epoch AI, analizując nowy model OpenAI – GPT-4o, wyliczyło, że przeciętne zapytanie do ChatGPT pochłania zaledwie 0,3 watogodziny. Dla porównania, to mniej niż zużywa typowa żarówka LED działająca przez godzinę.
– Zużycie energii przez ChatGPT jest naprawdę niewielkie w porównaniu do codziennych czynności, takich jak ogrzewanie domu czy jazda samochodem – powiedział Joshua You, analityk danych z Epoch AI, w rozmowie z TechCrunch.
Czy AI pożre naszą energię?
Temat zużycia energii przez AI budzi gorące dyskusje, zwłaszcza w kontekście rozbudowy infrastruktury przez gigantów technologicznych. Niedawno ponad 100 organizacji podpisało list otwarty, apelując do branży o bardziej odpowiedzialne zarządzanie zasobami i ograniczenie wpływu na środowisko.
You twierdzi, że wcześniejsze wyliczenia dotyczące zużycia energii przez ChatGPT bazowały na przestarzałych danych i zakładały, że OpenAI korzysta z mniej efektywnych układów scalonych. Przyznaje jednak, że choć obecnie energia zużywana przez chatboty jest stosunkowo niewielka, przyszłość może wyglądać inaczej.
– AI będzie coraz bardziej zaawansowana, a to oznacza większe zapotrzebowanie na moc obliczeniową i energię – dodaje badacz.
Przyszłość AI: więcej mocy, większe potrzeby
Eksperci przewidują, że rozwój AI pociągnie za sobą lawinowy wzrost zapotrzebowania na energię. Według raportu Rand, do 2027 roku same centra danych AI mogą pochłaniać niemal tyle energii, co całe Kalifornia w 2022 roku (68 GW). Do 2030 roku szkolenie najpotężniejszych modeli AI może wymagać mocy porównywalnej z ośmioma reaktorami jądrowymi (8 GW).
To zmartwienie nie tylko dla ekologów, ale i dla inwestorów. OpenAI i jego partnerzy zamierzają wydać miliardy dolarów na nowe centra danych, by sprostać rosnącemu zapotrzebowaniu.
Modele AI, które „myślą” dłużej, zużywają więcej
Coraz większą rolę w rozwoju AI odgrywają modele „rozumujące”, które zamiast natychmiastowych odpowiedzi, analizują problem przez sekundy, a nawet minuty, co drastycznie zwiększa zużycie energii. OpenAI eksperymentuje z bardziej energooszczędnymi wariantami, jak GPT-4o-mini, ale trudno powiedzieć, czy efektywność nadąży za rosnącym popytem na AI.
You sugeruje, że osoby martwiące się o swój „ślad energetyczny” mogą ograniczyć korzystanie z AI lub wybierać mniej wymagające modele.
– Jeśli naprawdę zależy ci na oszczędzaniu energii, używaj mniejszych modeli, takich jak GPT-4o-mini, i staraj się nie generować ogromnych ilości danych – radzi badacz.
Podsumowując – na razie ChatGPT nie jest ekologicznym potworem, ale w przyszłości sytuacja może się zmienić. Z jednej strony mamy coraz lepsze i bardziej efektywne algorytmy, a z drugiej – rosnącą popularność AI, która napędza rozwój energochłonnych centrów danych. Możemy więc być pewni jednego: rachunki za prąd w erze AI będą tylko rosnąć.