Czy sztuczna inteligencja może być naprawdę otwarta, wydajna i jednocześnie… działać na domowym sprzęcie? OpenAI pokazuje, że tak. Premiera gpt-oss-120b i gpt-oss-20b to odpowiedź na potrzeby deweloperów, instytucji i – co ważne – entuzjastów AI, którzy chcą mieć pełną kontrolę nad modelem bez płacenia fortuny za infrastrukturę.
Gdy duży nie znaczy drogi
Oba modele – udostępnione na licencji Apache 2.0 – oferują moc porównywalną z zamkniętymi modelami OpenAI. gpt-oss-120b osiąga niemal identyczne wyniki jak o4-mini na benchmarkach logicznych, a przy tym działa na pojedynczej karcie graficznej z 80 GB pamięci. Z kolei gpt-oss-20b to mały spryciarz – zadowala się 16 GB RAM-u i radzi sobie z zadaniami równie dobrze jak o3-mini. Co więcej, radzi sobie świetnie z tzw. tool use, czyli używaniem narzędzi takich jak wyszukiwarka czy kod Python.
Wyniki testów? Modele przeskoczyły nawet GPT-4o i o1 na benchmarku HealthBench oraz w matematycznych wyzwaniach AIME 2024/2025. To nie są puste słowa – dane robią wrażenie.
Techniczny majstersztyk
Oba modele oparto o architekturę Mixture-of-Experts (MoE), czyli rozwiązanie pozwalające aktywować tylko wybrane fragmenty sieci neuronowej przy każdym zapytaniu. Efekt? Więcej mocy przy mniejszym zużyciu zasobów. Dla tych, którzy lubią liczby: większy model ma 117 miliardów parametrów, ale na raz aktywowanych jest „zaledwie” 5,1 miliarda. Mniejszy model – 21 miliardów, z czego aktywne 3,6 mld.
Do tego dochodzą ciekawe rozwiązania architektoniczne – mieszana uwaga (dense i sparse attention), RoPE do kodowania pozycji, obsługa kontekstu do 128 tysięcy tokenów (!) i autorski tokenizer o200k_harmony, który również został udostępniony.
Trening jak u najlepszych
Post-trening tych modeli odbywał się podobnie jak w przypadku o4-mini. Było trochę nadzoru, trochę reinforcement learningu i całkiem sporo pracy, by modele potrafiły myśleć krok po kroku (tzw. Chain-of-Thought, czyli CoT). Co ważne – nie uczono ich CoT bezpośrednio, co pozwala lepiej monitorować potencjalne błędy i manipulacje. A jak mówią niektórzy – „jeśli chcesz kontrolować maszynę, lepiej wiedzieć, jak myśli”.
Zadbano też o bezpieczeństwo
OpenAI nie wypuszcza modeli „na żywioł”. gpt-oss-120b i gpt-oss-20b przeszły szereg testów bezpieczeństwa, w tym eksperymenty z ich „złośliwym” dostrojeniem – czyli próbą stworzenia wersji, która ignoruje zabezpieczenia. Na szczęście, nawet po takich modyfikacjach, modele nie osiągały wysokiego poziomu zagrożenia. Do oceny ryzyk zaproszono zewnętrznych ekspertów, którzy pomogli podnieść standardy bezpieczeństwa.
A żeby nie było za spokojnie – ogłoszono Red Teaming Challenge z pulą nagród pół miliona dolarów. Kto znajdzie lukę, ten nie tylko pomoże uczynić AI bezpieczniejszą, ale i zyska szacunek (i przelew).
Dostępność? Jak najbardziej
Modele można pobrać na Hugging Face w formacie MXFP4, co oznacza niskie zużycie pamięci i gotowość do działania nawet na komputerze deweloperskim. Dodatkowo przygotowano wsparcie dla PyTorch, Apple Metal, a nawet… Windowsa. Dzięki współpracy z Microsoftem, wersja 20b będzie działać lokalnie na urządzeniach z GPU – prosto z Visual Studio Code.
Deweloperzy mogą korzystać z gotowych narzędzi, referencyjnych implementacji oraz wsparcia od największych firm na rynku: Azure, AWS, Hugging Face, Cloudflare i wielu innych. A to oznacza jedno – gpt-oss to AI, które możesz zabrać ze sobą. Nawet offline.
Po co to wszystko?
OpenAI otwiera swoje modele, bo – jak twierdzi – otwartość to przyszłość AI. Dzięki takim rozwiązaniom mniejsze firmy, instytucje publiczne, a nawet rządy mogą rozwijać sztuczną inteligencję bez uzależniania się od chmur i licencji. A dla badaczy to szansa na własne eksperymenty z łańcuchami myślowymi modeli i bezpieczeństwem.
W teorii brzmi pięknie – w praktyce… no właśnie, zobaczymy. Ale potencjał jest ogromny.
Podsumowanie?
gpt-oss-120b i 20b to coś więcej niż kolejne modele językowe. To propozycja zrobiona z głową – wydajna, otwarta, bezpieczna i przystępna. OpenAI pokazuje, że open-source w AI to nie tylko marketing – to realna alternatywa dla drogich, zamkniętych modeli.
I choć niektórym może się wydawać, że modele „do pobrania” to już przeszłość, to… historia zna przypadki, gdzie właśnie tacy outsiderzy robili największą różnicę. Czas pokaże, czy będzie podobnie.