OpenAI — firma, która zaczynała jako non-profitowa inicjatywa mająca „uczynić sztuczną inteligencję bezpieczną dla ludzkości” — właśnie oficjalnie zakończyła swój plan restrukturyzacji. I zrobiła to z przytupem. Od teraz będzie działać jako spółka nastawiona na zysk, a jej fundacyjna „dusza” nie znika — po prostu zmienia nazwę i funkcję.
Non-profitowy pion firmy będzie znany jako OpenAI Foundation i zachowa udziały warte około 130 miliardów dolarów (około 110 mld euro) w nowej, komercyjnej strukturze OpenAI. Brzmi jak plan, w którym wilk jest syty, a owca… niekoniecznie cała, ale zadowolona.
Nie zabrakło też Microsoftu, wiernego partnera OpenAI. Gigant z Redmond ma teraz około 27% udziałów, co wycenia się na 135 miliardów dolarów (116 mld euro). Po ogłoszeniu wiadomości akcje Microsoftu poszybowały o 4% w górę, a jego kapitalizacja przebiła kosmiczne 4 biliony dolarów. Jak to ktoś kiedyś powiedział — „sztuczna inteligencja to nowa ropa”, a Microsoft właśnie wykopał kolejne złoże.
OpenAI zapewnia, że dzięki nowej strukturze nadal będzie wierne swojej misji, a im większy sukces odniesie biznesowo, tym więcej środków trafi do fundacji na cele filantropijne. „Ta rekapitalizacja utrzymuje najsilniejszy model zarządzania skoncentrowany na misji w branży” — podkreśla firma w oficjalnym wpisie.
Nowe modele, nowe podejście: gpt-oss-safeguard wchodzi do gry
Równocześnie OpenAI zaprezentowało coś, co może odmienić sposób, w jaki patrzymy na bezpieczeństwo w AI. Firma udostępniła gpt-oss-safeguard, czyli otwartoźródłowe modele rozumujące (open-weight reasoning models), dostępne w dwóch wersjach: 120B i 20B. Modele są dostępne do pobrania na Hugging Face i objęte licencją Apache 2.0 — a więc można je swobodnie modyfikować, wykorzystywać i wdrażać.
Czym się wyróżniają? W przeciwieństwie do klasycznych systemów moderacji treści, gpt-oss-safeguard potrafi „myśleć” w oparciu o zasady ustalone przez samego dewelopera. Innymi słowy, zamiast trenować model na tysiącach przykładów, wystarczy dać mu politykę bezpieczeństwa — a on sam rozumuje, jak ją zastosować do konkretnego przypadku.
To podejście, które OpenAI wcześniej stosowało wewnętrznie w narzędziu Safety Reasoner. Teraz po raz pierwszy udostępnia je społeczności badawczej. Modele te mają pomóc platformom internetowym tworzyć własne zasady moderacji — od wykrywania fałszywych recenzji po filtrowanie dyskusji o „cheatowaniu” w grach.
W testach gpt-oss-safeguard wypadł lepiej niż nawet część wewnętrznych systemów bezpieczeństwa OpenAI. Oczywiście, ma też swoje ograniczenia — jest wymagający obliczeniowo i nie zawsze dorównuje precyzją klasycznym modelom trenowanym na ogromnych zestawach danych. Ale jego największa siła to elastyczność: można go dostosować do dowolnych potrzeb i błyskawicznie aktualizować bez czasochłonnego trenowania.
Wspólnota bezpieczeństwa — nowy rozdział w otwartym AI
OpenAI zapowiada, że to dopiero początek. Wspólnie z organizacją ROOST firma tworzy Model Community (RMC) — społeczność deweloperów i badaczy skupionych na rozwijaniu otwartych narzędzi bezpieczeństwa AI. Celem jest wymiana doświadczeń, publikacja wyników testów i wspólne podnoszenie standardów ochrony online.
Od filantropii po miliardy i z powrotem
Nowa era OpenAI to ciekawy eksperyment: jak połączyć misję społeczną z biznesem wartym setki miliardów dolarów. Firma, która jeszcze kilka lat temu była wzorcem etycznej AI, dziś balansuje między altruizmem a kapitalizmem z Doliny Krzemowej. Ale jeśli uda jej się utrzymać równowagę, może naprawdę zrealizować swoją pierwotną wizję — uczynić sztuczną inteligencję narzędziem nie tylko zysków, ale i dobra.

