Bezpieczeństwo Big Data Wybór redakcji

OpenAI pod ostrzałem: Czy najpotężniejsze laboratorium AI na świecie porzuca bezpieczeństwo dla zysku?

Gdy w 2015 roku OpenAI ogłaszało swoje powstanie, wielu miało wrażenie, że oto rodzi się technologiczna organizacja z duszą. Misja była prosta i piękna: stworzyć sztuczną inteligencję, która będzie służyć całej ludzkości. Dziś, niecałą dekadę później, wielu byłych pracowników tej samej organizacji twierdzi, że OpenAI oddala się od pierwotnych ideałów szybciej niż rakieta SpaceX od przylądka Canaveral. Dlatego też powstał serwis, który analizuje wszystkie ruchy OpenAI i zbiera je w jednym miejscu: OpenAI Files

Przełom czy przegięcie?

Źródła wskazują, że OpenAI porzuca swoją strukturę non-profit, której filarem była obietnica ograniczenia zysków inwestorów. Był to rodzaj „klauzuli przyzwoitości”: jeśli zbudujemy AGI, która odmieni świat, niech zyski z tego nie skończą tylko na koncie kilku miliarderów. Dziś ten limit może zostać zniesiony. Na życzenie inwestorów, rzecz jasna.

Carroll Wainwright, były pracownik OpenAI, nie owija w bawełnę: „Misja non-profit miała być zobowiązaniem na czas próby. Teraz, kiedy ta próba nadeszła, organizacja porzuca wszystko, co wcześniej deklarowała. Czyli, jak się okazuje, te deklaracje były puste.”

Kto trzyma rękę na przycisku?

Ogień krytyki skupia się przede wszystkim na Samie Altmanie – CEO OpenAI. To nie pierwsza sytuacja, kiedy jego styl zarządzania budzi niepokój. Już wcześniej próbowano go usunąć z wcześniejszych projektów za „chaotyczne i nieuczciwe” działania. W OpenAI sytuacja eskalowała jesienią 2023 roku, gdy zarząd próbował go zwolnić, ale Altman wrócił na stanowisko, grożąc odejściem razem z kluczowymi pracownikami. Zagrał va banque – i wygrał.

Ilya Sutskever, współzałożyciel i były główny naukowiec OpenAI, który próbował Altmanowi odebrać stery, podsumował to krótko: „Nie sądzę, że Sam powinien mieć palec na spuście AGI.” Dosadnie? Być może. Ale to właśnie jego zespół odpowiadał za bezpieczeństwo przyszłych systemów AGI – czyli technologii, która ma dorównać ludzkiej inteligencji.

Bezpieczeństwo schodzi na dalszy plan

Jan Leike, który kierował zespołem superalignmentu – odpowiedzialnym za długoterminowe bezpieczeństwo AI – mówił wprost: ich praca była „żeglugą pod wiatr”. Zasoby były ograniczane, a firmowa kultura coraz bardziej skupiała się na wypuszczaniu „świecących gadżetów”, zamiast długofalowych badań. Inni, jak William Saunders, ostrzegali, że przez długi czas zabezpieczenia były na tyle słabe, że „setki inżynierów mogłyby wynieść model GPT-4 na pendrive’ie”. (Mówiąc obrazowo – to trochę tak, jakby kasjer w banku miał hasło do skarbca zapisane na karteczce przyklejonej do monitora).

Lawina rezygnacji

Od prób odwołania Altmana, OpenAI traci kolejnych specjalistów. W ciągu kilku miesięcy firmę opuściło co najmniej siedmiu badaczy bezpieczeństwa. Niektórzy zostali zwolnieni za domniemane „przecieki” – choć nikt nie pokazał żadnych dowodów. Inni, jak Daniel Kokotajlo, zrezygnowali, nie podpisując umów o milczeniu, by móc głośno mówić o tym, co ich niepokoi.

Kokotajlo wyjaśnił powód odejścia tak: „OpenAI szkoli coraz potężniejsze modele. To może być najlepsza rzecz, jaka spotka ludzkość – albo najgorsza, jeśli nie zachowamy ostrożności. Przestałem wierzyć, że kierownictwo jest w stanie działać odpowiedzialnie, więc odszedłem.”

Kto będzie pilnował pilnujących?

Po odejściu Leike’a jego miejsce zajął John Schulman, jeden ze współzałożycieli firmy. Problem w tym, że ma już na głowie bezpieczeństwo obecnych modeli. A zespół superalignmentu – według wielu – został po prostu „wydrążony”. Trudno oczekiwać, że przy takich zasobach uda się odpowiedzialnie nadzorować budowę AGI.

Byli pracownicy nie odpuszczają. Apelują o przywrócenie mocy organizacyjnej ramionowi non-profit, powołanie niezależnego nadzoru, przejrzystość działań Altmana oraz ochronę sygnalistów. Chcą też, by firma trzymała się oryginalnego modelu zysków z ograniczeniem. Innymi słowy – żeby wróciła do korzeni.

Więcej niż firmowa drama

OpenAI nie jest już tylko ciekawostką z Doliny Krzemowej. To organizacja, która kształtuje przyszłość technologiczną świata. A byli pracownicy – ci, którzy znają ją od środka – biją na alarm. Jak ostrzega była członkini zarządu Helen Toner: „Wewnętrzne mechanizmy zabezpieczające są kruche, gdy w grę wchodzą pieniądze.”

Pytanie, które dziś musimy sobie zadać, brzmi: komu powierzamy naszą przyszłość? Bo jeśli to ma być AGI – czyli inteligencja większa od naszej – to może warto wcześniej sprawdzić, kto ustawia jej kompas moralny.

Źródło

Wyjście z wersji mobilnej