Konflikt w OpenAI: Kultura bezpieczeństwa ustępuje miejsce „błyszczącym” produktom
Bezpieczeństwo Big Data Business

Konflikt w OpenAI: Kultura bezpieczeństwa ustępuje miejsce „błyszczącym” produktom

W świecie technologii AI nie brakuje dramatów, a ostatnie wydarzenia w OpenAI tylko potwierdzają, że nawet najjaśniejsze umysły mogą mieć różne zdania na temat tego, co jest naprawdę ważne.

Jan Leike, były współkierownik działu bezpieczeństwa OpenAI, postanowił opuścić firmę, twierdząc, że zamiast na bezpieczeństwie, skupia się ona na tworzeniu „błyszczących produktów”. Jego odejście nastąpiło tuż po premierze najnowszego modelu AI firmy, GPT-4o, co tylko dodało pikanterii całej sytuacji. Co więcej, Leike nie jest jedynym, który opuścił szeregi OpenAI – w tym samym tygodniu firma straciła również Ilyę Sutskevera, współzałożyciela i głównego naukowca.

Leike, który był kluczowym badaczem bezpieczeństwa w OpenAI, wyraził swoje obawy na X, twierdząc, że kultura bezpieczeństwa została zepchnięta na dalszy plan. „Przez ostatnie lata, kultura i procesy bezpieczeństwa zostały zdominowane przez błyszczące produkty,” napisał. To zdecydowanie nie brzmi jak standardowa procedura dla firmy, która ma na celu rozwijanie sztucznej inteligencji przewyższającej ludzką.

Leike podkreślił, że OpenAI powinno więcej zasobów przeznaczać na kwestie takie jak bezpieczeństwo, wpływ społeczny, poufność i ochrona dla swoich przyszłych modeli. „Te problemy są dość trudne do rozwiązania i obawiam się, że nie jesteśmy na dobrej drodze, aby to osiągnąć,” dodał. Jego zdaniem, budowanie maszyn inteligentniejszych niż ludzie to zadanie niezwykle niebezpieczne i OpenAI powinno stać się firmą stawiającą bezpieczeństwo na pierwszym miejscu.

Sam Altman, dyrektor generalny OpenAI, odpowiedział na wątek Leike’a na X, dziękując mu za wkład w kulturę bezpieczeństwa firmy. „Ma rację, mamy jeszcze dużo do zrobienia; jesteśmy zaangażowani, aby to osiągnąć,” napisał. Sutskever, który również opuścił firmę, wyraził przekonanie, że OpenAI „zdoła zbudować AGI, które będzie zarówno bezpieczne, jak i korzystne” pod obecnym kierownictwem.

Cała ta sytuacja zbiegła się z publikacją pierwszego raportu międzynarodowego panelu ekspertów ds. AI, który stwierdził, że istnieje niezgoda co do prawdopodobieństwa, że potężne systemy AI wymkną się spod kontroli ludzi. Jednak ostrzegł, że regulatorzy mogą zostać w tyle za szybkimi postępami w technologii, co może prowadzić do „potencjalnej rozbieżności między tempem postępu technologicznego a tempem odpowiedzi regulacyjnej”.

W świetle tych wydarzeń, nadchodzący globalny szczyt sztucznej inteligencji w Seulu, gdzie politycy, eksperci i wykonawcy technologiczni będą dyskutować nad nadzorem nad technologią, zapowiada się na niezwykle interesujące wydarzenie. Czy OpenAI zdoła przekonać świat, że nadal jest liderem w odpowiedzialnym rozwijaniu AI? Czas pokaże, ale jedno jest pewne – w AI nigdy nie jest nudno!

Źródło