Superinteligencja – bezpieczna opcja?
Business Bezpieczeństwo Big Data Technologia Wybór redakcji

Superinteligencja – bezpieczna opcja?

Ilya Sutskever, współzałożyciel i były główny naukowiec OpenAI, wystartował z nowym projektem – Safe Superintelligence Inc. (SSI). Wraz z Danielem Grossem z Y Combinator i byłym inżynierem OpenAI Danielem Levy, Sutskever planuje stworzyć superinteligentną AI, która nie tylko przewyższy ludzką inteligencję, ale też nie wywoła apokalipsy.

Sutskever wierzy, że superinteligencja AI będzie możliwa w ciągu dziesięciu lat. „Superinteligencja jest w zasięgu ręki. Budowanie bezpiecznej superinteligencji (SSI) to najważniejszy problem techniczny naszych czasów” – napisał na platformie X. No dobrze, Ilya, tylko nie zapomnij dodać przycisku „Panic” na wszelki wypadek!

Czy SSI to antyteza OpenAI? Choć Sutskever i CEO OpenAI Sam Altman publicznie się szanują, ostatnie wydarzenia sugerują napięcia. Sutskever próbował usunąć Altmana, co później nazwał błędem. No cóż, każdy ma gorszy dzień w pracy.

Zespół OpenAI ds. „superalignmentu” praktycznie się rozpadł po odejściu Sutskevera i Jana Leike. Sutskever postanowił odejść, by realizować własną wizję rozwoju AI, którą OpenAI wydaje się porzucać.

SSI podchodzi do bezpieczeństwa AI na serio: „Podchodzimy do bezpieczeństwa i zdolności jednocześnie, jako problemy techniczne do rozwiązania.” W skrócie, chcą stworzyć superinteligencję, która nas nie zniszczy. Ambitnie, prawda?

Aby osiągnąć swoje cele, SSI rekrutuje najlepszych inżynierów i badaczy z Palo Alto i Tel Awiwu. „Jeśli to właśnie ty, oferujemy możliwość realizacji pracy twojego życia” – zachęcają. Brzmi jak marzenie każdego nerdowatego geniusza.

Do gry dołącza nowy zawodnik. Będzie ciekawie zobaczyć, kto zasili szeregi SSI, a może nawet skusi się na transfer z OpenAI.

Źródło