Superinteligencja – bezpieczna opcja?
Ilya Sutskever, współzałożyciel i były główny naukowiec OpenAI, wystartował z nowym projektem – Safe Superintelligence Inc. (SSI). Wraz z Danielem Grossem z Y Combinator i byłym inżynierem OpenAI Danielem Levy, Sutskever planuje stworzyć superinteligentną AI, która nie tylko przewyższy ludzką inteligencję, ale też nie wywoła apokalipsy. Sutskever wierzy, że superinteligencja AI będzie możliwa w ciągu […]