Zagrożenia AI na szczycie w Seulu: Czy ignorujemy ryzyko dla ludzkości?
Bezpieczeństwo Etyka Technologia

Zagrożenia AI na szczycie w Seulu: Czy ignorujemy ryzyko dla ludzkości?

Ostatnie doniesienia z Seulu rzucają nowe światło na debatę dotyczącą sztucznej inteligencji, podkreślając jej potencjalne zagrożenia dla ludzkości.

Max Tegmark, wybitny naukowiec i działacz na rzecz AI, ostrzega, że możemy tracić z oczu prawdziwe zagrożenie, jakie AI stanowi dla ludzkości. W rozmowie z „The Guardian” na szczycie AI w Seulu, Tegmark wyraził obawy, że zmiana podejścia od zagrożeń egzystencjalnych do szerszego pojęcia bezpieczeństwa AI może opóźnić wprowadzenie surowych regulacji.

Tegmark przypomina, że Enrico Fermi zbudował pierwszy reaktor jądrowy w 1942 roku, co uświadomiło fizykom, że bomba atomowa jest kwestią kilku lat. Podobnie, AI, które zdają test Turinga, ostrzegają przed utratą kontroli. Ludzie tacy jak Geoffrey Hinton czy Yoshua Bengio zaczynają się poważnie niepokoić.

Instytut Przyszłości Życia, współzałożony przez Tegmarka, zapoczątkował apel o przerwę w badaniach nad AI. Mimo tysięcy podpisów, w tym Hinton i Bengio, nie doszło do przerwy. Zamiast tego, konferencje AI, takie jak ta w Seulu, prowadzą dyskusje o regulacjach.

Tegmark uważa, że bagatelizowanie najpoważniejszych ryzyk nie jest zdrowe i jest wynikiem lobbingu przemysłowego. Porównuje to do przemysłu tytoniowego, który opóźniał regulacje mimo dowodów na szkodliwość palenia. Tegmark twierdzi, że liderzy technologiczni czują się uwięzieni w sytuacji, gdzie nawet jeśli chcą się zatrzymać, nie mogą, i wprowadzenie przez rząd standardów bezpieczeństwa jest jedynym rozwiązaniem.

Źródło