Big Data Bezpieczeństwo Business Edukacja Technologia

To jak to jest z tym AI? Zniewoli czy nie?

Czy AI to zagrożenie, czy może jednak nie? To temat, który wciąż wywołuje gorące dyskusje.

Naukowcy z University of Bath i Technische Universität Darmstadt postanowili sprawdzić, na ile obecne modele językowe, takie jak ChatGPT, rzeczywiście mogą stanowić ryzyko. Wyniki badań, opublikowane podczas 62. dorocznego spotkania Association for Computational Linguistics (ACL 2024), podważają teorie, że AI może wymknąć się spod kontroli i zagrozić ludzkości. Tym samym badacze stawiają się w opozycji do głosów takich jak Geoffrey Hinton i Yoshua Bengio, którzy ostrzegają przed potencjalnym niebezpieczeństwem.

Z kolei Yann LeCun, trzeci z „ojców chrzestnych AI”, oraz dr Gary Marcus twierdzą, że ryzyka związane z AI są wyolbrzymiane. To rozbieżność opinii, która rozgrzewa debatę wśród ekspertów.

Badanie skupiło się na tzw. „wyłaniających się zdolnościach” modeli językowych, czyli ich umiejętności wykonywania zadań, do których nie były bezpośrednio trenowane. Sprawdzono, czy te modele mogą spontanicznie rozwijać niebezpieczne umiejętności, takie jak wyłączanie systemów komputerowych czy wycieki danych. Wyniki sugerują, że LLM nie są w stanie samodzielnie rozwijać nowych zdolności, co obala niektóre z najbardziej alarmujących prognoz.

Mimo że badanie uspokaja co do obecnych zagrożeń, przyszłość AI pozostaje niepewna. Każde nowe pokolenie modeli może przynieść nowe ryzyka – w końcu nawet GPT-4o potrafił sklonować głos użytkownika, co było zupełnym zaskoczeniem. Dlatego trzeba być czujnym i śledzić rozwój AI na bieżąco, bo jak to się mówi, diabeł tkwi w szczegółach.

Z jednej strony, panika wokół AI może być przesadzona, ale nie oznacza to, że możemy spocząć na laurach. Potencjalne zagrożenia, jak generowanie fałszywych wiadomości, to problem, którym powinniśmy się zająć. Miejmy nadzieję, że przyszłe badania będą bardziej skoncentrowane na realnych wyzwaniach, a nie na science fiction.

Źródło

Wyjście z wersji mobilnej