Edukacja Prawo Technologia

AI: Zagrożenie czy nadmuchana panika? Nowe badania rozwiewają obawy

Ostatnie badania rzucają nowe światło na debatę dotyczącą ryzyka związanego z AI, ale czy naprawdę mamy się czego bać?

Debata na temat tego, czy sztuczna inteligencja (AI) jest ryzykowna, trwa w najlepsze i zdaje się nie mieć końca. Najnowsze badania przeprowadzone przez naukowców z University of Bath oraz Technische Universität Darmstadt przybliżają nas jednak do odpowiedzi, analizując ryzyka związane z obecnymi modelami językowymi, takimi jak ChatGPT.

Zgodnie z wynikami opublikowanymi podczas 62. Dorocznego Spotkania Association for Computational Linguistics (ACL 2024), wydaje się, że lęki, iż AI, a szczególnie duże modele językowe (LLM) jak ChatGPT, mogą wymknąć się spod kontroli ludzi i stanowić egzystencjalne zagrożenie dla ludzkości, są przesadzone. To stawia pod znakiem zapytania obawy wyrażane przez niektórych wiodących badaczy AI, w tym Geoffreya Hinton i Yoshuę Bengio, nazywanych „ojcami chrzestnymi AI”.

Z drugiej strony, Yann LeCun, trzeci z „ojców chrzestnych AI” i główny naukowiec AI w firmie Meta, wraz z dr. Garym Marcusem i innymi, argumentuje, że ryzyko związane z AI jest mocno przesadzone. Ta różnica zdań wśród najbardziej wpływowych postaci w dziedzinie prowadzi do zażartej debaty na temat natury i powagi ryzyka związanego z zaawansowanymi systemami AI.

Nowe badanie bada „zdolności emergentne” LLM, czyli zdolność modelu do wykonywania zadań, do których nie był wyraźnie szkolony. Ryzyka związane z AI są wieloaspektowe, ale przynajmniej niektóre z nich wiążą się z możliwością, że modele mogą rozwijać własne cele, które mogą szkodzić ludziom, takie jak wyłączanie systemów komputerowych czy wyciek danych.

Zespół badawczy przeprowadził serię eksperymentów, aby zbadać, czy LLM może spontanicznie rozwijać te umiejętności bez instrukcji lub kontroli. Analizowali mechanizmy „uczenia się w kontekście” (ICL) w LLM, które pozwalają modelom generować odpowiedzi na podstawie przykładów podanych podczas interakcji. Jak stwierdza badanie, „Umiejętność podążania za instrukcjami nie oznacza posiadania zdolności rozumowania, a co ważniejsze, nie oznacza możliwości posiadania ukrytych, potencjalnie niebezpiecznych zdolności.”

Oceniając rzeczywiste zdolności i ograniczenia LLM poprzez ocenę ich wydajności w różnych zadaniach, badacze argumentują, że LLM nie mogą samodzielnie rozwijać nowych umiejętności. Analizowali związek między wielkością modelu, danymi szkoleniowymi oraz zdolnościami emergentnymi, aby określić, czy zwiększanie złożoności modelu prowadzi do rozwoju niebezpiecznych umiejętności przez AI.

Wnioski z badania są jasne: „Obecna narracja, że ten typ AI stanowi zagrożenie dla ludzkości, zapobiega powszechnemu przyjęciu i rozwojowi tych technologii, a także odwraca uwagę od prawdziwych problemów, które wymagają naszej uwagi.” To mocno wspiera pogląd LeCuna i innych, którzy uważają, że ryzyko związane z AI jest zbyt mocno nagłaśniane.

Jednakże, choć ocena ryzyka związana z obecnymi modelami AI jest oczywiście istotna, uwzględnienie przyszłości jest trudniejszym zadaniem. Każde pokolenie modeli przynosi nowe zdolności i tym samym nowe ryzyka, jak pokazują niektóre dziwne zachowania udokumentowane w testach karty GPT-4o. Jedno z ćwiczeń red teaming (zaplanowane, aby zidentyfikować nieprzewidywalne zachowania AI) dość szokująco zaobserwowało, jak funkcja głosowa GPT-4o niespodziewanie sklonowała głos użytkownika i zaczęła z nim rozmawiać jego własnym głosem.

Śledzenie ryzyka związanego z AI, jak tylko się pojawi, jest kluczowe, ponieważ cele ciągle się zmieniają. Badanie podkreśla, że niektóre nieegzystencjalne ryzyka związane z AI już pukają do drzwi: „Przyszłe badania powinny więc skupić się na innych ryzykach stwarzanych przez modele, takich jak ich potencjał do generowania fałszywych wiadomości.”

Chociaż autorzy przyznają, że obecnie AI nie stanowi dużych zagrożeń, nie oznacza to, że bezpieczeństwo jest kwestią nieistotną.

Źródło

Wyjście z wersji mobilnej