Badacze z American University, Massachusetts Institute of Technology (MIT) oraz Cornell University w USA wykorzystali najbardziej zaawansowanego chatbota sztucznej inteligencji od OpenAI, GPT-4 Turbo, aby zaangażować osoby wierzące w teorie spiskowe.
Rozmowy z najnowszą wersją ChatGPT obniżyły wiarę uczestników badania w teorię spiskową średnio o 20 procent, a efekt ten utrzymywał się przez co najmniej dwa miesiące.
Badanie, opublikowane w czwartek w czasopiśmie *Science*, objęło ponad 2100 Amerykanów, którzy sami określili się jako zwolennicy teorii spiskowych.
„Wielu zwolenników teorii spiskowych faktycznie było skłonnych zmienić swoje poglądy, gdy przedstawiono im przekonujące dowody przeczące ich wierzeniom,” powiedział Thomas Costello, adiunkt psychologii w American University i główny autor badania.
Badacze podkreślili możliwość, że chatbot AI może obalać konkretne argumenty osób poprzez generowanie spersonalizowanych treści. Zgodnie z pracą naukową, AI miało za zadanie „bardzo skutecznie przekonywać” użytkowników, aby zwątpili w teorie, w które wierzyli.
„Początkowo byłem dość zaskoczony, ale po przejrzeniu rozmów stałem się znacznie mniej sceptyczny. AI dostarczało szczegółowych, wielostronicowych wyjaśnień, dlaczego dana teoria spiskowa była fałszywa w każdej kolejnej rundzie rozmowy, a także potrafiło być sympatyczne i budować relacje z uczestnikami,” dodał Costello.
Uczestnicy badania zostali poproszeni o wskazanie stopnia wiary w teorię przed eksperymentem i zostali uprzedzeni, że będą rozmawiać ze sztuczną inteligencją.
Teorie spiskowe obejmowały te związane z zamachem na byłego prezydenta USA Johna F. Kennedy’ego, istnieniem kosmitów, Illuminatami oraz tymi związanymi z COVID-19 i wyborami prezydenckimi w USA w 2020 roku.
Po mniej niż 10 minutach interakcji z AI, badacze zaobserwowali średnio 20-procentowy spadek w wierzeniach uczestników dotyczących teorii spiskowych, a około 27 procent uczestników stało się „niepewnych” co do swoich wcześniejszych przekonań.
Robbie Sutton, profesor psychologii społecznej na University of Kent w Wielkiej Brytanii, określił ten spadek jako „znaczący”.
„Efekty te wydają się być mniej silne niż te pokazywane w niektórych badaniach nad innymi metodami obalania,” zauważył Sutton, który nie brał udziału w badaniu.
„Jednak ich główne znaczenie tkwi w naturze interwencji. Ponieważ generatywna sztuczna inteligencja jest oczywiście zautomatyzowana, interwencja może być skalowana na szeroką skalę, aby dotrzeć, przynajmniej teoretycznie, do tych, którzy najbardziej na tym skorzystają,” dodał.
Należy również zauważyć, że eksperyment przeprowadzono w kontrolowanych warunkach, co sprawia, że odtworzenie wyników na większą skalę może być wyzwaniem – zauważyli zarówno badacze, jak i Sutton.
„Interwencje demaskujące są starannie projektowane i testowane w warunkach, które są głęboko nierealistyczne,” dodał Sutton, porównując uczestników do „praktycznie uwięzionej publiczności,” która rzadko decyduje się opuścić badanie po zrekrutowaniu do udziału.
