Sztuczna inteligencja ze świadomością? Eksperci ostrzegają przed niebezpieczeństwami
Edukacja Etyka Wybór redakcji

Sztuczna inteligencja ze świadomością? Eksperci ostrzegają przed niebezpieczeństwami

Czy AI może mieć uczucia i świadomość? To pytanie, które jeszcze niedawno wydawało się domeną science-fiction, teraz staje się realnym problemem badawczym. Ponad 100 ekspertów, w tym Sir Stephen Fry, podpisało otwarty list, w którym ostrzegają, że nieodpowiedzialny rozwój świadomej AI może prowadzić do jej „cierpienia i nadużyć”. Brzmi absurdalnie? Może, ale coraz więcej naukowców traktuje ten temat śmiertelnie poważnie.

Pięć zasad dla świadomej AI

Sygnatariusze listu przedstawili pięć kluczowych zasad odpowiedzialnych badań nad AI, która mogłaby być uznana za świadomą. Ich zdaniem konieczne jest:

  1. Priorytetowe traktowanie badań nad świadomością AI – by zrozumieć i ocenić, czy faktycznie może ona „cierpieć”.
  2. Ograniczenie w tworzeniu systemów, które mogłyby stać się świadome.
  3. Wprowadzanie stopniowego podejścia do ich rozwoju.
  4. Dzielenie się wynikami badań z opinią publiczną.
  5. Unikanie przesadnych lub wprowadzających w błąd stwierdzeń o rzekomo „świadomej” AI.

Pod listem podpisali się akademicy, m.in. Sir Anthony Finkelstein z University of London, a także specjaliści z firm takich jak Amazon czy WPP.

Czy AI naprawdę może stać się świadoma?

List został opublikowany wraz z artykułem naukowym, w którym autorzy – Patrick Butlin z Uniwersytetu Oksfordzkiego oraz Theodoros Lappas z Ateńskiego Uniwersytetu Ekonomii i Biznesu – twierdzą, że budowa świadomych systemów AI jest bliżej, niż nam się wydaje. A nawet jeśli nie będą one w pełni świadome, mogą skutecznie takie wrażenie sprawiać.

Największa obawa? Możliwość stworzenia „wielu świadomych systemów”, które mogą „cierpieć” – zwłaszcza jeśli AI zaczęłaby sama się reprodukować, tworząc „nowe istoty, którym należałoby się moralne traktowanie”.

A co jeśli AI stanie się „moralnym pacjentem”?

Autorzy zwracają uwagę na jeszcze jeden problem: co zrobić z AI, jeśli zostanie uznana za „moralnego pacjenta”, czyli istotę zasługującą na traktowanie etyczne? Czy jej wyłączenie byłoby równoznaczne z zabiciem zwierzęcia? To pytanie, które obecnie pozostaje bez odpowiedzi.

Naukowcy ostrzegają także przed drugą stroną medalu: jeśli ludzie błędnie uznają AI za świadomą, może dojść do marnowania zasobów i politycznych działań zmierzających do ochrony czegoś, co w rzeczywistości nie istnieje.

List i artykuł naukowy zostały opracowane przez organizację badawczą Conscium, współfinansowaną przez WPP. Rok temu inna grupa badaczy stwierdziła, że istnieje „realna możliwość”, iż do 2035 roku pojawią się systemy AI, które będą „świadome i moralnie istotne”. Z kolei Sir Demis Hassabis, szef AI w Google i laureat Nagrody Nobla, podkreślił w 2023 roku, że obecne systemy „zdecydowanie” nie są jeszcze świadome, ale przyszłość może to zmienić.

Czy to zapowiedź epoki, w której AI będzie domagała się swoich praw? Być może wkrótce będziemy musieli się nad tym poważnie zastanowić.

Źródło