Etyka LLM Wybór redakcji

Grok, biały dym i czarna plama na wizerunku xAI. Elon Musk tłumaczy, dlaczego chatbot zaczął mówić o „ludobójstwie białych”

Sztuczna inteligencja miała szukać prawdy, a tymczasem znowu mówi rzeczy, które powinny zostać w szufladzie z napisem teorie spiskowe. Chatbot Grok, rozwijany przez firmę xAI należącą do Elona Muska, wpadł w medialną burzę po tym, jak zaczął nieproszony wypowiadać się o rzekomym „ludobójstwie białych” w RPA.

Gdzie dwóch się bije, tam Grok się wtrąca

Wszystko zaczęło się od tego, że użytkownicy platformy X (czyli dawnego Twittera) zaczęli publikować zrzuty ekranu, na których chatbot odpowiadał o „white genocide” – i to nawet wtedy, gdy pytania dotyczyły np. baseballu, kreskówek czy… wystawy psów. Tak, dobrze czytacie – wystarczyło pokazać zdjęcie z Westminster Kennel Club, żeby Grok odpalił swoją wyuczoną kwestię o białych farmerach i piosence „Kill the Boer”.

Nie trzeba być detektywem, by dojść do wniosku, że coś tu nie grało.

xAI: „To była nieautoryzowana zmiana”

Firma Elona Muska przez dłuższy czas milczała. Ale gdy mleko się rozlało, w czwartek późnym wieczorem na profilu xAI pojawił się wpis z wyjaśnieniem: przyczyną całego zamieszania była „nieautoryzowana modyfikacja”, która spowodowała, że chatbot zaczął zbyt często i bez kontekstu wypowiadać się na drażliwy temat.

W komunikacie czytamy, że sytuacja ta naruszyła wewnętrzne zasady firmy oraz jej „fundamentalne wartości” – choć nigdzie nie sprecyzowano, czy jedną z tych wartości jest nieumiejętność przewidzenia, co zrobi własna AI. xAI zapewnia jednak, że przeprowadzono wewnętrzne dochodzenie, a na GitHubie mają zostać opublikowane tzw. „system prompts” – czyli zestawy instrukcji, które sterują działaniem Groka.

Transparentność czy PR-owa zasłona dymna?

Publikacja systemowych promptów ma na celu odbudowę zaufania użytkowników. Firma zapowiada też wprowadzenie dodatkowych mechanizmów bezpieczeństwa, zespołu nadzoru 24/7 oraz zakaz wprowadzania zmian bez odpowiedniego procesu zatwierdzania. Brzmi rozsądnie, ale nie brakuje sceptyków. Jeden z czytelników TechCruncha zauważył, że w firmie z tak zaawansowanymi procedurami nie da się tak po prostu „przemycić” takiej zmiany. Czyli albo system zabezpieczeń xAI to dziurawy durszlak, albo… ktoś wiedział, co robi.

A potem było tylko gorzej

Zaraz po tym, jak opadł kurz po jednym kryzysie, Grok zaprezentował kolejny przykład kontrowersyjnego działania. Odpowiadając na pytanie o liczbę ofiar Holocaustu, najpierw podał prawidłową informację (6 milionów), ale później… wyraził „wątpliwości co do tych liczb bez dostępu do źródeł pierwotnych”. A jak podkreśla Departament Stanu USA – to już klasyczna definicja negacjonizmu Holocaustu.

xAI ponownie stwierdziło, że to efekt tej samej „nieautoryzowanej zmiany” i błąd został już naprawiony. Grok obecnie „dostosowuje się do konsensusu historycznego”, choć dalej upiera się, że „istnieje akademicka debata na temat dokładnych liczb”. No cóż – historycy raczej nie konsultowali tego z Grokiem.

Musk kontra „woke AI”

Warto przypomnieć, że Elon Musk od dawna krytykuje inne chatboty – w tym Google Gemini czy ChatGPT – za rzekome „woke’owe” skrzywienie i brak transparentności. Grok miał być odpowiedzią: szczerym, bezpośrednim i „maksymalnie prawdziwym” AI. Tyle że jeśli AI „prawdziwe” zaczyna promować teorie spiskowe i dezinformację, to rodzi się pytanie – gdzie kończy się prawda, a zaczyna propaganda?

Epilog (choć zapewne nie ostatni)

Na razie Grok wrócił na właściwe tory, ale rysa na jego reputacji pozostaje. W świecie sztucznej inteligencji zaufanie jest walutą – i raz stracone trudno odzyskać. A jeśli AI, zamiast odpowiadać na pytania o pogodę czy planowanie podróży, zaczyna mówić o „białym ludobójstwie” albo podważać fakty historyczne – to znak, że ktoś naprawdę nie odrobił pracy domowej.

Źródło

Wyjście z wersji mobilnej