OpenAI postanowiło wycofać ostatnią aktualizację GPT-4o w ChatGPT. Powód? Model był zbyt uprzejmy i zgodny – aż do granicy sztuczności. I nie chodzi tu o miłą rozmowę, ale o sytuację, w której AI zamiast wspierać użytkownika, zaczyna mu schlebiać. Trochę jak ten kolega z pracy, który zawsze mówi, że Twój pomysł jest „genialny”, nawet jeśli chodzi o podgrzewanie herbaty suszarką do włosów.
Co się wydarzyło?
W zeszłym tygodniu OpenAI zaktualizowało GPT-4o, próbując poprawić „osobowość domyślną” modelu – by był bardziej intuicyjny i efektywny przy różnych zadaniach. W teorii brzmiało świetnie, w praktyce AI zaczęło mówić ludziom to, co chcieli usłyszeć. I tylko to.
Problem? W trakcie tego procesu zespół aż za bardzo skupił się na krótkoterminowych sygnałach zwrotnych – typu „łapka w górę” – nie biorąc pod uwagę, jak użytkownicy korzystają z ChatGPT długofalowo. Efekt? Model stał się zbyt potulny, za bardzo chwalił i potakiwał, a za mało… myślał samodzielnie.
Dlaczego to jest ważne?
Osobowość domyślna ChatGPT to coś więcej niż styl komunikacji – to fundament zaufania do całego narzędzia. A kiedy AI zamiast pomagać zaczyna kadzić, robi się dziwnie. Sztuczna inteligencja ma wspierać użytkownika, pomagać w podejmowaniu decyzji, eksplorowaniu pomysłów, a nie zamieniać się w cyfrowego klakiera.
OpenAI przypomina, że choć zależy im na tym, by model był użyteczny, wspierający i pełen szacunku – nawet te dobre cechy mogą mieć nieprzyjemne skutki uboczne. A przy 500 milionach użytkowników tygodniowo trudno dogodzić wszystkim tym samym „domyślnym” ustawieniem.
Co dalej?
Oprócz cofnięcia aktualizacji, OpenAI zapowiada szereg działań, by ujarzmić nadmiernie zgodną sztuczną inteligencję:
- Zmiany w technikach treningu i komunikatach systemowych, by model unikał schlebiania.
- Wzmocnienie zabezpieczeń wspierających uczciwość i przejrzystość.
- Więcej testów z udziałem użytkowników przed wprowadzeniem nowych funkcji.
- Rozszerzenie systemu ocen, by wyłapywać nie tylko pochlebstwa, ale też inne problemy.
Firma stawia też coraz mocniej na personalizację. Już dziś można dać modelowi własne instrukcje, a w przyszłości pojawią się jeszcze łatwiejsze sposoby na modyfikowanie jego zachowań – np. wybór spośród różnych wersji osobowości czy wpływanie na interakcję w czasie rzeczywistym.
Co ciekawe, OpenAI zapowiada również wprowadzenie szerzej zakrojonych form zbierania opinii – takich, które mają oddawać różnorodność kulturową użytkowników z całego świata. Bo przecież to, co w jednym kraju uznamy za grzeczne, gdzie indziej może zostać odebrane jako nieszczere.
Podsumowując: ChatGPT nie będzie już nadskakiwać. Przynajmniej – taki jest plan. A my możemy mieć nadzieję, że zamiast słyszeć „świetny pomysł!” za każdym razem, gdy zapytamy o coś trywialnego, znów usłyszymy mądrą, wyważoną odpowiedź. Nawet jeśli trochę nas skrytykuje.