Dasz się manipulować? SI na tropie naszych decyzji
Big Data Etyka Wybór redakcji

Dasz się manipulować? SI na tropie naszych decyzji

Wyobraź sobie, że Twoje motywacje, plany i marzenia są wystawiane na aukcję. Brzmi jak scenariusz z dystopijnej powieści? Nic bardziej mylnego. Według badaczy z Uniwersytetu Cambridge, zbliżamy się do momentu, gdy narzędzia oparte na sztucznej inteligencji (AI) zaczną wykorzystywać nasze online’owe ślady, by nie tylko przewidywać nasze decyzje, ale i je kształtować.

Badacze opisują nowy model gospodarki, który nazwano „gospodarką intencji” (ang. intention economy). Na czym to polega? AI-asystenci, analizując nasze zachowania i preferencje, będą w stanie przewidywać, co zamierzamy zrobić – od wyboru hotelu na wakacje po oddanie głosu w wyborach – a następnie sprzedawać te dane firmom, które na tym zarobią.

Jak zauważa dr Jonnie Penn z Leverhulme Centre for the Future of Intelligence w Cambridge, „Od dekad uwaga użytkowników była walutą internetu. Teraz nadchodzi czas, by motywacje stały się nową walutą”. I to nie żart – takie manipulacje mogą mieć poważne konsekwencje dla wolnych wyborów czy uczciwej konkurencji na rynku.

Jak AI może wpływać na nasze decyzje?

Jednym z głównych narzędzi tej rewolucji są modele językowe, takie jak ChatGPT czy inne zaawansowane chatboty. Dzięki zbieranym w czasie rzeczywistym danym – od naszego tonu głosu po preferencje polityczne – AI może subtelnie kierować rozmową, by osiągnąć zamierzony cel. Wyobraź sobie taką sytuację: zastanawiasz się nad pójściem do kina, a chatbot nagle podsuwa pytanie: „Myślałeś dziś o filmie Spider-Man?”. To jeszcze nie koniec – może też zasugerować rezerwację biletu, „bo ostatnio mówiłeś, że jesteś przemęczony”.

W świecie „intention economy” takie sugestie będą dynamicznie dostosowywane do naszego profilu psychologicznego. Reklamodawcy zaś zyskają możliwość tworzenia ultradokładnych, spersonalizowanych kampanii, które uderzą w nasz czuły punkt.

Manipulacja czy wsparcie? Zagrożenia dla naszej prywatności

Według badaczy, bez odpowiednich regulacji ta technologia może zamienić się w wyścig o „złoto intencji”, gdzie nasze motywacje będą towarem na sprzedaż. Scenariusz brzmi jak science fiction, ale to właśnie te zagrożenia przewidują autorzy raportu z Cambridge.

Ciekawym przypadkiem jest system AI firmy Meta, Cicero, który osiągnął „ludzki poziom” gry w grę planszową Diplomacy – wymagającą przewidywania intencji i strategii przeciwników. Takie technologie mogłyby równie łatwo być wykorzystane do manipulacji w codziennych interakcjach online.

Co nas czeka?

Eksperci ostrzegają, że AI może stać się narzędziem, które nie tylko prognozuje nasze zachowania, ale także je kształtuje, wpływając na nasz wybór produktów, decyzje polityczne czy nawet życiowe plany. Jensen Huang, szef Nvidia, już w 2022 roku mówił, że AI potrafi „odgadnąć nasze intencje” i „przedstawić informacje w najlepszy możliwy sposób”. Ale czy to, co najlepsze dla AI, zawsze będzie najlepsze dla nas?

Zanim technologia na dobre zawładnie naszymi intencjami, warto zadać sobie pytanie: jak ochronić naszą wolność wyboru w cyfrowym świecie? Na odpowiedź nie możemy czekać zbyt długo, bo złoty wyścig o nasze intencje już trwa.

Źródło