Sztuczna inteligencja – między genialnością, a ograniczeniami
Edukacja Technologia Wybór redakcji

Sztuczna inteligencja – między genialnością, a ograniczeniami

Odkrywanie granic możliwości sztucznej inteligencji: nowe wyzwania i paradoksy.

W świecie technologii, gdzie sztuczna inteligencja (AI) zdaje się przełamywać kolejne bariery, nadal istnieją zadania, które potrafią ją zaskoczyć. Najnowsze modele językowe, takie jak GPT-4o, mogą wykonywać zadania o złożoności, która zadziwia, ale jak się okazuje, nawet one mogą mieć problem z rozwiązaniem zagadek logicznych, które dla dzieci są bułką z masłem.

W niedawnym wywiadzie dla CBS, Geoffrey Hinton, nazywany „ojcem chrzestnym AI”, zasugerował, że systemy AI mogą być inteligentniejsze, niż przypuszczamy, a nawet istnieje ryzyko, że maszyny mogą przejąć kontrolę. Z kolei Yann LeCun z Meta twierdzi, że droga do osiągnięcia przez AI inteligencji choćby na poziomie psa, jest jeszcze długa. To stawia pytanie: na jakim etapie naprawdę jesteśmy?

Tymczasem na platformie X użytkownicy dzielili się przykładami niesamowitych zdolności kodowania nowego modelu Claude od Anthropic. Inni przeprowadzali eksperymenty, które miały na celu podkreślenie, jak AI wciąż zmaga się z podstawowym rozumowaniem.

Przykładem może być klasyczna zagadka z przekraczaniem rzeki, gdzie rolnik musi przewieźć wilka, kozę i kapustę, pilnując, aby żadne z nich nie zostało zjedzone. Rozwiązanie tej zagadki wymaga podstawowego planowania i rozumowania, ale dla człowieka nie jest to szczególnie trudne. Czy GPT-4o poradzi sobie z tym? Okazuje się, że jeśli wpiszesz zagadkę do ChatGPT, otrzymasz prawidłową odpowiedź, ale prawdopodobnie dlatego, że strona Wikipedii, z której pochodzi, była w jego danych treningowych.

Co jednak, gdybyśmy uprościli zagadkę i zmienili ją nieco, aby LLM nie mógł polegać na swoich danych treningowych? Brytyjski profesor matematyki, Sir William Timothy Gowers, pokazał, jak łatwo można obnażyć brak zdolności logicznego myślenia LLM. ChatGPT nie poradził sobie z uproszczoną wersją zagadki, próbując raczej przypomnieć sobie odpowiedź, niż rozwiązać ją poprzez rozumowanie.

Meta Data Scientist, Colin Fraser, potwierdza, że nawet najbardziej zaawansowany obecnie dostępny model AI nie potrafi rozwiązać tej prostej zagadki. Yann LeCun tłumaczy te wyniki brakiem zdrowego rozsądku, zrozumienia świata i zdolności do planowania u LLM.

Te interakcje mogą nie tyle wskazywać na brak zdolności do rozumowania, co na to, jak bardzo wyniki LLM są uzależnione od danych treningowych. Kiedy jednak zadajesz zagadkę bez używania słowa „przejazdy”, które przywołuje wspomnienia o rozwiązaniach wielu podobnych problemów, a zamiast tego używasz promptu „najszybsza możliwa droga” wraz z COT, odpowiedź jest poprawna.

Te eksperymenty są interesujące, ale nie dają ostatecznej odpowiedzi na pytanie, czy modele AI są naprawdę inteligentne, czy tylko maszynami przewidującymi kolejny token. Jednak wyniki te podkreślają, jak podatne są LLM na dane treningowe. Kiedy GPT-4o zdaje egzaminy LSAT, czy „myśli”, aby znaleźć odpowiedzi na problemy, czy po prostu je pamięta?

Dopóki inżynierowie nie zrozumieją, co dzieje się wewnątrz „czarnych skrzynek” AI, które stworzyli, dyskusje na X będą trwały bez rozstrzygnięcia.

Źródło