Naukowcy z Uniwersytetu Naukowego w Tokio (TUS) wpadli na pomysł, który może wywrócić do góry nogami rozwój sztucznej inteligencji. Opracowali metodę, dzięki której ogromne modele AI mogą selektywnie „zapominać” określone klasy danych. Brzmi futurystycznie? To dopiero początek.
Sztuczna inteligencja wdarła się przebojem do niemal każdej branży – od medycyny po autonomiczne pojazdy. Narzędzia takie jak ChatGPT czy CLIP pokazują, jak wszechstronna może być nowoczesna technologia. Ale im bardziej AI przypomina szwajcarski scyzoryk, tym więcej pojawia się pytań o jej efektywność, koszty i… etykę.
Nie da się ukryć, że trenowanie takich modeli to energetyczny potwór. Potrzeba potężnych komputerów i ogromnych zasobów energii. Co więcej, uniwersalność modeli często okazuje się ich słabością w zastosowaniach wyspecjalizowanych. Czy w samochodach autonomicznych potrzebne jest rozpoznawanie kanapek lub kangurów? No właśnie.
– W praktyce rzadko potrzebujemy rozpoznawać wszystkie klasy obiektów – mówi profesor Go Irie, główny autor badań. – Na przykład w autonomicznych pojazdach wystarczy skupić się na samochodach, pieszych i znakach drogowych. Zachowywanie niepotrzebnych danych może jedynie obniżyć dokładność modelu i zwiększyć ryzyko wycieku informacji.
Czarne skrzynki i zapominanie
Rozwiązanie? Nauczmy AI zapominać – i to selektywnie. W teorii brzmi łatwo, w praktyce jest trudniej, zwłaszcza w przypadku modeli „czarnych skrzynek”, które ukrywają swoją wewnętrzną logikę. Tradycyjne metody wymagają wglądu w strukturę modelu, co często jest niemożliwe z powodu ograniczeń etycznych lub komercyjnych.
Tutaj na scenę wkracza japoński zespół z innowacyjną techniką „black-box forgetting”. W skrócie: naukowcy manipulują tekstowymi „podpowiedziami” (promptami), które model wykorzystuje do nauki. Robią to iteracyjnie, wykorzystując algorytm ewolucyjny Covariance Matrix Adaptation Evolution Strategy (CMA-ES), aby model stopniowo przestawał rozpoznawać wybrane kategorie.
W testach na modelu CLIP udało się osiągnąć spektakularny wynik: wyeliminowanie około 40% klas docelowych bez zaglądania do wnętrza modelu.
Po co AI zapomina?
„Zapomniana” AI to nie tylko ciekawostka, ale przede wszystkim korzyść praktyczna. Uproszczenie modeli może przyspieszyć ich działanie, obniżyć koszty i umożliwić korzystanie z nich na tańszym sprzęcie. To wielka szansa dla branż, które do tej pory trzymały się z daleka od AI z powodu wysokich barier technologicznych.
Inny ważny aspekt to etyka. Modele AI są często trenowane na ogromnych zbiorach danych, które mogą zawierać wrażliwe informacje. Jak więc usunąć dane bez konieczności tworzenia modelu od nowa? „Selective forgetting” wydaje się idealnym rozwiązaniem.
– Przeuczenie modelu na nowo pochłania ogromne ilości energii – podkreśla prof. Irie. – Maszynowe „zapominanie” może być znacznie bardziej efektywne.
Badania zespołu z TUS to przełom nie tylko technologiczny, ale i moralny. Możliwość kontrolowania pamięci AI otwiera drogę do jej bardziej świadomego i odpowiedzialnego wykorzystania. Oczywiście zawsze istnieje ryzyko nadużyć, ale to dowód, że naukowcy nie tylko rozwijają technologię, lecz także starają się rozwiązywać jej dylematy.
Czy AI zapomni o pewnych rzeczach? Dzięki badaniom z Tokio możemy być tego coraz bardziej pewni. A to może oznaczać, że sztuczna inteligencja stanie się nie tylko sprytniejsza, ale i bezpieczniejsza dla nas wszystkich.