Ludzkość kontra maszyny: Wiedeńska konferencja o przyszłości autonomicznych systemów broni
Bezpieczeństwo Technologia Wojsko

Ludzkość kontra maszyny: Wiedeńska konferencja o przyszłości autonomicznych systemów broni

Wiedeńska konferencja wzywa do kontroli nad autonomicznymi systemami broni AI, by to człowiek pozostał na sterach

W tej chwili, gdy technologia rozwija się szybciej niż kiedykolwiek, a konferencje międzynarodowe przypominają raczej rodzinne zjazdy geeków, Wiedeń stał się na chwilę epicentrum dyskusji o przyszłości autonomicznych systemów broni. Właśnie tam odbyła się konferencja z udziałem przedstawicieli 143 krajów, mająca na celu zahamowanie rozwoju tzw. „robotów-killerów”. Czy to brzmi jak scenariusz najnowszego filmu science fiction? Może i tak, ale jest to gorzka rzeczywistość.

Podczas konferencji zorganizowanej przez Austriackie Federalne Ministerstwo ds. Europy i Spraw Międzynarodowych, uczestnicy nie szczędzili dramatycznych stwierdzeń. „Stoimy na rozdrożu, musimy działać razem, aby sprostać temu fundamentalnemu wyzwaniu, jakim jest regulacja tych broni,” mówili organizatorzy. Nie chodzi tu o kolejną regulację prędkości na autostradach, ale o coś, co może zdecydować o życiu i śmierci.

Minister Spraw Zagranicznych Austrii, Alexander Schallenberg, podkreślił, że „najbardziej doniosłe i dalekosiężne decyzje, kto żyje, a kto umiera, powinny pozostać w rękach ludzi, a nie maszyn”. To trochę jakby powiedzieć, że nie chcemy, aby HAL 9000 z „Odysei kosmicznej” przejął kontrolę nad naszymi obronnością, prawda?

Oczywiście, na konferencji nie mogło zabraknąć paneli dyskusyjnych, które pokryły tematy od obecnego kierunku rozwoju technologii po implikacje „autonomii” dla międzynarodowego bezpieczeństwa. A jeśli myślisz, że to tylko nudne gadanie, to warto wspomnieć, że omówiono także etyczne i prawne implikacje traktowania ludzi jako danych przez sensory i algorytmy, co brzmi jak początek dystopijnego filmu, gdzie roboty decydują, kogo należy „usunąć”.

Prezydent Międzynarodowego Komitetu Czerwonego Krzyża, Mirjana Spoljaric, nie owijała w bawełnę, mówiąc o „moralnych porażkach w obliczu wspólnoty międzynarodowej”. Czyżby roboty miały stać się nowymi moralnymi arbitrami? A Jaan Tallinn, programista i inwestor technologiczny, przypomniał, że AI już teraz popełnia błędy, na przykład w piłce nożnej czy samochodach autonomicznych. „Musimy być niezwykle ostrożni, polegając na dokładności tych systemów, czy to w sektorze wojskowym, czy cywilnym,” ostrzegł.

Podsumowując, jeśli myślałeś, że największym zagrożeniem są drony dostarczające pizzę, to konferencja w Wiedniu pokazała, że mamy znacznie większe ryby do smażenia. A może raczej roboty do programowania, aby nie zdecydowały, że to my jesteśmy na obiad. Czas pokaże, czy światowi liderzy wezmą sobie te ostrzeżenia do serca, czy też autonomiczne systemy broni stanie się kolejnym „hot topic” na Twitterze.

Źródło