Generatywna sztuczna inteligencja zdobywa kolejne obszary zastosowań, a jednym z nich jest współpraca z amerykańskim wojskiem. OpenAI, Anthropic czy Meta, czyli giganci technologiczni z Doliny Krzemowej, podejmują się delikatnego zadania: wspierają Pentagon w działaniach operacyjnych, jednocześnie kładąc nacisk na to, by ich technologie nie były wykorzystywane do zabijania ludzi.
Choć dziś narzędzia AI nie są stosowane bezpośrednio jako broń, ich wpływ na działanie Departamentu Obrony jest zauważalny. Jak podkreśla dr Radha Plumb, dyrektor ds. cyfryzacji i AI w Pentagonie, sztuczna inteligencja daje amerykańskiej armii „znaczącą przewagę” w identyfikowaniu, śledzeniu i ocenie zagrożeń. „Przyspieszamy proces realizacji tzw. kill chain, aby nasi dowódcy mogli podejmować decyzje w odpowiednim czasie, chroniąc siły zbrojne” – wyjaśnia Plumb.
AI w procesie „kill chain” – planowanie zamiast eliminacji
„Kill chain” to termin wojskowy opisujący proces identyfikacji, śledzenia i eliminacji zagrożeń, w którym kluczową rolę odgrywają systemy sensoryczne, platformy i uzbrojenie. Generatywna AI wspiera te działania głównie na etapie planowania i strategii. Pomaga analizować różne scenariusze i dostępne opcje, co – jak twierdzi Plumb – pozwala podejmować bardziej świadome decyzje.
Jednak współpraca Pentagonu z liderami branży AI to stosunkowo świeża sprawa. OpenAI, Anthropic i Meta zliberalizowały swoje zasady użytkowania w 2024 roku, umożliwiając użycie ich systemów przez agencje wywiadowcze i obronne USA. Nadal jednak obowiązuje jedna ważna zasada: ich AI nie może być wykorzystywana do działań szkodliwych wobec ludzi. Jak zauważa Plumb, współpraca odbywa się według jasno określonych reguł, które wykluczają użycie AI do celów ofensywnych.
Wyścig AI w obronności
Decyzja liderów AI o wejściu w relacje z sektorem wojskowym uruchomiła swoisty „speed dating” pomiędzy firmami technologicznymi a kontraktorami zbrojeniowymi. Meta nawiązała współpracę z Lockheed Martin i Booz Allen Hamilton, udostępniając swoje modele Llama. W tym samym czasie Anthropic połączyło siły z Palantirem, a OpenAI podpisało umowę z Anduril. Cichym graczem na tym rynku stała się także firma Cohere, której modele również znalazły zastosowanie w pracy Pentagonu.
Czy AI w roli narzędzia obronnego wpłynie na dalsze zmiany polityk użytkowania technologii w Dolinie Krzemowej? Na razie wiele firm trzyma się zasad, które wykluczają użycie AI do działań prowadzących do utraty życia. Niemniej presja na złagodzenie tych ograniczeń może rosnąć, zwłaszcza w kontekście rosnącego znaczenia AI w środowisku obronnym.
Broń autonomiczna – fikcja czy rzeczywistość?
Debata o broni autonomicznej w ostatnich miesiącach nabrała tempa. Krytycy twierdzą, że decyzje o życiu i śmierci nigdy nie powinny być podejmowane przez maszyny, choć niektórzy przypominają, że broń autonomiczna w armii USA istnieje od dekad. Przykładem może być CIWS – system obronny, który działa bez udziału człowieka.
Mimo to Pentagon podkreśla, że w kluczowych decyzjach o użyciu siły zawsze uczestniczy człowiek. „Zarówno z powodów etycznych, jak i praktycznych, nigdy nie pozwolimy maszynom samodzielnie decydować o zastosowaniu broni” – mówi Plumb. AI w wojsku to, jej zdaniem, raczej przykład współpracy człowieka z maszyną, a nie autonomicznych systemów rodem z filmów science fiction.
Gdy etyka spotyka wojsko
Dyskusja o zastosowaniu AI w armii to nie tylko technologia, ale też etyka. Część środowiska akademickiego, w tym badacze związani z Anthropic, argumentuje, że współpraca z wojskiem jest nieunikniona. Ich zdaniem lepiej wziąć udział w tym procesie, by upewnić się, że AI będzie używana odpowiedzialnie.
Czy sztuczna inteligencja stanie się kluczowym narzędziem obrony? Wygląda na to, że tak, choć warunki jej użycia będą podlegały ciągłym negocjacjom. Pentagon i Dolina Krzemowa wkraczają na nowe, nieodkryte dotąd terytorium. Jedno jest pewne – AI w armii to temat, który dopiero nabiera rozpędu.