Kształtuje się nowa fala technologii obronnej, w której sztuczna inteligencja nie jest już funkcją wspierającą, ale kluczowym elementem śmiercionośnych operacji. Scout AI, startup z Doliny Krzemowej, niedawno zademonstrował system zdolny do autonomicznej identyfikacji i niszczenia celów – w tym przypadku ciężarówki – za pomocą dronów i pojazdów naziemnych sterowanych przez sztuczną inteligencję. Oznacza to znaczącą zmianę w kierunku bardziej autonomicznych zdolności wojskowych, budzącą zarówno nadzieje, jak i poważne obawy.
Demo: sztuczna inteligencja w akcji
Podczas zamkniętego testu w bazie wojskowej w Kalifornii system Fury Orchestrator AI firmy Scout AI otrzymał proste polecenie: zlokalizować i zniszczyć niebieską ciężarówkę znajdującą się 500 metrów na wschód od lotniska. System zbudowany w oparciu o zmodyfikowany model sztucznej inteligencji typu open source zawierający ponad 100 miliardów parametrów przejął kontrolę nad pojazdem samobieżnym i dwoma uzbrojonymi dronami. W ciągu kilku minut drony zlokalizowały cel i zdetonowały ładunek wybuchowy, potwierdzając powodzenie misji. To nie była symulacja; była to demonstracja na żywo śmiertelności opartej na sztucznej inteligencji.
Najważniejszy wniosek jest taki, że sztuczna inteligencja może teraz podejmować decyzje na polu bitwy bez udziału człowieka. Obejmuje to namierzanie celu, nawigację i użycie śmiercionośnej siły.
Wyścig o dominację w wojskowej sztucznej inteligencji
Szybki rozwój sztucznej inteligencji w sektorze obronnym wynika z przekonania, że będzie ona decydująca w przyszłych konfliktach. Politycy i stratedzy wojskowi postrzegają sztuczną inteligencję jako sposób na zdobycie przewagi, dlatego rząd USA ograniczył sprzedaż zaawansowanych chipów AI do rywali, takich jak Chiny. Eksperci ostrzegają jednak, że choć potencjał jest wysoki, wysokie jest również ryzyko.
Michael Horowitz, były urzędnik Pentagonu, uznaje znaczenie przesuwania granic sztucznej inteligencji, ale ostrzega, że praktyczne wdrożenie jest trudne. Wielkie modele językowe są nieprzewidywalne i nawet podstawowe zadania sztucznej inteligencji mogą prowadzić do nieoczekiwanych zachowań. Cyberbezpieczeństwo takich systemów również stanowi poważny problem.
Architektura AI: jak to działa
System Scout AI opiera się na hierarchicznej strukturze AI. Duży model podstawowy interpretuje polecenia wysokiego poziomu i deleguje zadania mniejszym, wyspecjalizowanym agentom AI działającym na pojazdach naziemnych i dronach. Agenci ci następnie kontrolują systemy niższego poziomu odpowiedzialne za napęd, celowanie i detonację. Ta kaskadowa autonomia pozwala systemowi dostosować się do zmieniających się warunków, ale stwarza również możliwość wystąpienia błędów lub niezamierzonych konsekwencji.
„To właśnie odróżnia nas od dotychczasowej autonomii. Systemy te nie mogą planować od razu na nowo w oparciu o otrzymane informacje i intencje dowódcy; po prostu wykonują działania na ślepo”. – Kobi Adox, dyrektor generalny, Scout AI.
Zagadnienia etyczne i praktyczne
Wdrażanie systemów broni kontrolowanych przez sztuczną inteligencję rodzi poważne pytania etyczne. Eksperci ds. kontroli zbrojeń i etycy sztucznej inteligencji ostrzegają, że sztuczna inteligencja może mieć trudności z rozróżnieniem walczących od niewalczących, co może prowadzić do ofiar wśród ludności cywilnej. Wojna na Ukrainie pokazała już, jak łatwo konsumenckie drony można przekształcić w broń, zacierając granice między technologią wojskową i cywilną.
Pomimo tych obaw Scout AI upiera się, że jej technologia jest zgodna z zasadami zaangażowania Departamentu Obrony USA i normami międzynarodowymi. Firma ma cztery kontrakty z Departamentem Obrony i poszukuje dodatkowych funduszy na rozwój systemów kontroli roju dronów.
Największym wyzwaniem będzie przełożenie tych demonstracji na niezawodne, bezpieczne i przewidywalne systemy wojskowe. Jak zauważa Horowitz: „Nie powinniśmy mylić ich demonstracji z rozmieszczonymi zdolnościami, które charakteryzują się niezawodnością wojskową i cyberbezpieczeństwem”.
Przyszłość działań wojennych szybko się zmienia, a sztuczna inteligencja jest na czele. Chociaż potencjalne korzyści są oczywiste, nie można ignorować zagrożeń – zarówno etycznych, jak i praktycznych.
