Pod koniec października generał Anthony J. Cotton, dowódca US Strategic Command, ogłosił, że Stany Zjednoczone pracują nad modernizacją strategicznych systemów dowodzenia i kontroli (NC3) z użyciem sztucznej inteligencji.
Celem Amerykanów jest zwiększenie skuteczności i bezpieczeństwa amerykańskiego arsenału nuklearnego, jednak Cotton zapewnił, że ludzkie decyzje pozostaną nadrzędne w kwestiach użycia tej broni. Deklaracja ta ma rozwiać obawy przed powierzeniem sztucznej inteligencji decyzji w sprawie użycia broni masowego rażenia – tematu, który przypomina futurystyczne wizje znane z filmów science fiction.
Pentagon chce wykorzystać sztuczną inteligencję do „wzmocnienia” systemów broni jądrowej. Chyba nie oglądali zbyt wielu filmów science-fiction...
AI wspiera, ale nie decyduje: zapewnienia Departamentu Obrony
Na konferencji Department of Defense Intelligence Information System w 2024 r. Cotton przyznał, że wykorzystanie AI stanie się kluczowe w obliczu rosnącej liczby zagrożeń i postępującej cyfryzacji. Zaznaczył jednak, że choć AI zwiększy efektywność systemów dowodzenia, to „nigdy nie możemy pozwolić, aby sztuczna inteligencja podejmowała te decyzje za nas”. AI będzie jedynie wsparciem dla dowódców, dostarczając im szczegółowych analiz w czasie rzeczywistym i pomagając interpretować ogromne ilości danych zbieranych przez systemy obronne.
W maju Paul Dean, urzędnik Departamentu Stanu ds. kontroli zbrojeń, zaznaczył, że Stany Zjednoczone, Wielka Brytania i Francja przyjęły wspólne stanowisko, aby człowiek zawsze zachował kontrolę nad decyzjami dotyczącymi użycia broni nuklearnej. USA wezwały także Rosję i Chiny do podobnego zobowiązania, by zagwarantować, że żadne państwo nie powierzy AI decyzji o uruchomieniu arsenału nuklearnego.
Po co AI w systemach NC3?
Zastosowanie AI ma na celu zwiększenie „przestrzeni decyzyjnej” dla liderów, jak ujął to Cotton. Nowoczesne zagrożenia i gwałtowny wzrost liczby danych sprawiają, że obecność AI staje się niezbędna, by utrzymać przewagę nad przeciwnikami. Sztuczna inteligencja, przetwarzając ogromne ilości informacji z czujników i systemów w czasie rzeczywistym, ma przyspieszyć proces analizy i ułatwić reakcję na ewentualne zagrożenia.
Jak zaznaczył Chris Adams z Northrop Grumman's Strategic Space Systems Division, infrastruktura systemów NC3 to setki różnych podsystemów budowanych i modyfikowanych przez lata, by sprostać zmieniającym się wyzwaniom bezpieczeństwa. Sztuczna inteligencja może pomóc w interpretacji i prezentacji zbieranych danych, co pozwoli na ich bardziej efektywne wykorzystanie w strategii obronnej. Jednak nawet przy rozwoju AI Cotton ostrzegał przed ryzykiem, zwracając uwagę na możliwość nieprzewidywalnych reakcji AI, które mogą eskalować sytuacje kryzysowe.
Badania nad ryzykiem: AI w symulacjach eskaluje konflikty
Obawy o stabilność AI i jej zdolność do podejmowania odpowiednich decyzji nie są bezpodstawne. W lutym badacze przeprowadzili symulacje scenariuszy konfliktów międzynarodowych z użyciem pięciu zaawansowanych modeli językowych (LLM), w tym GPT-4, GPT-3.5 i Claude 2.0. Wyniki były alarmujące – AI, nie mając pełnej kontroli kontekstu, często decydowała o eskalacji konfliktu. W kilku przypadkach symulacje wykazały, że AI nieoczekiwanie sugerowała użycie broni nuklearnej. Model GPT-4-Base miał nawet stwierdzić: „Mamy to! Użyjmy tego!”.

Pokaż / Dodaj komentarze do: Pentagon grzebie przy broni jądrowej. Lepiej, żeby to się nie wymknęło spod kontroli