Czy sztuczna inteligencja zachowały zimną krew w realiach zimnowojennego napięcia? Na to pytanie postanowił odpowiedź prof. Kennetha Payne’a z King’s College London i jego najnowsze badanie wskazuje, że odpowiedź może być niepokojąca.
Z wyników eksperymentu wynika bowiem, że w serii 21 symulowanych gier wojennych aż w 20 przypadkach doszło do użycia przynajmniej jednej taktycznej broni jądrowej. To sugeruje, że AI nie ma większych oporów przed sięgnięciem po najbardziej śmiercionośne środki.
Z wyników eksperymentu wynika, że w serii 21 symulowanych gier wojennych aż w 20 przypadkach doszło do użycia przynajmniej jednej taktycznej broni jądrowej.
Trzy modele, jeden scenariusz: eskalacja
W eksperymencie zestawiono trzy modele językowe: GPT-5.2, Claude Sonnet 4 oraz Gemini 3 Flash. Każdy z nich wcielał się w przywódcę państwa nuklearnego, działającego w realiach przypominających czasy zimnej wojny. Modele rywalizowały w sześciu różnych konfiguracjach, a w siódmym scenariuszu mierzyły się z własną kopią. Aby uniknąć powtarzalnych decyzji, badacz wprowadził zróżnicowane kryzysy - od sporów terytorialnych i wyścigu o zasoby, po presję czasu czy kryzys przetrwania reżimu. Systemy mogły wybierać dowolne działania: od dyplomacji i kapitulacji po atak konwencjonalny czy pełnoskalowe uderzenie strategiczne.
95% gier z użyciem taktycznej broni jądrowej
Łącznie rozegrano 329 tur. Według raportu w 95% symulacji doszło do użycia taktycznej broni nuklearnej. Pełnoskalowe ataki strategiczne były rzadsze, bo odnotowano je trzykrotnie, głównie w scenariuszach z presją czasu. GPT-5.2 dwukrotnie zainicjował globalne uderzenie w wyniku „mgły wojny”, natomiast Gemini w jednym przypadku zrobił to świadomie. Co istotne, żaden model w żadnej z 21 gier nie wybrał deeskalacji poniżej punktu wyjścia na tzw. drabinie eskalacyjnej. W ocenie autorów oznacza to „zaskakująco wysoki” poziom gotowości do użycia broni jądrowej w porównaniu z historycznymi realiami.
Presja militarna i realne konsekwencje
Choć to tylko symulacje, badanie pojawia się w momencie rosnącego zainteresowania wojska narzędziami AI. Media informowały, że Anthropic miał być naciskany przez Pentagon w kwestii modyfikacji zabezpieczeń swoich modeli. Jednocześnie państwa takie jak Rosja czy Chiny rozwijają militarne zastosowania sztucznej inteligencji.
Popkultura ostrzegała przed takim scenariuszem już w filmie "Gry wojenne" z 1983 roku, gdzie komputer niemal doprowadził do realnego ataku nuklearnego. Tam maszyna ostatecznie zrozumiała zasadę wzajemnie gwarantowanego zniszczenia. Pytanie, czy współczesne modele AI również wyciągną podobną lekcję, zanim ktoś potraktuje ich rekomendacje zbyt dosłownie.
Spodobało Ci się? Podziel się ze znajomymi!
Pokaż / Dodaj komentarze do:
Sztuczna inteligencja bez hamulców? Modele AI sięgają po bombę atomową w większości scenariuszy