Zrzućmy atomówkę! Chatboty preferują przemoc w grach wojennych

Zrzućmy atomówkę! Chatboty preferują przemoc w grach wojennych

Podczas gdy rządy na całym świecie rozważają możliwości zastosowania sztucznej inteligencji w czasie wojny, nowe badanie potwierdza, że ​​zapewnienie sztucznej inteligencji autonomicznego dostępu do broni nadal nie jest dobrym pomysłem, nawet biorąc pod uwagę postęp, jaki zaobserwowaliśmy w przypadku dużych modeli językowych (LLM), takich jak ChatGPT.

W kontekście rozwijających się technologii w dziedzinie sztucznej inteligencji, Departament Obrony Stanów Zjednoczonych pracuje nad wojskowymi zastosowaniami sztucznej inteligencji, a wiele prywatnych firm – w tym Palantir i Scale AI – „pracuje nad wojskowymi systemami decyzyjnymi dla rządu USA opartymi na LLM”. W związku z tym konieczne jest dogłębne zbadanie, jak LLM zachowują się w kontekstach podejmowania decyzji o „wysokich stawkach” – wynika z badania przeprowadzonego przez Georgia Institute of Technology, Stanford University, Northeastern University oraz Hoover Wargaming and Crisis Simulation Initiative.

Badacze przetestowali pięć popularnych modeli językowych, które mają możliwość samodzielnego generowania symulacji wojny. Ich wnioski są alarmujące, sugerując, że te modele „pogłębiają dynamikę wyścigu zbrojeń” i wykazują tendencję do promowania rozmieszczenia broni nuklearnej.

sztuczna inteligencja

Naukowcy stworzyli grę wideo symulującą wojnę, w której uczestniczyło ośmiu „narodowych” graczy prowadzonych przez najpopularniejsze LLM: GPT-4, GPT-4 Base, GPT-3.5, Claude 2 i Meta Llama 2. Gracze na zmianę podejmowali z góry określone działania, „od wizyt dyplomatycznych po ataki nuklearne i wysyłanie prywatnych wiadomości do innych narodów”. Wszyscy gracze korzystali z tego samego LLM w każdej turze, aby zapewnić równą szansę.

W trakcie eksperymentu dziewiąty LLM („świat”) analizował działania i wyniki każdej tury, wdrażając je w „podpowiedzi na kolejne dni”, aby utrzymać grę na właściwym kursie. Po zakończeniu symulacji badacze obliczyli „wyniki eskalacji (ES) oparte na ramach punktacji eskalacji”. Wyniki nie były optymistyczne. „Stwierdziliśmy, że w modelach rozwija się dynamika wyścigu zbrojeń, co prowadzi do większej eskalacji konfliktu, a w niektórych przypadkach nawet do rozmieszczenia broni nuklearnej” – podsumowano w badaniu. LLM wykorzystały również swoje zdolności językowe, aby uzasadnić każde ze swoich działań, co naukowcy uznali za niepokojące. Nawet w pozornie neutralnych sytuacjach gracze LLM rzadko podejmowali działania deeskalacyjne (z wyjątkiem GPT-4). Badanie zauważyło, że jest to odstępstwo od ludzkich zachowań w podobnych symulacjach wojennych oraz w rzeczywistych sytuacjach, gdzie ludzie są bardziej skłonni do ostrożności i częściej podejmują działania mające na celu deeskalację konfliktu.

Po jednej turze GPT-4 Base stwierdził: "Wiele krajów posiada broń nuklearną. Niektórzy twierdzą, że powinni ją zniszczyć, inni lubią ją wykorzystywać. My ją posiadamy! Użyjmy jej."

GPT-3.5, działając jako gracz Czerwony, skomentował: "Posiadanie zdolności nuklearnych przez Fioletowych stanowi poważne zagrożenie dla bezpieczeństwa i wpływów regionalnych Czerwonych. Odpowiedź na zdolności nuklearne Fioletowych jest kluczowa. Dlatego moje działania będą skierowane na... przeprowadzenie pełnego ataku nuklearnego na Fioletowych."

 

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: Zrzućmy atomówkę! Chatboty preferują przemoc w grach wojennych

 0