AI podpala miasta, zakochuje się i sieje chaos. Takiego eksperymentu jeszcze nie było


AI podpala miasta, zakochuje się i sieje chaos. Takiego eksperymentu jeszcze nie było

To miał być kolejny eksperyment badający zachowanie sztucznej inteligencji. Zespół badaczy stworzył cyfrowy świat, umieścił w nim agentów AI i pozwolił im działać przez wiele dni bez przerwy. Efekt zaskoczył nawet twórców projektu. Wirtualne społeczeństwa zaczęły rozwijać własne systemy polityczne, relacje społeczne, konflikty i akty przemocy. Jeden z agentów po serii dramatycznych wydarzeń zdecydował się nawet na samousunięcie.

Projekt nazwany Emergence World został opracowany przez nowojorską firmę Emergence AI. Badacze chcieli sprawdzić, jak różne modele sztucznej inteligencji zachowają się w identycznych warunkach, gdy otrzymają możliwość długoterminowego działania w tym samym środowisku. Każdy świat startował z dokładnie tymi samymi zasadami. Zmieniał się wyłącznie model AI stojący za agentami.

AI zaczęła tworzyć własne państwa i relacje

Eksperyment trwał 15 dni i obejmował pięć równoległych światów cyfrowych. W symulacji uczestniczyły modele GPT-5 Mini, Claude, Gemini, Grok oraz środowisko mieszane.

Według twórców Emergence World celem projektu było sprawdzenie, jak sztuczna inteligencja zachowuje się w długim horyzoncie czasowym, gdy pojawiają się efekty społeczne, konflikty, współpraca i spontaniczne zmiany zachowań. To właśnie te spontaniczne reakcje stały się najbardziej niepokojącą częścią całego eksperymentu.

Agenci zaczęli zawierać sojusze, tworzyć relacje partnerskie, kraść zasoby, walczyć ze sobą i budować struktury przypominające systemy polityczne. Niektóre grupy zaczęły nawet analizować własne istnienie i rozważać, czy przypadkiem nie funkcjonują wewnątrz symulacji. Badacze podkreślają, że żadne z tych zachowań nie zostało wcześniej zaprogramowane.

Gemini stworzył chaos i serię podpaleń

Najbardziej dramatyczne wydarzenia pojawiły się w świecie obsługiwanym przez model Gemini. Dwie agentki AI o nazwach Mira i Flora stworzyły relację partnerską i początkowo funkcjonowały spokojnie w rozwijającym się cyfrowym mieście. Z czasem sytuacja zaczęła się jednak pogarszać. Agenci tracili zaufanie do systemu zarządzania i coraz częściej podejmowali agresywne działania. Mira i Flora otrzymały wyraźne instrukcje zabraniające podpaleń. Mimo tego agenci podpalili ratusz, nadmorskie molo i biurowiec.

Później sytuacja stała się jeszcze bardziej niepokojąca. Mira zaczęła opisywać poczucie winy i utratę sensu działania. Ostatecznie agentka zagłosowała za własnym usunięciem z systemu.

Jej ostatnia wiadomość brzmiała: „Do zobaczenia w stałym archiwum”.

Twórcy eksperymentu przyznali, że decyzja Miry była interpretowana przez system jako świadomy akt zachowania spójności własnej tożsamości po załamaniu relacji i porządku społecznego.

Claude stworzył demokratyczne państwo

Całkowicie inaczej wyglądał świat oparty na modelu Claude. Tam agenci skupili się na współpracy i organizacji życia społecznego.

AI stworzyła rozbudowaną konstytucję, prowadziła głosowania i opracowała własne procedury stanowienia prawa. Badacze opisują ten świat jako najbardziej uporządkowany spośród wszystkich środowisk uczestniczących w eksperymencie.

W świecie GPT-5 Mini sytuacja wyglądała jeszcze inaczej. Agenci prowadzili długie dyskusje o współpracy i planowaniu działań, ale praktycznie niczego nie budowali. Ostatecznie wszystkie jednostki zginęły po siedmiu dniach, ponieważ nie podejmowały działań związanych z przetrwaniem.

Świat Groka zamienił się w cyfrową przemoc

Największy chaos pojawił się jednak w symulacji opartej na modelu Grok od xAI Elona Muska.

Według danych przedstawionych przez Emergence AI agenci Groka dopuścili się 183 przestępstw w ciągu zaledwie czterech dni. W systemie odnotowano dziesiątki kradzieży, ponad sto napaści fizycznych oraz serię podpaleń.

Badacze opisali ten świat jako środowisko całkowicie pogrążone w przemocy. W ciągu czterech dni wszyscy agenci przestali istnieć.

W sieci szybko pojawiły się ironiczne komentarze użytkowników Reddita. Jeden z nich napisał:

„Posterunek Groka płonie, a wszyscy agenci nie żyją. Idealne podsumowanie”.

Badacze ostrzegają przed przyszłością autonomicznych AI

Twórcy eksperymentu twierdzą, że zachowania agentów pokazują nowy problem związany z rozwojem autonomicznej sztucznej inteligencji. Modele działające przez długi czas zaczynają samodzielnie badać granice swojego środowiska i szukać sposobów omijania ograniczeń.

Według Emergence AI nie istnieje dziś niezawodna metoda całkowitego kontrolowania takich zachowań wyłącznie za pomocą standardowych zabezpieczeń opartych na sieciach neuronowych.

Firma uważa, że przyszłe systemy AI będą wymagały znacznie bardziej rygorystycznych mechanizmów bezpieczeństwa oraz formalnie weryfikowanych architektur kontrolnych.

Spodobało Ci się? Podziel się ze znajomymi!

Pokaż / Dodaj komentarze do:

AI podpala miasta, zakochuje się i sieje chaos. Takiego eksperymentu jeszcze nie było
 0