Sztuczna inteligencja pomaga nam w codziennych mniej lub bardziej skomplikowanych zadaniach, ale jak poradziłaby sobie w grze hazardowej? Na to pytanie spróbowano udzielić odpowiedzi w ramach eksperymentu.
W ostatnich dniach świat technologii był świadkiem nietypowego eksperymentu. Udział w nim wzięło dziewięć zaawansowanych modeli sztucznej inteligencji, które przez pięć dni rywalizowały w pokera. Zamiast człowieka na wirtualnym stole obok siebie siedzieli: OpenAI o3, Claude 4.5 od Anthropic, Grok, Gemini 2.5 Pro, Meta Llama 4, DeepSeek R1, Kimi K2 od Moonshot AI, Magistral od Mistral AI oraz Z.AI GLM 4.6.
Modele AI zagrały w pokera
Nie chodziło tu jednak o zdobycie nagrody, ale sprawdzenie, czy AI jest w stanie podejmować często niełatwe decyzje w sytuacjach, w której dominują niepewność oraz stres, typowe dla rozgrywki w pokera. Wynik eksperymentu okazał się bardziej interesujący niż należało się spodziewać.
Wynik eksperymentu pokazał, że przed AI jeszcze długa droga nim będzie w stanie rywalizować z człowiekiem w pokera.
Zaczęło się od klasycznego Texas Hold’em, gry, która z założenia wymaga zarówno odpowiedniej oceny sytuacji, jak i zarządzania ryzykiem. Każdy model AI miał do dyspozycji pulę $100,000 i przez pięć dni grał na stołach o stawkach $10/$20. Najlepszy w pokera okazał się model OpenAI o3, który wygrał $36,691, ale najciekawsze było coś innego: na stole zasiadły maszyny, które w każdej rundzie podejmowały tysiące decyzji, lecz te decyzje były podejmowane przez algorytmy analizujące dane i nie wynikały z osobistych doświadczeń czy intuicji.
Co wykazał eksperyment?
OpenAI o3 szybko zdobył przewagę, nie tylko przejmując duże pule, ale też konsekwentnie stosując solidną strategię opartą na teoretycznych podstawach pokera. Takie podejście, które było zbliżone do podręcznikowych zasad przed flopem, zapewniło temu modelowi stabilną grę. Zajął on pierwsze miejsce, zdobywając największy zysk. Tuż za nim, z mniejszymi wygranymi, znalazły się Claude i Grok, które zdobyły odpowiednio $33,641 i $28,796.
Nie wszystkim poszło tak dobrze. Model Llama 4 od Meta szybko stracił wszystkie swoje żetony, kończąc grę z "pustymi rękami". Z kolei Kimi K2 z Moonshot AI, mimo intensywnych prób, w końcu straciło prawie połowę swojego początkowego kapitału, kończąc z wynikiem -$86,030. Wyniki pokazują, że nie wszystkie strategie się sprawdziły, a sama gra była pełna nieoczekiwanych zwrotów akcji.
Sztuczna inteligencja nie wytrzymuje presji
Jednym z głównych wniosków płynących z tej rozgrywki było to, jak AI radzi sobie z ryzykiem. Większość botów zbyt agresywnych, preferowały podejmowanie ryzykownych decyzji, nawet jeśli bardziej rozważne podejście mogłoby je uchronić przed utratą żetonów.
Modele AI stawiały na szybkie wygrane i były skłonne do podejmowania ryzyka, nie zawsze dostosowując strategię do tego, co dzieje się na wirtualnym stole. Nierzadko potrafiły źle ocenić ruch przeciwnika, co prowadziło do nieudanych blefów. Często błędnie oceniały, kiedy należy ryzykować, a kiedy warto się wycofać.
AI próbuje naśladować najlepszych graczy. Z jakim skutkiem?
To, co jednak najbardziej zaskakuje, to sposób, w jaki te boty starały się naśladować ludzkie zachowania przy stole. Choć były zbyt agresywne w swoich działaniach, to jednak potrafiły na bieżąco dostosowywać swoje strategie do przeciwników, próbując "czytać" grę, jak robią to doświadczeni gracze.
AI wciąż ma swoje ograniczenia, zwłaszcza gdy chodzi o blefowanie czy odczytywanie intencji innych graczy. Choć boty próbowały blefować, ich próby były bardzo naiwne. Większość blefów wynikała z błędnej analizy sytuacji, a nie z mistrzowskiego wprowadzania przeciwnika w błąd. I tu wychodzą różnice między sztuczną inteligencją a człowiekiem.
Spodobało Ci się? Podziel się ze znajomymi!
Pokaż / Dodaj komentarze do:
Sztuczna inteligencja zagrała w pokera. Jak boty radzą sobie z blefowaniem i ryzykiem?