Ile rdzeni potrzeba do grania, czyli jak gry radzą sobie z nowoczesnymi CPU

Ile rdzeni potrzeba do grania, czyli jak gry radzą sobie z nowoczesnymi CPU

Ile rdzeni procesora potrzebnych jest do gier? Dwa, cztery, sześć, a może osiem? Ile rdzeni/wątków efektywnie wykorzystują najnowsze produkcje? W niniejszym artykule postaram się odpowiedzieć na te pytania, aby przekazać czytelnikom wiedzę pomocną w wyborze CPU. Żeby zbadać to zagadnienie, wziąłem na warsztat platformę Skylake-X, a konkretniej ośmiordzeniowego i szesnastowątkowego Core i7-7820X, oraz trzynaście popularnych tytułów i sprawdziłem kolejno, jak wyglądają relacje wydajnościowe w każdym z nich, w miarę wzrostu liczby rdzeni oraz wątków (HT/SMT). Nie da się ukryć, że wielordzeniowe procesory na dobre zadomowiły się w komputerach osobistych. Trudno też zaprzeczyć, że dla większości użytkowników gry są bardzo istotnym rodzajem aplikacji. Dlatego też wydaje mi się, że jest to naprawdę ciekawy temat, szczególnie biorąc pod uwagę fakt, że ile rozmówców, tyle opinii w tym aspekcie.

To, jak dobrze (lub źle) gry radzą sobie z wykorzystaniem potencjału wielordzeniowych procesorów, jest tematem niezmiennie, od wielu lat, rozpalającym środowisko komputerowych entuzjastów. Karuzela ta towarzyszy nam w zasadzie od czasu debiutu pierwszych dwurdzeniowych jednostek, a na dobre rozpędziła się w momencie premiery rodziny AMD Ryzen, która pojawiła się na rynku w marcu 2017 roku. Właśnie wtedy do ręki dostaliśmy ośmiordzeniowe Ryzeny 7, które znakomicie radziły sobie w wielowątkowych aplikacjach, lecz w grach miały olbrzymie problemy, aby nawiązać skuteczną rywalizację z konkurencją spod znaku Intela - nawet w kontekście modeli wyraźnie tańszych. Na efekty nie trzeba było długo czekać, portale oraz fora internetowe uginały się pod naporem komentarzy sugerujących nieefektywne wykorzystanie potencjału wielu rdzeni przez produkcje branży rozrywkowej. Można powiedzieć, że zostaliśmy wręcz zalani falą tego typu opinii. Poniekąd słusznych, gdyż - jakby na to nie patrzeć - w tamtym okresie topowe Core i7 dla podstawki LGA 1151 dysponowały czterema rdzeniami, a więc była to liczba dwukrotnie mniejsza od tego, co oferowało AMD. Tak więc, nawet mając na uwadze fakt, że architektura Zen radzi sobie w grach wyraźnie gorzej niż w aplikacjach, na co składa się zarówno wydajność na takt zegara, jak i relatywnie niskie taktowanie, to jednak - przy dwukrotnej przewadze liczby rdzeni oraz wątków - powinna mieć szansę na skuteczną rywalizację - oczywiście pod warunkiem należytego wykorzystania dostępnej mocy.

Temat wielordzeniowości w grach jest jednym z tych, który rozgrzewa do czerwoności środowisko komputerowych entuzjastów. Postanowiłem więc w praktyce sprawdzić, jak gry radzą sobie z nowoczesnymi procesorami.

Sytuacja nieco zmieniła się w październiku 2017 roku, kiedy niebieski obóz posłał do boju serię procesorów Coffee Lake. Nowości przyniosły zwiększoną liczbę rdzeni w ramach wszystkich serii Core, zaczynając od i3, poprzez i5, a skończywszy na i7. Wyższe modele dostały sześć rdzeni, albo w wariancie "czystym" (Core i5), albo z doładowaniem w postaci HT, a więc dwunastu wątków (Core i7). Efekt takiej roszady był łatwy do przewidzenia - Intel zauważalnie zwiększył swoją konkurencyjność w segmencie domowym. Dwukrotna przewaga liczby rdzeni zamieniła się w "zaledwie" 33% większą ich liczbę. W kontekście gier, supremacja niebieskich została ugruntowana jeszcze mocniej i taki stan trwa do dnia dzisiejszego, gdyż rodzina Pinnacle Ridge (odświeżone Ryzeny), która pojawiła się w kwietniu 2018 roku, nie przyniosła wzrostu wydajności na tyle dużego, aby w zastosowaniach rozrywkowych zagrozić Coffee Lake. Sugestie odnośnie kiepskiego wykorzystania potencjału tych ostatnich oczywiście też, gdzieniegdzie, się pojawiały, jednak z natężeniem nieporównywalnie niższym od trzęsienia ziemi, które mieliśmy okazję obserwować w momencie debiutu pierwszych Ryzenów. Jest to w gruncie rzeczy zrozumiałe, wszak Coffee Lake prezentują w grach wyborną wydajność, ale zdaje się, że w grę wchodzą tu też inne czynniki, nazwijmy je psychologicznymi... ale w ten temat zagłębiać się już nie mam zamiaru. Fakty są takie, że dysproporcje między poszczególnymi grami, w zakresie wielowątkowości, są po prostu duże. Jedne z tematem radzą sobie bardzo dobrze, inne niespecjalnie.

Ile rdzeni potrzeba do grania, czyli jak gry radzą sobie z nowoczesnymi CPU

Dlatego też, w obliczu istniejącego dylematu sprawdzę jak w praktyce wygląda kwestia wykorzystania potencjału wielu rdzeni w grach. Aby test był możliwie kompleksowy, konieczne było wybranie odpowiedniej platformy testowej. Tak jak wcześniej wspomniałem, w chwili obecnej oferta Intela dla użytkowników domowych kończy się na pułapie sześciu rdzeni, zaś w przypadku AMD jest to osiem sztuk. Ponadto, do drzwi zdają się już pukać nadchodzące jednostki niebieskich, będące odświeżeniem Coffee Lake (o nazwie kodowej Whiskey Lake), gdzie - wedle docierających do nas doniesień - również dostaniemy osiem rdzeni, a więc nastąpi zrównanie w tym aspekcie między producentami (i w zasadzie tylko tym, gdyż nie wyobrażam sobie, żeby argument atrakcyjnej ceny został wytrącony czerwonym z ręki). Wszelkie pomiary zostaną zatem przeprowadzone nie na platformie LGA 1151, lecz na LGA 2066, gdzie Intel oferuje jednostki nawet osiemnastordzeniowe. Oczywiście taka ich liczba byłaby kompletnie bezużyteczna z punktu widzenia wydajności w grach, dlatego też za serce zestawu komputerowego posłużył Core i7-7820X, wyposażony w osiem rdzeni wraz ze wsparciem HT, co przekłada się na szesnaście wątków - parametry takie same jak w topowych Ryzenach oraz nadchodzących Whiskey Lake. Całość została odpowiednio skonfigurowana pod kątem zegarów rdzeni/mesh oraz ustawień pamięci - tak, aby jedyną zmienną była liczba rdzeni oraz wątków. Niniejszym zapraszam więc do lektury dalszej części artykułu, gdzie dowiecie się, jak gry radzą sobie z nowoczesnymi procesorami (i nie tylko).

Komentarze do: Ile rdzeni potrzeba do grania, czyli jak gry radzą sobie z nowoczesnymi CPU