Ile rdzeni potrzeba do grania, czyli jak gry radzą sobie z nowoczesnymi CPU

Ile rdzeni potrzeba do grania, czyli jak gry radzą sobie z nowoczesnymi CPU

Dotarliśmy do końca testów, także przyszedł czas odpowiedzieć na pytanie, jak współczesne gry radzą sobie z wielordzeniowością oraz wielowątkowością. Ci z Was, którzy uważnie przeglądali wykresy, z pewnością doszli do wniosku, że trudno udzielić na nie jednoznacznej odpowiedzi. Mówiąc wprost, rozstrzał między poszczególnymi produkcjami jest bardzo duży. Z jednej strony mamy gry takie jak Assassin's Creed Origins, Crysis 3 (chociaż w tym przypadku dotyczy to tylko legendarnej mapy trawkowej), Dying Light, Rise of the Tomb Raider czy Watch Dogs 2, które z radością przyjmą dowolną liczbę wątków - im więcej, tym lepiej. Oczywiście wszystko w granicach rozsądku, gdyż w niniejszym materiale rozważałem konfiguracje do 8C/16T włącznie - jako, że wyższych po prostu nie było sensu, bowiem nabywcy platform HEDT to naprawdę niewielki kawałek tortu. Dodam jeszcze, że Dying Light jest grą tym ciekawszą, że tuż po premierze charakteryzowała się kiepską optymalizacją, jednak programiści Techlandu byli w stanie znacząco ulepszyć jej działanie. Z drugiej zaś strony, mamy tytuły przyzwoicie radzące sobie z wykorzystywaniem potencjału nowoczesnych procesorów, ale jednak bez szału w tym aspekcie. Mowa o obu Battlefieldach, Hitmanie, Project CARS oraz Wiedźminie 3. Niewątpliwie nie są to produkcje, które obrażą się, jeżeli udostępnimy im dodatkowe zasoby, ale jednak nie potrafią one zrobić z nich użytku tak spektakularnego jak wspomniana wcześniej piątka. Chociaż w sumie Hitmana mógłbym zaklasyfikować do śmietanki zestawienia, ale jednak zanotował w pewnym momencie regres osiągów i właśnie za to został "ukarany".

Trudno natomiast pochwalić gry takie jak Counter-Strike: Global Offensive, Far Cry Primal czy Sniper: Ghost Warrior 3, które z wielu rdzeni robią średni użytek, a potrafią mieć także problemy z HT/SMT (Far Cry). Żeby pokazać, jak duże są rozbieżności pomiędzy przypadkami najkorzystniejszymi a ogółem, powyższy wykres średniej wydajności wykonałem w dwóch wariantach. Jeden przedstawia rezultaty dla kompletu wyników, drugi wyłącznie dla najlepszej piątki. Jak widać, jedna i druga opcja pokazuje zupełnie co innego. Może nie jeśli o kolejność poszczególnych kombinacji rdzeni/wątków, gdyż ta się nie zmieniła, ale już skalowanie wraz z dokładaniem kolejnych zasobów prezentuje się zgoła odmiennie. Można na to popatrzeć w ten sposób, że chociaż w temacie wielowątkowości w grach już dokonał się znaczący progres, to jednak sporo zostało do zrobienia i z pewnością jeszcze trochę poczekamy, zanim naprawdę będzie warto kupować ośmiordzeniowe procesory stricte do grania (pomijam przypadki połączone np. ze streamingiem). Na chwilę obecną sprawa wygląda tak, że optymalniej jest po prostu zaopatrzyć się w jednostkę sześciordzeniową i dwunastowątkową, gdyż dopłata do ośmiu rdzeni jest, niestety, nieadekwatna do zysku wydajnościowego, który możemy uzyskać w wyniku takiej operacji. Trudno też obwiniać za ten stan rzeczy "lenistwo programistów", a jest to argument, który pojawia się w dyskusjach dość często. Wielowątkowość w grach to temat po prostu trudny, toteż nie ma się co dziwić, że sporo gier sobie nie radzi w tym temacie tak, jak byśmy tego oczekiwali. Ale to już, rzecz jasna, temat na zupełnie inną okazję.

Z wielowątkowością w grach bywa różnie. Czasem jest świetnie, czasami co najwyżej przeciętnie, a w jeszcze innym przypadku mocno problematycznie.

Ile rdzeni potrzeba do grania, czyli jak gry radzą sobie z nowoczesnymi CPU

Na zakończenie przedstawię jeszcze swój punkt widzenia, jeśli chodzi o wybór procesora odpowiedniego dla siebie. Niniejszy materiał jest bardziej spojrzeniem na to, jak gry radzą sobie z wielowątkowością niż próbą znalezienia złotego środka, gdyż jest to w zasadzie niemożliwe. Wszystko zależy od tego, ile chcecie wydać, ewentualnie jak bardzo nagiąć pierwotnie założony budżet, i od tego, jakie są Wasze wymagania. Architektury obu producentów znacząco różnią się między sobą, zarówno jeśli chodzi o wydajność na takt zegara, jak i osiągane częstotliwości. Ba, nawet w ofercie jednej firmy potrafi być spory dysonans, czego najlepszym przykładem są Skylake oraz Skylake-X. Dlatego też najlepiej jest po prostu przejrzeć wyniki testów i na tej podstawie podjąć decyzję co do najlepszego dla siebie wyboru. Odnośnie wątków, to zasadniczo lepiej mieć ich więcej, ale nie na siłę. Przykładowo, zdarzyło mi się zasugerować, że od Core i3-8100 wolałbym jednak Ryzena 5 1400 - oczywiście o ile tego drugiego uda się dostać w zbliżonej cenie, co jest możliwe, ale jednak trochę poszukać trzeba. Bynajmniej nie z powodu mikroprzycięć, gdyż - szczerze powiedziawszy - nie widziałem, żeby na Core i3 gdzieś były z tym znaczące problemy. Lecz z powodu ośmiu wątków, które w wielu produkcjach dają duży profit i jest po prostu wydajniej na AMD. Z drugiej strony, zdecydowanie nie wybrałbym Ryzena 5 2600X zamiast Core i5-8400, gdyż ten drugi - mimo mniejszej liczby wątków - jest po prostu w grach lepszy, a do tego bardziej opłacalny. I z tymi przemyśleniami pozostawiam Was, drodzy czytelnicy. Mam nadzieję, że artykuł, który właśnie przeczytaliście, okazał się cennym źródłem wiedzy. Jeżeli się Wam podobał, to zostawcie komentarz (w przeciwnym przypadku również ;-) ). Nie zapominajcie także o przeglądaniu ITHardware, gdyż podobnych materiałów będzie więcej.

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: Ile rdzeni potrzeba do grania, czyli jak gry radzą sobie z nowoczesnymi CPU

 0