W naszych domach gości coraz więcej monitorów i telewizorów wyposażonych w technologię HDR, więc nic dziwnego, że coraz chętniej po nią sięgamy - zwłaszcza, że poprawia jakość obrazu, bez widocznego wpływu na wydajność w grach. Ale czy aby na pewno?
HDR, czy High Dynamic Range rozszerza zakres kolorów i jasności w porównaniu do standardowych monitorów SDR. Dzięki tej technologii widzimy na ekranie znacznie więcej barw i detali, zwłaszcza na ciemnych i jasnych elementach obrazu. Zwiększona głębia kolorów i lepsze zarządzanie kontrastem daje nam więc żywszy i bardziej szczegółowy obraz, a wpływ na wydajność zwykle jest minimalny - zazwyczaj widzimy homeopatyczny spadek FPS. Same zalety? Wydawałoby się, że tak.
Przypomnijmy jeszcze tylko, że HDR HDRowi nierówny, zwłaszcza jeśli chodzi o możliwości monitora. HDR 400 to w zasadzie zagranie marketingowe i realny wpływ na jakość obrazu jest minimalna, bądź wręcz żadna. Realną różnicę pomiędzy SDR a HDR zaczynamy widzieć przy HDR 600, chociaż i tak szału tutaj nie ma. Prawdziwy potencjał zaczyna pojawiać się przy HDR 800, a najlepiej dysponować panelem HDR 1000. Oczywiście wszystkie wymienione standardy HDR oznaczają jedynie jasność szczytową i nie należy ich mylić np. z HDR10(+) który oznacza standard zawartości HDR i format sygnału.
Przejdźmy jednak do testów wydajnościowych i raz na zawsze ustalmy wpływ HDR na wydajność - bo nie zawsze będzie on niewielki. Istnieją przypadki kiedy HDR może znacząco obniżyć wydajność gry.
Porównanie wydajności z włączonym i wyłączonym HDR w grach DX12 i DX11
Jako, że HDR (generalnie) nie powoduje widocznych spadków wydajności przetestowałem tę opcję na zintegrowanej grafice Radeon 780M (Ryzen 7 8700G) - ewentualne spadki powinny być bardziej widoczne na mało wydajnym układzie graficznym.
Do akcji wkroczyły dwie gry posiadające natywną obsługę HDR (nie sprawdzałem więc w działaniu AutoHDR), a konkretnie Cyberpunk 2077 (DirectX 12) i najnowszą odsłonę Alone In The Dark (DirectX 11).
Testy wydajności HDR w Cyberpunk 2077 (DirectX 12)
W przypadku Cyberpunka 2077 mamy możliwość wyboru dwóch wersji HDR, a konkretnie HDR10 PQ lub HDR10 scRGB. Jakie są różnice?
-
HDR10 PQ: 10-bit, prekodowanie gammy PQ (Perceptual Quantization), mniej obciążający GPU, standardowa jakość obrazu HDR.
-
HDR10 scRGB: 16-bit, gamma PQ nakładana przez sterownik, bardziej obciążający GPU, lepsza precyzja i nasycenie kolorów oraz mniej bandingu (pasmowania kolorów).

Testy zostały przeprowadzone w rozdzielczości 1920 x 1080 przy ustawieniach Ultra z użyciem FSR 3 Perfomance, bez generowania klatek.
Nawet na tak słabym układzie graficznym strata związana z włączeniem HDR jest niezauważalna i wynosi średnio 1-2 klatkę na sekundę przy zastosowaniu bardziej wymagającej wersji (HDR10 scRGB), czyli tracimy w porywach ponad 2% wydajności. HDR można śmiało włączać i cieszyć się bardziej szczegółowym i klimatycznym obrazem.
Testy wydajności HDR w Alone In The Dark (DirectX 11)
W przypadku Alone In The Dark (uściślijmy, że chodzi o najnowszą odsłonę tej gry, która stanowi już trzeci remake) możemy jedynie włączyć lub wyłączyć HDR oraz ręcznie ustawić jasność i kontrast. HDR bardzo się tu przydaje, bo gra nasycona jest mrocznymi lokacjami, co pozwala widzieć więcej detali w ciemności, bez zwiększenia jasności do poziomu, który psuje klimat rozgrywki.

Testy zostały przeprowadzone w rozdzielczości 1920 x 1080 i ustawieniach Epic, przy użyciu FSR 3 Balanced (bez generowania klatek, które trzeba byłoby zresztą realizować przez AFMF2, bo w menu gry nie znajdziemy takiej opcji).
Chciałoby się zakrzyknąć: “Ło panie, kto panu to tak #$@#%@#?”. Spadek wydajności jest bardzo widoczny i wynosi około 12% w przypadku średnich klatek na sekundę (nieco mniej w przypadku klatek minimalnych). Wiadomo, że implementacja HDR zależy od gry, ale w tym wypadku najbardziej prawdopodobnym winnym sytuacji jest DirectX 11. Dopiero DirectX 12 przynosi bardziej dopracowaną i zoptymalizowaną obsługę HDR, która pozwala się cieszyć tę technologią z bardzo niewielkim spadkiem wydajności.
Na całe szczęście Alone In The Dark ma znacznie niższe wymagania sprzętowe (przypomnijmy, że użyliśmy maksymalnych ustawień jakości Epic) i nawet strata 12% wydajności jest akceptowalna - nawet w tak mało wydajnej konfiguracji (zintegrowana grafika Radeon 780M).
HDR może powodować spadki wydajności
Implementacja HDR zależy od danej gry, ale jeśli gra korzysta z nowoczesnego API jak DirectX 12, to raczej nie musimy się spodziewać znaczącego spadku wydajności. DirectX 12 oferuje nie tylko lepszą precyzję i jakość obrazu HDR dzięki lepszej kontroli nad przestrzenią barw i głębią bitową, ale i znikowy wpływ na wydajność po włączeniu tej funkcji.
Co innego w przypadku DirectX 11. Te API obsługuje HDR w bardziej podstawowy sposób (ręczne zarządzanie paletą barw i stosowanie odpowiednich efektów post processingu), często z ograniczeniami i mniejszą kontrolą nad przestrzenią barw oraz jasnością. Jakby tego było mało, wpływ na wydajność jest bardzo widoczny, chociaż oczywiście może się różnić w zależności od danej gry. Tyle dobrego, że gry DX11 będą zwykle mniej obciążające dla sprzętu, więc zazwyczaj będziemy mogli pogodzić się ze stratą, a rozgrywka wciąż będzie płynna.
Spodobało Ci się? Podziel się ze znajomymi!
Pokaż / Dodaj komentarze do:
HDR nie powoduje spadków wydajności w grach? To patrzcie na to