HDR obniża wydajność w grach - ok. -2% na kartach AMD i -10% na NVIDII

HDR obniża wydajność w grach - ok. -2% na kartach AMD i -10% na NVIDII

Technologia HDR od dłuższego czasu święci triumfy na konsolach, ale w przypadku pecetów wsparcie dla szerokiego zakresu tonalnego nie wygląda zbyt różowo. Sytuacja powoli się zmienia, co jednak wiąże się z coraz częściej pojawiającymi się pytaniami, jak np. jak HDR wpływa na wydajność w grach PC.

Wydaje się, że HDR w przypadku gier nie powinien mieć większego, jeśli jakikolwiek, wpływu na płynność rozgrywki. Okazuje się jednak, że w bardziej ekstremalnych sytuacjach, takich jak granie w 4K, wydajność zauważalnie spada, co potwierdzają testy przeprowadzone przez niemiecką ekipę Computerbase. Ci przeprowadzili benchmarki w popularnych tytułach obsługujących HDR (w tym Assassin’s Creed: Origins, Battlefield 1, Call of Duty: WWII, Destiny 2, Final Fantasy XV, Mass Effect: Adromeda, Resident Evil 7, Far Cry 5 i Star Wars: Battlefront 2) w rozdzielczości 3840 x 2160 pikseli (Ultra HD) i ich rezultaty są naprawdę zaskakujące. W oczy od razu rzuca się fakt, że o ile w przypadku karty graficznej AMD Radeon RX Vega 64 różnice są znikome, tak już NVIDIA GeForce GTX 1080 notuje wyraźnie słabsze rezultaty z HDR.

Testy potwierdzają spadek wydajność w grach po włączeniu funkcji HDR. Sytuacja zdaje się bardziej dotykać kart graficznych NVIDII.

HDR obniża wydajność w grach - ok. -2% na kartach AMD i -10% na NVIDII

Flagowa karta graficzna Czerwonych traci średnio 2% wydajności na włączeniu HDR i w wielu przypadkach jej wyniki są praktycznie identyczne z SDR (najgorzej sytuacja ma się w Destiny 2, gdzie zalicza rezultat o 10% gorszy i w Far Cry 5, gdzie spadek framerate’u sięga 5%), ale w przypadku jednego z topowych modeli Zielonych, czyli GeForce’a GTX 1080, wygląda gorzej. Tutaj zanotowano spadki w liczbie klatek na sekundę średnio rzędu 10%, a w Destiny 2 jest to nawet 20% (tytuł ten ewidentnie najsłabiej radzi sobie z utrzymaniem odpowiedniej wydajności w trybie HDR). Czemu NVIDIA obrywa mocniej na szerokim zakresie tonalnym niż AMD? Trudno powiedzieć  i sam producent nie był w stanie tego wytłumaczyć (spekuluje się, że może być to związane np. z mapowaniem tonów - tone mapping). Być może jednak NVIDIA pochyli się teraz nad problemem i naprawi sytuację w stosownej aktualizacji sterowników.

HDR obniża wydajność w grach - ok. -2% na kartach AMD i -10% na NVIDII

Niezależnie od powodów takiego stanu rzeczy, jeszcze niedawno twórcy GeForce’ów przekonywali, że HDR nie będzie miał żadnego wpływu na wydajność, czemu zdają się przeczyć te testy. Warto przy tym podkreślić, że największy problem zauważyć można w rozdzielczości 4K i np. przy zastosowaniu QHD (2560 x 1440 pikseli) różnice były minimalne lub nawet zerowe. Jeśli jednak posiadacie stosowny monitor, który jest w stanie wydobyć prawdziwy efekt HDR z gier (nie mówimy o modelach z maksymalnym podświetleniem na poziomie 400 nitów), to mimo wszystko zalecamy korzystanie z możliwości tej techniki. Wiele osób uważa, że daje ona lepsze rezultaty w zakresie poprawy jakości obrazu niż przeskoczenie na wyższą rozdzielczość i osobiście mogę podpisać się pod tym twierdzeniem. Odpowiednia implementacja szerokiego zakresu tonalnego potrafi diametralnie zmienić obraz gry. Wracając jeszcze do samego problemu, to w tej chwili trudno wyrokować jak sytuacja ma się w przypadku innych modeli kart i czy podobne wyniki zanotujemy na pozostałych modelach AMD (ok. -2%) i NVIDII (ok. -10%). Będziemy jednak przyglądać się sytuacji.

Komentarze do: HDR obniża wydajność w grach - ok. -2% na kartach AMD i -10% na NVIDII