God of War - DLSS vs FSR: porównanie jakości obrazu i test wydajności na kartach GeForce RTX

God of War - DLSS vs FSR: porównanie jakości obrazu i test wydajności na kartach GeForce RTX

DLSS vs FSR - porównanie w God of War

Gry z serii God of War są doskonale znane i cenione przez użytkowników konsol Sony PlayStation, będąc jednymi z najlepszych na tę platformę, a od niedawna także gracze pecetowi wykazują wzmożone nią zainteresowanie. To ostatnie zjawisko jest oczywiście związane z portem ostatniej wydanej części cyklu, zatytułowanej po prostu God of War. Tematem przewodnim dzisiejszego tekstu będzie warstwa techniczna pecetowego wydania, a konkretniej skupimy się na technikach skalowania obrazu, gdzie twórcy zdecydowali się na implementację dwóch rozwiązań: DLSS firmy NVIDIA i FSR od AMD. Jak zawsze, w boju sprawdzona zostanie zarówno jakość obrazu, jak i osiągi w porównaniu do renderingu w rozdzielczości natywnej, w zależności od wybranego profilu DLSS/FSR. Zagadnienie jest o tyle ciekawe, że choć ogólna zasada działania tych technik rzecz jasna się nie zmienia, to jednak efekty w poszczególnych grach bywają różne. Wynika to tego, że DLSS i FSR mogą sobie radzić lepiej lub gorzej ze stylem graficznym danej produkcji, a w przypadku rozwiązania czerwonych istotna jest także implementacja wygładzania krawędzi TAA, gdyż w odróżnieniu od podejścia zielonych nie zapewnia ono anti-aliasingu samo w sobie. Wreszcie są szczegóły takie jak wybrany przez twórców gry współczynnik wyostrzania oraz udostępnione profile regulujące rozdzielczość renderingu. Jak to wszystko wygląda w przypadku God of War, tego dowiecie się niebawem.

Pecetowy port gry God of War wywołał niemałe poruszenie wśród graczy. Zobaczmy, jak we wspomnianym tytule radzą sobie techniki skalowania obrazu - DLSS i FSR.

God of War - DLSS vs FSR: porównanie jakości obrazu i test wydajności na kartach GeForce RTX

 FSR vs DLSS - test wydajności i porównanie jakości obrazu w Chernobylite

Kilka słów na temat technik DLSS i FSR

Zanim jednak przejdziemy do testów, wypadałoby wyjaśnić, czym dokładnie różnią się techniki konkurencyjnych firm. Zaczynając od DLSS, rozwiązanie to oparte jest o sieć neuronową, generującą obraz o wyższej rozdzielczości na podstawie trzech składników: klatki obrazu o niższej liczbie pikseli, tzw. wektorów ruchu dostarczanych przez silnik gry oraz akumulowanych informacji z poprzednich ramek. Innymi słowy, technika wykorzystuje dedykowane jednostki obecne w architekturach Turing i Ampere, a więc przyspieszające obliczenia macierzowe Tensory. God of War implementuje DLSS w najnowszej wersji 2.3, będącej kolejnym rozwinięciem przełomowej dla zielonych 2.0 i wg firmy NVIDIA skupiającej się na jeszcze skuteczniejszym eliminowaniu smużenia. Z kolei FSR jest podejściem zdecydowanie bardziej konserwatywnym, nie robiącym użytku z tzw. składnika czasowego (danych z poprzednich klatek) i bazującym na klasycznych algorytmach skalowania obrazu i jego późniejszego wyostrzania. Jest to więc rozwinięcie metody CAS, ale z tą różnicą, że skalowaniem obrazu nie zajmuje się już silnik gry - zamiast tego cały proces spoczywa na barkach FSR. Odnośnie dostępnych profilów DLSS i FSR, studio odpowiedzialne za port God of War zdecydowało się udostępnić wszystkie przewidziane przez NVIDIĘ oraz AMD, niemniej na potrzeby testów najniższe presety dla obu rozwiązań zostały pominięte, jako że z uwagi na bardzo niską jakość obrazu są one de facto bezużyteczne. Do pomiarów wykorzystano referencyjne karty GeForce RTX 2060/2080 SUPER, RTX-a 3050 w wydaniu GIGABYTE GAMING OC oraz RTX-a 3080 Ti w wersji KFA2 SG (1-Click OC).

Porównanie rzeczywistej rozdzielczości renderowania
Technika AMD FSR 1.0 NVIDIA DLSS 2.3
Maksymalna jakość (FSR)
Jakość (DLSS)
77% 67%
Jakość (FSR)
Równowaga (DLSS)
67% 58%
Równowaga (FSR)
Wydajność (DLSS)
59% 50%
Wydajność (FSR)
Maksymalna wydajność (DLSS)
50% 33%
Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: God of War - DLSS vs FSR: porównanie jakości obrazu i test wydajności na kartach GeForce RTX

 0