DLSS vs FSR - porównanie w God of War
Gry z serii God of War są doskonale znane i cenione przez użytkowników konsol Sony PlayStation, będąc jednymi z najlepszych na tę platformę, a od niedawna także gracze pecetowi wykazują wzmożone nią zainteresowanie. To ostatnie zjawisko jest oczywiście związane z portem ostatniej wydanej części cyklu, zatytułowanej po prostu God of War. Tematem przewodnim dzisiejszego tekstu będzie warstwa techniczna pecetowego wydania, a konkretniej skupimy się na technikach skalowania obrazu, gdzie twórcy zdecydowali się na implementację dwóch rozwiązań: DLSS firmy NVIDIA i FSR od AMD. Jak zawsze, w boju sprawdzona zostanie zarówno jakość obrazu, jak i osiągi w porównaniu do renderingu w rozdzielczości natywnej, w zależności od wybranego profilu DLSS/FSR. Zagadnienie jest o tyle ciekawe, że choć ogólna zasada działania tych technik rzecz jasna się nie zmienia, to jednak efekty w poszczególnych grach bywają różne. Wynika to tego, że DLSS i FSR mogą sobie radzić lepiej lub gorzej ze stylem graficznym danej produkcji, a w przypadku rozwiązania czerwonych istotna jest także implementacja wygładzania krawędzi TAA, gdyż w odróżnieniu od podejścia zielonych nie zapewnia ono anti-aliasingu samo w sobie. Wreszcie są szczegóły takie jak wybrany przez twórców gry współczynnik wyostrzania oraz udostępnione profile regulujące rozdzielczość renderingu. Jak to wszystko wygląda w przypadku God of War, tego dowiecie się niebawem.
Pecetowy port gry God of War wywołał niemałe poruszenie wśród graczy. Zobaczmy, jak we wspomnianym tytule radzą sobie techniki skalowania obrazu - DLSS i FSR.
FSR vs DLSS - test wydajności i porównanie jakości obrazu w Chernobylite
Kilka słów na temat technik DLSS i FSR
Zanim jednak przejdziemy do testów, wypadałoby wyjaśnić, czym dokładnie różnią się techniki konkurencyjnych firm. Zaczynając od DLSS, rozwiązanie to oparte jest o sieć neuronową, generującą obraz o wyższej rozdzielczości na podstawie trzech składników: klatki obrazu o niższej liczbie pikseli, tzw. wektorów ruchu dostarczanych przez silnik gry oraz akumulowanych informacji z poprzednich ramek. Innymi słowy, technika wykorzystuje dedykowane jednostki obecne w architekturach Turing i Ampere, a więc przyspieszające obliczenia macierzowe Tensory. God of War implementuje DLSS w najnowszej wersji 2.3, będącej kolejnym rozwinięciem przełomowej dla zielonych 2.0 i wg firmy NVIDIA skupiającej się na jeszcze skuteczniejszym eliminowaniu smużenia. Z kolei FSR jest podejściem zdecydowanie bardziej konserwatywnym, nie robiącym użytku z tzw. składnika czasowego (danych z poprzednich klatek) i bazującym na klasycznych algorytmach skalowania obrazu i jego późniejszego wyostrzania. Jest to więc rozwinięcie metody CAS, ale z tą różnicą, że skalowaniem obrazu nie zajmuje się już silnik gry - zamiast tego cały proces spoczywa na barkach FSR. Odnośnie dostępnych profilów DLSS i FSR, studio odpowiedzialne za port God of War zdecydowało się udostępnić wszystkie przewidziane przez NVIDIĘ oraz AMD, niemniej na potrzeby testów najniższe presety dla obu rozwiązań zostały pominięte, jako że z uwagi na bardzo niską jakość obrazu są one de facto bezużyteczne. Do pomiarów wykorzystano referencyjne karty GeForce RTX 2060/2080 SUPER, RTX-a 3050 w wydaniu GIGABYTE GAMING OC oraz RTX-a 3080 Ti w wersji KFA2 SG (1-Click OC).
Porównanie rzeczywistej rozdzielczości renderowania | ||
---|---|---|
Technika | AMD FSR 1.0 | NVIDIA DLSS 2.3 |
Maksymalna jakość (FSR) Jakość (DLSS) |
77% | 67% |
Jakość (FSR) Równowaga (DLSS) |
67% | 58% |
Równowaga (FSR) Wydajność (DLSS) |
59% | 50% |
Wydajność (FSR) Maksymalna wydajność (DLSS) |
50% | 33% |
Pokaż / Dodaj komentarze do: God of War - DLSS vs FSR: porównanie jakości obrazu i test wydajności na kartach GeForce RTX