God of War - DLSS vs FSR: porównanie jakości obrazu i test wydajności na kartach GeForce RTX

God of War - DLSS vs FSR: porównanie jakości obrazu i test wydajności na kartach GeForce RTX

Test DLSS i FSR w God of War - konkluzje

Co do wydajności, w przypadku God of War aktywacja DLSS lub FSR skutkuje dość skromnymi przyrostami liczby FPS. Na przykładzie techniki NVIDII i karty GeForce RTX 2060 SUPER, dla najwyższego profilu możemy liczyć na zastrzyk mocy równy ok. 16/20/31%, odpowiednio dla rozdzielczości 1080p, 1440p i 4K. Co więcej, dla szybszych GPU zyski jeszcze bardziej się rozmywają, poza 2160p, gdzie przyrost konsekwentnie wynosi ~30%. Nie inaczej wygląda to dla FSR i zasadniczo można powiedzieć, że wydajnościowo dostępne profile obu rozwiązań, patrząc od najwyższego, zapewniają zbliżone profity, choć notabene rzeczywista rozdzielczość renderowania jest wyższa dla techniki AMD. Dzieje się tak, bo przeciwwagą dla tego czynnika jest niższy koszt tradycyjnego skalowania obrazu, zamiast sieci neuronowej stosowanej przez zielonych. Wracając do wspomnianych relatywnie niewielkich zysków, w tym aspekcie God of War jest grą specyficzną - w ogólności różnice wydajnościowe między rozdzielczościami są tutaj niewielkie, ergo nie jest to efekt ułomności DLSS i FSR, lecz skutek charakterystyki tego tytułu. Zdaje się to świadczyć o przeciętnym wykorzystaniu zasobów obliczeniowych GPU przy mniejszej liczbie pikseli, aczkolwiek nie było to aż tak widoczne, jeśli chodzi o pobór prądu kart graficznych.

Zarówno DLSS, jak i FSR spisują się sensownie w God of War, jeżeli chodzi o jakość obrazu. Gdy celujecie w 4K, jak najbardziej warto włączyć którąś z tych technik.

God of War - DLSS vs FSR: porównanie jakości obrazu i test wydajności na kartach GeForce RTX

 AMD Radeon RX 6500 XT - test GPU oraz porównanie PCIe 3.0 vs 4.0

Jakość obrazu z włączonym DLSS lub FSR i kiedy warto stosować te techniki

Przechodząc do jakości obrazu, DLSS sprawuje się dobrze, zapewniając lepszą ostrość niż rozdzielczość natywna bez dodatkowych filtrów (przy czym ostrość można dla DLSS dostosować suwakiem), skuteczniejsze wygładzanie krawędzi i minimalną utratę szczegółowości grafiki. Odnośnie tej ostatniej kwestii, paradoksalnie technika NVIDII poległa na cienkich gałęziach pozbawionych liści (patrz scena D), co było zaskoczeniem, bo np. w Chernobylite to jej bardzo mocna strona. Co więcej, efekt ten wzmaga się przy niższych profilach, będąc wyraźnie widocznym w ruchu, stąd raczej nie zalecałbym presetów niższych niż jakościowy. Z kolei FSR wypadło zaskakująco dobrze - do tego stopnia, że moim zdaniem bardzo trudno byłoby odróżnić obraz generowany z włączonym rozwiązaniem AMD od rozdzielczości natywnej czy DLSS. Ostrość jest naprawdę dobra, choć tym razem nie mamy suwaka do korekty tego parametru, podobnie jak szczegółowość oprawy. Niemniej nie są to jedyne punkty wspólne z DLSS, bo także i tutaj cierpią gałęzie drzew. Ponadto niższe profile są zdecydowanie niezalecane, z uwagi na mocne rozmydlenie i utratę detali, ale to standardowa cecha FSR. Reasumując, o ile w przypadku 1080p oraz 1440p darowałbym sobie obie techniki skalowania, z uwagi na delikatne pogorszenie grafiki i niewielki zysk, to jednak jeśli celujecie w 4K i brakuje Wam trochę FPS do zakładanego poziomu płynności, jak najbardziej warto włączyć DLSS, jeśli posiadacie GeForce'a, lub FSR w przypadku Radeonów.

 

Grę do testów dostarczyła:

God of War - DLSS vs FSR: porównanie jakości obrazu i test wydajności na kartach GeForce RTX

Karty graficzne do testów dostarczyli:

God of War - DLSS vs FSR: porównanie jakości obrazu i test wydajności na kartach GeForce RTX

God of War - DLSS vs FSR: porównanie jakości obrazu i test wydajności na kartach GeForce RTX

God of War - DLSS vs FSR: porównanie jakości obrazu i test wydajności na kartach GeForce RTX

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: God of War - DLSS vs FSR: porównanie jakości obrazu i test wydajności na kartach GeForce RTX

 0