DLSS 2.0 w grach komputerowych - porównanie jakości obrazu i wydajności

DLSS 2.0 w grach komputerowych - porównanie jakości obrazu i wydajności

NVIDIA DLSS 2.0 w grach komputerowych

Rodzina kart graficznych GeForce RTX, która swoją premierę miała w końcówce września 2018 roku, pod pewnymi względami była inna niż poprzednicy na bazie Pascala. Przede wszystkim NVIDIA w generacji Turing postawiła nie na czyste osiągi, lecz głównie na innowację, a konkretniej wprowadzenie śledzenia promieni (ang. ray-tracing) do gier komputerowych. Kiedy w listopadzie ukazał się Battlefield V, wykorzystujący tę technikę do tworzenia odbić, od razu stało się jasne, że należy się liczyć ze znacznym spadkiem wydajności z tytułu aktywacji nowych efektów. Odpowiedzią na ten stan rzeczy było DLSS, w założeniach mające przynosić spory wzrost osiągów przy podobnej lub wręcz lepszej jakości obrazu, w odniesieniu do tradycyjnej metody wygładzania krawędzi TAA, a to za sprawą sztucznej inteligencji. Prawdziwy, bo w dema technologiczne przecież nie zagramy, debiut DLSS nastąpił w lutym 2019 roku, za sprawą Metro Exodus i aktualizacji Battlefield V, a w następnym miesiącu do tego grona dołączyła Shadow of the Tomb Raider. Rzecz jasna w każdej z tych produkcji efekty implementacji DLSS były trochę inne, ale jednak w żadnej nie satysfakcjonujące, de facto co najwyżej zbliżone do zwykłego przeskalowania obrazu za pomocą klasycznych technik. Dla zielonych oczywiste więc było, że trzeba coś z tym fantem zrobić, bo zapowiedzi niebezpiecznie mocno rozminęły się z rzeczywistością, i tak oto dostaliśmy DLSS 2.0.

DLSS 2.0 to druga wersja obiecującej techniki zielonych mającej zwiększać osiągi w grach. Zobaczmy, jak rozwiązanie spisuje się w różnych produkcjach.

Death Stranding - wybieramy kartę graficzną do gry w rozdzielczości 4K

 Test karty graficznej KFA2 GeForce RTX 2070 SUPER EX (1-Click OC)

Kilka słów na temat DLSS 2.0

Druga wersja omawianego rozwiązania swoją przygodę rozpoczęła od czterech gier, Control, Deliver Us The Moon, MechWarrior 5: Mercenaries oraz Wolfenstein: Youngblood, i już pierwsze wzmianki na jej temat wywołały spore poruszenie, wskazując na ogromną poprawę w jakości obrazu. Od strony technicznej DLSS 2.0 przede wszystkim eliminuje największą wadę poprzednika, którą była konieczność trenowania sieci neuronowej osobno dla każdego tytułu, co mocno wydłużało czas implementacji. Obecnie sieć jest zunifikowana, a ponadto została zmodyfikowana poprzez dodanie składnika czasowego, w postaci tzw. wektorów ruchu (ang. motion vectors). Oznacza to tyle, że każda klatka jest tworzona na podstawie obecnej ramki renderowanej w obniżonej rozdzielczości, poprzedniej już po procesie "odzyskiwania" oryginalnej zawartości, a także właśnie składnika czasowego, co razem zapewnia dużo lepsze rezultaty. Na dokładkę mamy natomiast profile regulujące rzeczywistą rozdzielczość renderingu, za sprawą których możemy postawić na wyższą wydajność, albo mniejszą liczbę FPS, ale za to przy jakości obrazu bardziej zbliżonej do ideału. To wszystko naturalnie jednak tylko teoria, zaś o tym, jak wygląda praktyka przekonacie się na następnych stronach, na podstawie porównań wykonanych w czterech różnych produkcjach, z wykorzystaniem karty graficznej KFA2 GeForce RTX 2070 SUPER EX (1-Click OC), do której testu link macie powyżej.

Death Stranding - wybieramy kartę graficzną do gry w rozdzielczości 4K

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: DLSS 2.0 w grach komputerowych - porównanie jakości obrazu i wydajności

 0
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł