Rdzenie Tensor to nie ściema. Grafiki GeForce RTX rzeczywiście korzystają z ich możliwości

Rdzenie Tensor to nie ściema. Grafiki GeForce RTX rzeczywiście korzystają z ich możliwości

Odkąd NVIDIA zaprezentowała DLSS, technologię skalowania opartą na sztucznej inteligencji, dostępną wyłącznie dla kart graficznych GeForce RTX, w sieci toczy się dyskusja na temat tego, czy włączenie DLSS wymaga specjalistycznego sprzętu napędzanego rdzeniami Tensor. Użytkownik Reddita postanowił to sprawdzić. 

Dzięki rdzeniom Tensor napędzanym przez AI w kartach graficznych GeForce RTX, technologia DLSS może zapewnić znaczny wzrost wydajności w grach, kosztem minimalnej utraty jakości obrazu. Z drugiej strony konkurencyjne technologie, takie jak AMD FSR i Intel XeSS, mogą działać na praktycznie wszystkich nowoczesnych kartach graficznych, bez żadnych specjalnych rdzeni, tymczasem DLSS ogranicza się do modeli z rodziny GeForce RTX, która obecnie obejmuje trzy generacje sprzętu NVIDIA.

Czy włączenie DLSS wymaga specjalistycznego sprzętu napędzanego rdzeniami Tensor. Użytkownik Reddita postanowił to sprawdzić. 

Redditor sprawdza rdzenie Tensor

Chcąc sprawdzić, w jaki sposób DLSS wykorzystuje rdzenie Tensor (i czy są one niezbędne wymagane), Redittor „Bluedot55” użył narzędzia NVIDIA Nsight Systems do pomiaru parametrów programistycznych, aby zobaczyć, co się stanie, gdy DLSS zostanie włączony. Okazuje się, że DLSS rzeczywiście wymaga rdzeni Tensor do działania, a wyniki są naprawdę ciekawe. 

dlss

Aby przetestować DLSS, Bluedot55 uruchomił grę Cyberpunk 2077 GeForce RTX 4090 z maksymalnymi ustawieniami RT Psycho, aby mieć pewność, że DLSS oparty na sztucznej inteligencji przyniesie znaczny wzrost wydajności. Włączono także generowanie klatek (Frame Generation), dostępne wyłącznie w serii GeForce RTX 40, ponieważ wykorzystuje ona nowy hardware napędzany przez AI, czyli „optyczny akcelerator przepływu”.

Wyniki były zaskakujące... do czasu

Początkowo wyniki były nieco niepokojące, ponieważ średnie wykorzystanie rdzenia Tensor Core z włączoną funkcją DLSS wyniosło mniej niż 1%, co wskazywało, że niewiele działo się ze specjalistycznym sprzętem AI w układach graficznych GeForce RTX. Szczytowe wykorzystanie, dzięki generowaniu ramek dla rdzeni Tensor, osiągnęło 9%, co pokazuje, że sprzęt jest używany, ale być może nie w pełni, co budziło wątpliwości odnośnie konieczności wykorzystania tych rdzeni przez grafiki GPU.

Przynajmniej do czasu, gdy Bluedot55 zwiększył częstotliwość raportowania do „znacznie wyższego” interwału, bo nagle szczytowe wykorzystanie rdzenia Tensor dla ustawienia DLSS Balanced na karcie GeForce RTX 4090 osiągnęło 90% – a ponieważ cały proces musi być niezwykle szybki, ogólne średnie wykorzystanie jest zdecydowanie niższe. Ma to sens, jeśli spojrzymy na istotę DLSS, bo jeśli ramki i dane gry muszą zostać przetworzone przez generowane lub upscalowane klatki, musi to nastąpić niezwykle szybko.

Kiedy więc DLSS robi swoje, przez krótki czas używa rdzeni Tensor ze względu na to, jak szybki jest to proces. Biorąc pod uwagę przewagę technologii NVIDIA DLSS nad konkurencyjnymi technologiami upscalowania  (FSR i XeSS), wygląda na to, że pójście w sprzętową akcelerację okazało się dobrą decyzją. 

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: Rdzenie Tensor to nie ściema. Grafiki GeForce RTX rzeczywiście korzystają z ich możliwości

 0