NVIDIA pracuje nad technologią GPU, która znacząco zwiększy wydajność w ramach ray tracingu

NVIDIA pracuje nad technologią GPU, która znacząco zwiększy wydajność w ramach ray tracingu

Wygląda na to, że przyszłe karty graficzne NVIDII mogą doczekać się kolejnego znaczącego wzrostu wydajności w ramach ray tracingu, który nie będzie wynikał tylko z ulepszeń w ramach rdzeni RT. 

Kiedy NVIDIA wypuściła na świat pierwsze karty graficzne „RTX”, obsługujące śledzenie promieni, określono to największym przełomem w branży gier od dekady (niestety mówimy nawet o całym XXI wieku). Szybko jednak okazało się, że koszt wydajnościowy tej technologii jest tak duży w przypadku grafik Turing, że wielu graczy uznało, że efekty ray tracingu nie były warte tak dużego spadku liczby klatek na sekundę. Seria GeForce RTX 3000 oparta na architekturze Ampere znacznie poprawiła tę kwestię, prawie dwukrotnie zwiększając wydajność ray tracingu w porównaniu z Turingiem. Podobnie, nowsze tytuły zaimplementowały ray tracing w sprytniejszy sposób, czy to wykorzystując go do bardziej widocznego efektu, jak w Fortnite, czy też opierając na nim cały potok renderujący, jak w Metro Exodus Enhanced Edition.

Wygląda na to, że przyszłe karty graficzne NVIDII mogą doczekać się kolejnego znaczącego wzrostu wydajności w ramach ray tracingu, który nie będzie wynikał tylko z ulepszeń w ramach rdzeni RT. 

Mimo to zaznaczenie opcji „RTX On” ma swoją cenę i choć efekt potrafi robić świetne wrażenie, realistycznie symulując światła, ale spadek wydajności wciąż jest duży. Według artykułu opublikowanego niedawno przez firmę NVIDIA niektóre z tych spadków wydajności wynikają z tego, że ray tracing w czasie rzeczywistym wyjątkowo mocno uderza w efektywność GPU. Ta kwestia sprowadza się do designu, natura ray tracingu jest zasadniczo sprzeczna ze sposobem, w jaki normalnie działają GPU NVIDII. GPU to procesory masowo równoległe, które obliczają rzeczy w wątkach, podobnie jak CPU, chociaż uruchamiają znacznie więcej wątków, niż zwykle robi to procesor. Te wątki są pogrupowane w jednostki zwane "warpami", które wykonują "pojedynczą instrukcję, wiele wątków" (SIMT) z jednego licznika programu. GPU ukrywają przestoje w potoku, planując jednocześnie wiele "warpów".

Opisane w artykule problemy z ray tracingiem są dwojakie. Po pierwsze, ray tracing jest z natury rozbieżny, co oznacza, że ​​niekoniecznie ma ten sam licznik programu. Nie można go przetwarzać za pomocą SIMT, co wymaga serializacji i poważnie obniża wydajność. Inną kwestią jest to, że ray tracing nie generuje wielu "warpów", więc tradycyjne podejście do ukrywania boksów nie działa. Podczas gdy programiści w przeszłości pracowali nad zminimalizowaniem tej rozbieżności, specjaliści NVIDII znaleźli sposób na wykorzystanie jej z korzyścią dla GPU. Mówiąc prościej, ich nowa technika, zwana „Sub-warp Interleaving”, zwiększa zajętość jednostek funkcjonalnych GPU, skracając ogólny czas wykonywania, a tym samym poprawiając wydajność.

Jak bardzo? We własnych testach badaczy z wykorzystaniem zmodyfikowanej architektury Turinga w symulatorze stwierdzili poprawę średnio o około 6,3%, przy maksymalnej korzyści około 20%. Nie jest to dużo, ale w przypadku ray tracingu każdy wzrost z pewnością byłby mile widziany. Poza tym, w skrajnych przypadkach poprawa wynosiła nawet 20%. Niestety, jest mało prawdopodobne, aby w najbliższym czasie otrzymać grafiki, które skorzystają z tego rozwiązania. 

Jak wspomniano, naukowcy zademonstrowali technikę przy użyciu zmodyfikowanej architektury Turing, więc prowadzenie tej techniki nie jest możliwe za pomocą prostej aktualizacji sterowników. Wymagana jest implementacja na poziomie sprzętowym, a biorąc pod uwagę, że artykuł został właśnie opublikowany, jest mało prawdopodobne, że technologia trafi do nowej generacji architektury NVIDII, czyli Ada Lovelace. Bardziej prawdopodobna jest implementacja w jej następcy.

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: NVIDIA pracuje nad technologią GPU, która znacząco zwiększy wydajność w ramach ray tracingu

 0