Sterowniki NVIDIA GeForce Game Ready - test
Tematem przewodnim dzisiejszego artykułu będzie kwestia w ostatnim czasie często poruszana oraz żywiołowo komentowana w środowisku komputerowych entuzjastów, czyli to, w jaki sposób nowe sterowniki NVIDIA wpływają na wydajność starszych kart graficznych amerykańskiego producenta, a konkretniej mówiąc, będą to dwa układy z rodziny Pascal - GeForce GTX 1060 3 GB oraz GTX 1080 Ti. Taki a nie inny dobór modeli wynika oczywiście z potrzeby zaprezentowania rezultatów nie tylko dla drogich konstrukcji z najwyższej półki, ale też tych bardziej przyziemnych, które częściej znajdziemy w komputerach graczy w naszym kraju. NVIDIA w przeszłości miewała już różne zawirowania i wpadki związane ze sterownikami, stąd też problem ten zasługuje na dokładniejsze zbadanie. Wydaje mi się, że przynajmniej część czytelników, ta nieco starsza wiekiem grupa, powinna kojarzyć rodzinę GeForce FX, która nie była zbyt udanym tworem. W tamtym czasie flagowym benchmarkiem był 3DMark03, w którym najnowsze dzieło zielonych, na tle konkurencyjnych Radeonów serii 9000, wypadało bardzo słabo. Stąd też NVIDIA oczywiście podjęła próbę poprawy osiągów, poprzez wydanie Detonatorów 43.45, które podmieniały kod dla jednostek cieniujących oraz ograniczały precyzję z FP32 do FP16, podnosząc w ten sposób liczbę klatek na sekundę, ale kosztem zmian w generowanym obrazie. Mieliśmy także znikającego smoka w teście Dragothic w 3DMarku 2001 (Detonatory 44.03) czy problemy z rozmytymi teksturami w erze pierwszego Crysisa. Ale o co dokładnie chodzi tym razem i skąd wziął się cały ten raban, który obserwujemy od pewnego czasu?
Ograniczanie wydajności starszych kart graficznych od NVIDII to gorący temat w środowisku komputerowych entuzjastów. Redakcja ITHardware postanowiła zweryfikować te doniesienia.
NVIDIA Turing: czy wszystko poszło jak trzeba?
Jak wszyscy wiecie, niecałe dwa miesiące temu, jeszcze we wrześniu, swoją premierą miała kolejna generacja kart graficznych NVIDII, nazwana przez producenta Turing. Nowości (chyba wciąż mogę używać tego określenia, co nie?) zapowiadane były jako potężne akceleratory, które - także w przypadku słabszego wariantu GeForce RTX 2080 - miały zapewnić wysoki komfort rozgrywki w 4K, przy maksymalnych ustawieniach graficznych. O ile w przypadku potężniejszego RTX 2080 Ti sztuka ta w gruncie rzeczy się udała, to jednak zostało to okupione bardzo wysoką ceną kart bazujących na tym GPU, grubo przekraczającą 5000 zł. Zaś wspomniany wcześniej RTX 2080 zaoferował osiągi na poziomie starszego GTX 1080 Ti, zatem 60 FPS w 4K widział co najwyżej w poradniku dla testerów, tzw. reviewer's guide. Rodzina Turing ma jednak co najmniej dwa asy w rękawie, a są to sprzętowo wspomagane śledzenie promieni (ang. ray-tracing) oraz technika wygładzania krawędzi DLSS (ang. Deep Learning Super-Sampling), realizowane z wykorzystaniem nowych jednostek dedykowanych - rdzeni RT oraz Tensor. Tyle, że na chwilę obecną obie techniki są bezużyteczne, gdyż w akcji możemy je zobaczyć co najwyżej w demach technologicznych, przygotowanych we współpracy z NVIDIĄ, a gier zapewniających wsparcie jeszcze nie ma. Zaś wspomniane jednostki dedykowane zajmują dodatkowe miejsce, przyczyniając się do bardzo dużej powierzchni jąder krzemowych TU104 (RTX 2080) oraz TU102 (RTX 2080 Ti), co oczywiście przekłada się na wyższe koszty produkcji i jest głównym czynnikiem warunkującym niezbyt optymistyczne ceny sklepowe. Stąd też podejrzenia, że NVIDIA może zechcieć skusić potencjalnych klientów do inwestycję w Turinga, z wykorzystaniem wątpliwych środków...
Zawirowania z Pascalami i najnowszymi sterownikami
Mowa oczywiście o sztucznym obniżaniu osiągów Pascali, wraz z kolejnymi aktualizacjami sterowników graficznych, nazywanych obecnie GeForce Game Ready. Skutek miałby być oczywisty - powiększająca się różnica między starszą generacją a najnowszą spowoduje, że atrakcyjność tej pierwszej spadnie w sposób drastyczny. Oliwy do ognia dolał materiał przygotowany przez YouTubera publikującego na kanale Testing Games, którego reputacji na chwilę obecną nie będę omawiał, gdyż jeszcze przyjdzie na to pora. Na owym filmie widać, że sterowniki w wersji 399.24 (sprzed premiery Turingów) zapewniają na karcie GeForce GTX 1060 6 GB zauważalnie wyższą wydajność (nawet ~10%), w porównaniu do nowszych 416.16. Jak to jednak z materiałami dostępnymi w Internecie zwykle bywa, szczególnymi tymi pochodzącymi od YouTuberów, należy mieć do nich ograniczone zaufanie. Dlatego też postanowiłem zweryfikować zagadnienie, przeprowadzając nic innego jak test sterowników. Zasada jest bardzo prosta - bierzemy najstarszą wersję obsługującą wszystkie wybrane karty graficzne z danej generacji, a także najnowszą, ale taką, która jeszcze nie wspiera kolejnej rodziny GPU. Potem wybieramy pierwsze wydanie kompatybilne z serią będącą następcą badanej architektury oraz ostatnie, spełniające podane wcześniej kryterium. W razie potrzeby, czynność powtarzamy, przemierzając kolejne generacje kart graficznych. Chociaż w tym przypadku oczywiście nie było to koniecznie, a nawet wykonalne, gdyż niczego nowszego od Turinga po prostu nie ma. W ten sposób, dla GTX 1060 3 GB oraz GTX 1080 Ti (Pascal) wyselekcjonowane zostały: 378.78, 399.24, 411.51/411.63 oraz 416.81. Tyle tytułem wstępu, czas najwyższy przejść do samych testów.
Pokaż / Dodaj komentarze do: Czy NVIDIA ogranicza wydajność starszych kart graficznych? Odc. 1, Pascal