Dotarliśmy do końca materiału, toteż przyszedł czas na podsumowanie uzyskanych rezultatów. Przede wszystkim podkreślić trzeba to, o czym wspomniałem już we wstępie – oczekiwania odnośnie nowej rodziny NVIDII, GeForce RTX, były naprawdę duże i od dłuższego czasu zastanawiałem się, co z nich zostanie w zderzeniu z rzeczywistością, ergo jak dobrze amerykański producent udźwignie bagaż nadziei użytkowników. Szczerze powiedziawszy, nie udźwignął. Co prawda nie da się zaprzeczyć, że GeForce RTX to seria całkiem innowacyjna, po raz pierwszy wprowadzająca pamięci GDDR6, znacząco wydajniejsze od GDDR5X, a także zapewniająca sprzętowe wspomaganie śledzenia promieni (ray-tracingu) oraz nową technikę wygładzania krawędzi DLSS. Tyle że na chwilę obecną niewiele z tego wynika, gdyż rzeczywistych produkcji, w które możemy po prostu zagrać, a nie tylko je uruchomić i zobaczyć krótkie demo, najzwyczajniej w świecie nie ma. Szczególnie DLSS wygląda naprawdę ciekawie, obiecując lepszą jakość obrazu od typowo stosowanych metod jak SMAA czy TAA, dodatkowo dorzucając do tego wyższą wydajność. Tyle o tym, co może być kiedyś i w sumie na pewno będzie, ale jak dużej skali popularyzacji RT oraz DLSS mamy oczekiwać, nie chcę spekulować. No i chyba nie trzeba dodawać, że śledzenie promieni niewątpliwie mocno obniży liczbę klatek na sekundę. Oczywiście, w porównaniu do poprzedniej generacji, postęp jest wręcz oszałamiający, co pokazuje demo Reflections, ale czy to wystarczy do komfortowej rozgrywki? Zobaczymy.
GeForce RTX 2080 to GPU, co do którego oczekiwania były ogromne. W praktyce nie bardzo udało się je spełnić. Niemniej, nie można odmówić firmie GIGABYTE, że stworzyła naprawdę świetny niereferencyjny projekt.
Przechodząc do tego, co mamy tu i teraz, wypadałoby powiedzieć coś o wydajności GeForce-a RTX 2080 na tle teoretycznego poprzednika, czyli GTX-a 1080 oraz poprzednika właściwego, jeżeli popatrzymy na to z finansowego punktu widzenia, którym jest GTX 1080 Ti. Niewątpliwie przyrost osiągów względem GTX-a 1080 jest całkiem przyjemny, szczególnie biorąc pod uwagę zbliżoną specyfikację. Widać, że optymalizacje efektywnościowe inżynierów NVIDII sprawdzają się w praktyce, dzięki czemu RTX 2080 sprawuje się bardzo podobnie do GTX-a 1080 Ti, z którym na papierze przegrywa sromotnie pod każdym względem. Tyle że chyba nie rozminę się z prawdą, stwierdzając, że oczekiwania były zdecydowanie większe. Pamiętam krótką prezentację NVIDII, podczas której padł slajd traktujący o 60 FPS w 4K - także w kontekście tańszego GPU. Co z tego wyszło w praktyce? W sumie wielkie nico. Pozwolę sobie przytoczyć dosłownie dwie wartości liczbowe z poradnika dla recenzentów (ang. reviewer’s guide). Dotyczą one rozdzielczości 3840x2160, detali "Ultra" i gier Battlefield 1 oraz Wiedźmin 3: Dziki Gon. O jakich wartościach mówimy? Odpowiednio o 72,3 oraz 61,5 FPS. Ile natomiast wyszło w omawianych produkcjach, ale w moich testach? "Prawie" tyle samo - 50,7 FPS dla Battlefielda 1 oraz 43,1 FPS dla Wiedźmina 3 (50,2 FPS bez HairWorks). Jak to mawiają, "prawie robi wielką różnicę". I nie wiem, czy trzeba tu coś więcej dodawać. W gruncie rzeczy dostaliśmy GTX-a 1080 Ti z nowinkami technologicznymi, z których i tak obecnie pożytku nie mamy, a do tego wszystko w wyższej cenie. No i nie należy zapominać, że nowość potrafi ze starociem także przegrać…
Tyle na temat GPU, pora więc powiedzieć coś o testowanej karcie GIGABYTE samej w sobie. W tym przypadku nie mam wątpliwości - producent stanął na wysokości zadania. Sprzęt jest wykonany naprawdę solidnie, dysponuje adekwatnym systemem chłodzenia, który sprawdza się równie dobrze podczas pracy, jak i podkręcania, a powinien także zadowolić entuzjastów wielobarwnego podświetlenia, a to za sprawą iluminowanego logo producenta. Podkreślić należy również naprawdę solidne możliwości podkręcania. Uzyskany offset, wynoszący +150/1000 MHz, przełożył się na solidnego wydajnościowego kopa w wysokości około 12-16%. Jak na dzisiejsze czasy, trzeba przyznać, że to całkiem sympatyczny przyrost osiągów. Z ciekawostek dodam, że starsza wersja Afterburnera (4.5.0), niewspierająca architektury Turing, pozwoliła na wykrzesanie zaledwie 50 MHz na rdzeniu, więc bardzo istotne jest korzystanie z odpowiedniego oprogramowania. Reasumując, ostateczną ocenę muszę podzielić na dwie części. Pierwsza z nich poświęcona będzie GeForce'owi RTX 2080 - najnowszy twór NVIDII oceniam na trzy i pół gwiazdki, nie dokładając żadnych dodatkowych wyróżnień. Trzeba powiedzieć jasno - jest drożej niż w przypadku GTX-a 1080 Ti, a pod każdym względem bardzo podobnie, do tego z 3 GB pamięci mniej. Natomiast karta GIGABYTE GeForce RTX 2080 GAMING OC 8G otrzymuje ode mnie cztery i pół gwiazdki, wraz ze znaczkiem "jakość", gdyż to naprawdę solidny niereferent. Na zakończenie powiem tak, w żadnym wypadku nie chcę odbierać NVIDII innowacyjności, którą się tutaj niewątpliwie wykazała. Wszak śledzenie promieni może naprawdę znacząco zwiększyć realizm oświetlenia, zaś DLSS być źródłem dodatkowej wydajności oraz lepszej jakości obrazu. Tyle tylko, że to wszystko dopiero nadejdzie, na razie tego nie ma. Z czym się Wam to kojarzy? Bo mi ze słynnym Soon™, od kilku ładnych lat niezmiennie charakteryzującym produkty czerwonej konkurencji. I tym akcentem, chyba nie do końca optymistycznym, pozwolę sobie niniejszy tekst zakończyć.
NVIDIA GeForce RTX 2080
GIGABYTE GeForce RTX 2080 GAMING OC 8G
Wysoka jakość wykonania, wydajny układ chłodzenia (niskie temperatury pracy), solidne możliwości podkręcania, podświetlenie LED z RGB, sprzętowe wsparcie śledzenia promieni, nowa technika wygładzania krawędzi DLSS, wydajność na tle GTX-a 1080, wsparcie VirtualLink, 48-miesięczna gwarancja
Osiągi na tle GTX-a 1080 Ti nie zachwycają, efektywność energetyczna na poziomie poprzedniej generacji, bezużyteczne na chwilę obecną innowacje, oczekiwania były zdecydowanie większe, cena!!!
Cena (na dzień 22.09.2018) : ~4000 zł
Gwarancja: 48 miesięcy
Sprzęt do testów dostarczył:
Pokaż / Dodaj komentarze do: GIGABYTE GeForce RTX 2080 GAMING OC 8G - test karty graficznej z GPU Turing