Zarzucani zewsząd licznymi testami kart graficznych, skumpiamy się głównie na wydajności, zapominając zupełnie o innym ważnym aspekcie, jakim jest jakość generowanego obrazu. Teoretycznie, w erze sygnału cyfrowego nie powinno być żadnych różnic, jednak czasami można spotkać jegomościa, który właśnie wymienił akcelerator i z jakiegoś powodu narzeka na pogorszenie odczuć wizualnych. Z technicznego punktu widzenia, nie jest to bynajmniej niemożliwe. Uzbrojony w kolorymetr i wysokiej klasy monitor, postanowiłem sięgnąć po reprezentantów obydwu stajni, AMD oraz Nvidia, by ostateczne rozwiać wszystkie wątpliwości na powyższy temat. Niniejszym przedstawiam Wam test porównawczy jakości renderowanego obrazu, w którym za przykład posłużą: Radeon R7 370 oraz GeForce GTX 950.
Matematyka nakazuje sądzić, że zero jest zerem, a jedynka - jedynką, jednak nigdzie nie jest powiedziane, że karty Czerwonych i Zielonych wysyłają do monitora dokładnie taki sam ciąg cyfr. Wiemy tylko, że GPU zawsze korzystają z identycznych danych binarnych, a zatem bez względu na zastosowany procesor centralny, informacje wejściowe są niezmienne. Niemniej każdy akcelerator musi otrzymane dane przetworzyć - rysowanie siatki, wypełnienie teksturami, postprodukcja. Efekt tych procesów zależny jest nie tylko od procesora graficznego jako układu elektronicznego o cyfrowej charakterystyce, ale także od sterownika, co pozostawia producentom spore pole do manewru. Tak więc najoczywistsza przyczyna rozbieżności to działanie z premedytacją, mające na celu zwiększenie szybkości generowanych klatek kosztem ograniczenia szczegółowości renderu.
...najoczywistsza przyczyna rozbieżności to działanie z premedytacją, mające na celu zwiększenie szybkości generowanych klatek kosztem ograniczenia szczegółowości renderu.
W przeszłości zdarzyło się kilka takich sytuacji, a jednym z najbardziej znanych przypadków jest manipulowanie kamerą w 3D Marku 2003, uruchomionym na kartach Nvidii z serii GeForce FX. Rywale zza miedzy również mają swoje za uszami, ale szczyt ich inwencji mogliśmy podziwiać znacznie później, bo dopiero w Radeonach HD 6000. Wówczas ktoś pomysłowy postanowił walczyć z niską przepustowością, drastycznie obniżając poziom filtrowania anizotropowego w grach pod DirectX 9. Zmniejszono też zużycie pamięci graficznej poprzez migrację z bufora FP16 na dwukrotnie oszczędniejszy R11G11B10. AMD dopiero przyparte do muru przez opinię publiczną, udostępniło w sterowniku opcję wyłączenia "optymalizacji", tak czy inaczej pozostawiając zmiany domyślnie aktywne. Sytuacja na tyle rozdrażniła Zielonych, że wysyłali oni redakcjom notkę o zainstniałej ewentualności, wskazując na konieczność wprowadzenia zmian w ustawieniach przed przeprowadzeniem testów porównawczych.
Tym niemniej producenci wcale nie muszą nic celowo pogarszać, abyśmy mogli mówić o różnicach. W teorii tablica koloru karty graficznej może domyślnie zawierać jakąś macierz korekcji, przygotowaną pod kątem zachwycenia laików, nie uzyskania sensu stricto dobrej barwy. Modyfikacje przeprowadzone tym sposbem łatwo usunąć, lecz wymaga to oprofilowania monitora. Inaczej mówiąc, zainstalowania profilu ICC. Z tych samych pobudek, istnieje ryzyko zastosowania przez programistów różnych filtrów obrazu. Oczywiście wszystko to jest wyłącznie teorią. Aby zrewidować praktykę, posłużę się Acerem XB271HU, czyli jednym z lepszych monitorów klasy konsumenckiej oraz miernikiem X-Rite i1 Display Pro. Zamierzam zwrócić uwagę zarówno na parametry mierzalne jak gamma, która może być główną przyczyną wizualnie zbyt rozjaśnionego obrazu, jak i parametry bardziej subiektywne, np. szczegółowość sceny w grach. Czas start!
Pokaż / Dodaj komentarze do: AMD vs Nvidia: Porównanie jakości obrazu