Wszystko co powinieneś/aś wiedzieć o technologii HDR w gamingu

Wszystko co powinieneś/aś wiedzieć o technologii HDR w gamingu

Sformułowanie High Dynamic Range (pol. szeroki zakres dynamiczny), w skrócie HDR, towarzyszy graczom już od ponad 10 lat. Wtedy to ukazały się tytuły takie jak Far Cry czy The Elder Scrolls: Oblivion, wspierające właśnie rzeczoną technikę. Wprowadzenie renderingu z użyciem szerokiego zakresu dynamicznego przełożyło się na znaczący wzrost jakości oświetlenia w grach, co z oczywistych przyczyn przyjęto z niemałym entuzjazmem. Niemniej, jak to ze wszystkimi nowinkami bywa, wraz z upływem czasu HDR spowszedniał, a użytkownicy właściwie zapomnieli o jego istnieniu. Temat wrócił na wokandę dopiero w tym roku - za sprawą premiery kart graficznych AMD Polaris oraz Nvidia Pascal, a także konsol Microsoft Xbox One S i Sony PS4 Pro.  Jednocześnie okazało się też, że użycie HDR wymaga specjalnie przystosowanego wyświetlacza. Co zrozumiałe, wszystko to wywołało spore zamieszanie…

Far Cry HDR

Zacznijmy od początku. W zamierzchłych czasach, kiedy światło dzienne ujrzał DirectX 8 (Shader Model  1.0), pojawiła się możliwość tworzenia oświetlonych scen 3D – dzięki rozwiązaniu określanym aktualnie jako oświetlenie standardowe. Funkcja ta miała jednak istotną wadę. Natężenie światła zapisywano na 8 bitach, co ograniczało zakres jasności do 0-255. Innymi słowy: maksymalny kontrast wynosił marne 255:1. Dodatkowo, problemem okazało się przywiązanie do liczb całkowitych, wprowadzające dużą skokowość kolejnych przejść tonalnych. Wady te wymusiły ewolucję pierwotnych pomysłów. Najpierw zwiększono precyzję zapisu, a następnie umożliwiono operacje na liczbach zmiennoprzecinkowych. Tak oto narodził się HDR Rendering, który na rynku zadebiutował wraz z DirectX 9.0c (Shader Model 3.0). Nvidia deklarowała wówczas, że szczytowy kontrast może wynieść nawet 65535:1. I to w przypadku wykorzystania ledwie 32-bitowego modelu – a obecny DX 11 umożliwia zapis nawet na 128 bitach.

Patrząc na powyższe wartości, nie sposób o przeoczenie istotnego problemu. Są nim oczywiście parametry monitorów. Większość współczesnych wyświetlaczy to panele o maksymalnie 8-bitowym próbkowaniu (256 odcieni na kolor podstawowy) i kontraście dochodzącym szczytowo do 1000:1. Aby poprawnie wyświetlić scenę na takim ekranie, karta graficzna dokonuje stratnego mapowania tonów. W wyniku rzeczonego zabiegu duża część detali bezpowrotnie ginie, zwłaszcza w ostrych światłach. I tak np. odbicia światła na śniegu jak również sam śnieg mogą zostać sprowadzone do bieli. Oczywiście deweloperzy są dość zapobiegawczy, często starają się mimo wszystko odróżnić poszczególne składowe sceny poprzez manipulowanie odcieniami – ale to z kolei zaburza wierność obrazu. Do tego dochodzi jeszcze jeden problem, gamut. Konsumenckie ekrany są ściśle powiązane z paletą sRGB, a ta stanowi jedynie skromny wycinek z całego spektrum barw widzianych przez człowieka.

Tak oto, w dużym skrócie, narodziła się konieczność stworzenia specjalnych wyświetlaczy HDR.

Piotr Urbaniak
Piotr Urbaniak Redaktor, programista

Student informatyki, niekoronowany król ITHardware.pl ;)

Zgłoś autorowi błąd na stronie

Komentarze


Ładuję...