Choć karta graficzna w domowym pececie czy laptopie typowo służy do rozgrywki w gry komputerowe, możliwości obecnych GPU dalece wykraczają poza samą rozrywkę. Nie jest niczym nowym wykonywanie rozmaitych obliczeń na procesorze graficznym, gdzie wymienić można chociażby rendering grafiki 3D, kodowanie wideo oraz projekty naukowe na platformie BOINC. Obecnie bardzo ciekawym zagadnieniem jest dynamicznie rozwijająca się sztuczna inteligencja (ang. artificial intelligence, w skrócie AI), która wymaga znacznych nakładów mocy obliczeniowej. Dla producentów GPU, takich jak NVIDIA, jest to zarówno wyzwanie, jak i szansa na rozwój swoich produktów, zatem nie powinno dziwić ich zainteresowanie tą tematyką. W dzisiejszym artykule zobaczymy, jakie zadania napędzane przez AI można wykonywać na komputerze oraz jakie korzyści zapewnia posiadanie karty graficznej GeForce RTX, która sprzętowo przyspiesza AI.
Spis treści:
- Sprzętowy i programowy ekosystem NVIDII
- Rendering grafiki 3D: oszumianie AI
- Generowanie obrazów z użyciem AI
- Zwiększanie rozdzielczości obrazów i filmów
- Podsumowanie wykonanych testów
Odnośnie dostępności cyfrowych pomocników bazujących na AI, bez trudu skorzystamy z nich za pośrednictwem rozmaitych usług chmurowych, niemniej takie podejście budzi pewne obawy. Przede wszystkim należy pamiętać o prywatności, ponieważ nie każdy chce wysyłać osobiste zdjęcia czy inne informacje na zewnętrzny serwer, gdzie mogą być później wykorzystywane na potrzeby rozwoju AI czy innych działań. Dane, na których operujemy, mogą być także sporych rozmiarów, przez co ich wysyłka poprzez internet może być problemem dla osób ze słabszym łączem, co prowadzi do wydłużonego czasu operacji. Ponadto bez dostępu do internetu z chmury nie skorzystamy w ogóle, a nie należy zapominać też o dodatkowych kosztach, które mogą generować tego typu usługi. Tych wad pozbawione jest lokalne wykonywanie zadań związanych z AI, zatem skorzystanie w tym celu z komputera albo laptopa to dobre podejście dla ceniących swoją prywatność oraz wygodę.
Karty graficzne nieustannie się rozwijają, a zagadnienie obecnie będące na topie to AI. Zobaczmy, jakie korzyści zapewnia użytkownikowi sztuczna inteligencja.
Test NVIDIA GeForce RTX 4070 SUPER. Tak powinna wyglądać premiera RTX 4070
Kilka słów na temat architektury kart GeForce RTX
Zaczynając od sfery sprzętowej, firma NVIDIA zaczęła przygotowywać się na wzmożone zainteresowanie AI dwie generacje temu, kiedy zadebiutowały GPU z linii Turing. Ponieważ obliczenia związane z AI wykorzystują operacje na macierzach, zieloni dodali do swojej architektury nowy rodzaj jednostek wykonawczych, tj. rdzenie Tensor. Te ostatnie pozwalają wykonywać obliczenia macierzowe dla różnych typów danych oraz precyzji, z wydajnością dużo wyższą w porównania do klasycznych shaderów. By zilustrować tę różnicę, przykładowo GeForce RTX 4070 SUPER może się pochwalić mocą obliczeniową dla standardowych operacji w precyzji FP16 równą 35,5 TFLOPS, podczas gdy użycie Tensorów daje dla FP16 aż 142 TFLOPS, a dla tzw. macierzy rzadkich 284 TFLOPS. Natomiast dla liczb całkowitych w niższej precyzji (INT8) mamy odpowiednio 284/568 TOPS. Innymi słowy, przyspieszenie AI z uwagi na obecność Tensorów w GPU jest minimum czterokrotne, a w określonych sytuacjach może być jeszcze większe.
Co wchodzi w skład ekosystemu firmy NVIDIA
Poza tym NVIDIA opracowała rozmaite rozwiązania programowe, które wykorzystują możliwości kart graficznych GeForce RTX. Wśród graczy najpopularniejsza jest na pewno technika DLSS, która pozwala na skalowanie obrazu z niższej rozdzielczości do wyższej, a to zwiększa osiągi przy zachowaniu podobnej jakości obrazu do renderingu natywnego. Z kolei dla streamerów przygotowano NVIDIA Broadcast, czyli aplikację, która pozwala usunąć bądź podmienić tło na nagraniu z kamery oraz poprawia jakość dźwięku z mikrofonu, poprzez eliminację szumów oraz dźwięków otoczenia. Wartym uwagi programem jest również NVIDIA Canvas, a więc narzędzie dla artystów, które pozwala zamienić prosty rysunek w realistyczny pejzaż. Ponadto dosłownie kilka dni temu została wydana wersja beta NVIDIA RTX Remix - platformy do tworzenia modyfikacji do gier, które dodają śledzenie promieni (ang. ray-tracing, w skrócie RT) oraz DLSS do starszych gier. Pozwala to uzyskać efekt zbliżony do tego, co można zobaczyć przykładowo w Quake 2 RTX i Portal RTX, ale z tą różnicą, że od teraz każdy modder może spróbować swoich sił w przygotowaniu takiej modyfikacji. A to nie wszystko, gdyż w najbliższym czasie ma się ukazać jeszcze NVIDIA Chat With RTX, który pozwoli skorzystać z chatbota AI na modelu GPT lokalnie, na swoim własnym komputerze, bez potrzeby przesyłania czegokolwiek do internetu, czego możemy nie chcieć z uwagi na prywatność.
Zadania twórcze wspomagane AI: rendering grafiki
Przy czym rozwiązania z ekosystemu NVIDII to nie jedyny sposób, by zrobić użytek z wydajności kart graficznych GeForce RTX w obliczeniach związanych z AI czy śledzeniem promieni. Liczba aplikacji, które potrafią skorzystać z przyspieszania przez GPU, jest bowiem znaczna, a w ramach tego tekstu chcielibyśmy zaprezentować kilka z nich. Zaczynamy od renderingu grafiki 3D i skupiając się na programie Blender, od listopada 2019 roku, czyli od wersji 2.81, aplikacja implementuje API OptiX. Dzięki temu potrafi zarówno skorzystać z rdzeni RT obecnych w układach GeForce RTX, co skraca czas renderingu, jak i z odszumiania opartego na AI, także wykonywanego przez GPU. By sprawdzić działanie odszumiania OptiX, przeprowadziliśmy testy z wykorzystaniem sceny Agent 327 Barbershop, z wyłączonym albo aktywnym odszumianiem oraz dla różnych ustawień liczby próbek na piksel (ang. samples per pixel, w skrócie spp). Co do spp, im mniejsza liczba próbek, tym krótszy czas renderingu, ale jednocześnie niższa jakość obrazu, z większym zaszumieniem. Za to zwiększanie spp daje rzecz jasna odwrotne zależności. Zobaczmy więc, jak radzi sobie odszumianie OptiX z niską liczbą spp.
Uwaga: Kliknięcie w grafikę spowoduje otwarcie pełnowymiarowej wersji.
Jakość obrazu - 800 spp
Jakość obrazu - 400 spp
Jakość obrazu - 200 spp
Jakość obrazu - 100 spp
Jakość obrazu - 50 spp
Jakość obrazu - 25 spp
Wydajność zależnie od liczby spp i odszumiania
Zadania twórcze wspomagane AI: generowanie obrazów
Idąc dalej, Stable Diffusion to model AI, który publicznie zadebiutował w sierpniu 2022 i pozwala na generowanie obrazów. W odróżnieniu od nieco starszych DALL-E oraz Midjourney, kod źródłowy Stable Diffusion jest publicznie dostępny, a co dla nas najistotniejsze, oznacza to, że można go bez trudu uruchomić na domowym komputerze, bez potrzeby wysyłania zapytań do chmury. Stable Diffusion pozwala na generowanie obrazów na podstawie opisu tekstowego lub na bazie innej grafiki i dodatkowego opisu określającego, na czym ma polegać jej przekształcenie. Najpopularniejsza implementacja Stable Diffusion to Automatic1111 i właśnie na jej podstawie wykonano testy. W celu poprawy wydajności, można skorzystać z biblioteki Xformers, która skraca czas tworzenia obrazu i zmniejsza użycie pamięci VRAM. Niemniej nie jest to jedyna możliwość, gdyż Automatic1111 wspiera również rozszerzenie TensorRT, zoptymalizowane pod kątem układów GeForce RTX. Sprawdźmy, która konfiguracja jest najszybsza.
Ustawienia testu były następujące:
- Sampling method: Euler a
- Sampling steps: 50
- Batch count: 10
- Batch size: 1
- CFG size: 7
Zadania twórcze wspomagane AI: zwiększanie rozdzielczości
Kolejne zastosowanie to grafika 2D, gdzie jednym z najpopularniejszych programów do obróbki grafiki rastrowej jest Adobe Photoshop. W tym miejscu będziemy przyglądać się opcji Super Resolution, która pozwala zwiększyć rozdzielczość obrazu dwa razy w pionie i w poziomie. Oznacza to, że przykładowo zdjęcie o wymiarach 1920x1080 px zostanie przeskalowane do 3840x2160 px, zatem liczba pikseli zwiększa się czterokrotnie. Opcja ta korzysta z procesora graficznego, aby przyspieszyć całą operację, dzięki czemu proces nie jest przesadnie długotrwały. Nasz zbiór testowy składał się z 65 obrazów o rozdzielczości 6000x4000 px (albo zbliżonej) i został przetworzony przez komputer z kartą GeForce RTX 4070 SUPER, co zajęło 3 minuty 46 sekund. Poniżej możecie jeszcze sprawdzić efekt użycia Super Resolution, na przykładzie grafiki o rozdzielczości 1920x1280 px, gdzie punkt odniesienia to jej przeskalowanie za pomocą metody Lanczos, dostępnej chociażby w IrfanView.
Uwaga: Kliknięcie w grafikę spowoduje otwarcie pełnowymiarowej wersji.
Jakość obrazu - SuperResolution vs Lanczos
Poprawa jakości wideo, czyli RTX Video Super Resolution
A skoro jesteśmy w temacie zwiększania rozdzielczości, warto wspomnieć o RTX Video Super Resolution. Technika ta poprawia jakość obrazu w materiałach wideo, strumieniowanych z sieci (wymagana przeglądarka Chrome albo Edge) i odtwarzanych lokalnie z dysku (pod warunkiem skorzystania z aplikacji VLC). RTX Video Super Resolution korzysta z AI, aby zmniejszać widoczność artefaktów związanych z kompresją wideo oraz zwiększać rozdzielczość obrazu, podnosząc ją do rozdzielczości ekranu. Przy czym przeskalowanie nie jest obligatoryjne, jako że technika działa też przy rozdzielczości wyświetlacza równej rozdzielczości oglądanego materiału, ograniczając się w takim wypadku do poprawy efektów ubocznych kompresji. Odnośnie kompatybilności, rozwiązanie działa na wszystkich kartach GeForce RTX, od RTX 20 do najnowszych RTX 40. Ponadto od niedawna w sterownikach NVIDII jest także technika RTX Video HDR, która przetwarza wideo SDR na HDR i jest zgodna z VSR. Co do aspektu praktycznego, karta GeForce RTX 4070 SUPER podczas odtwarzania wideo o rozdzielczości 1920x1080 px, które było skalowane do 3840x2160 px, zużywała przeciętnie ~70 W energii. Z kolei wizualny efekt włączenia RTX Video HDR możecie zobaczyć na zrzutach porównawczych.
Uwaga: Kliknięcie w grafikę spowoduje otwarcie pełnowymiarowej wersji.
Jakość obrazu z włączonym RTX Video Super Resolution
Zadania twórcze wspomagane AI: konkluzje
Przystępując do omówienia testów, odszumianie AI dostępne w programie Blender dobrze radzi sobie z eliminacją szumu przy niskiej liczbie spp. Notabene nawet przy dość wysokiej liczbie próbek (800) wybrana scena nadal nie była w pełni wolna od szumu, co zostało naprawione przez odszumianie OptiX. Z aktywną omawianą opcją można było dodatkowo zmniejszyć spp do 400, albo nawet 200, przy minimalnym wpływie na jakość obrazu. W zasadzie nawet przy niskiej liczbie próbek, tj. 25, odszumiona grafika jest sensownej jakości, chociaż pewne ubytki są już jednak widoczne. Innymi słowy, z odszumiania zdecydowanie warto skorzystać, by poprawić jakość renderowanej grafiki czy ew. zaoszczędzić czas, dzięki zmniejszeniu spp. Sam narzut czasowy odszumiania OptiX jest pomijalny, gdyż czas operacji wzrasta zaledwie o 1-2 sekundy. Ponadto odszumianie przydaje się do szybkich podglądów na bardzo niskiej liczbie próbek, zamieniając bardzo odszumiony obraz w akceptowalnej jakości grafikę. A dla graczy podobne rozwiązanie zostało dodane w DLSS 3.5 i nazwane Ray Reconstruction - odsyłam do testu tej techniki.
Kilka słów odnośnie generowania obrazów i zwiększania rozdzielczości
Odnośnie Stable Diffusion, rozszerzenie TensorRT przynosi znaczne przyspieszenie. Dzięki skorzystaniu z biblioteki NVIDII, karta GeForce RTX 4070 SUPER była w stanie generować obrazy o rozdzielczości 512x512 px około 60% szybciej względem standardowej implementacji z Xformers, a dla grafik 768x768 px przyspieszenie wyniosło ok. 51%. Biorąc pod uwagę rosnącą popularność obrazów generowanych z użyciem AI, jest to przydatne ulepszenie. Za to opcja Super Resolution, dostępna w programie Adobe Photoshop, pozwala stworzyć zdjęcia o podniesionej rozdzielczości i lepszej szczegółowości wzgl. tradycyjnych metod jak Laczos. Biorąc pod uwagę, że przetworzenie 65 zdjęć zajęło niespełna 4 minuty, nie jest to też specjalnie czasochłonna metoda. Poza tym analogiczne metody są dostępne dla filmów, czy dla samego odtwarzania (RTX Video Super Resolution), czy w kontekście edycji wideo (np. DaVinci Resolve i Topaz Video AI).
Dzięki AI można liczyć na wspomaganie różnych zadań twórczych
Podsumowując, pole do popisu dla nowoczesnych kart graficznych jest w dziedzinie szeroko pojętej kreatywności zdecydowanie niemałe. Dzięki AI da się poprawić dźwięk oraz obraz, które wykorzystujemy podczas streamowania rozgrywki albo w trakcie telekonferencji. Artyści-amatorzy mogą z prostych obrazków wygenerować realistyczne pejzaże. Zwykli konsumenci treści mogą zaś poprawić jakość oglądanych materiałów audiowizualnych. A to tylko wierzchołek góry lodowej, ponieważ np. NVIDIA RTX Remix pozwala tworzyć modyfikacje do gier, które całkowicie zmieniają grafikę i jednym z takich fanowskich projektów jest Half-Life 2 RTX. Za to graficy 3D na pewno docenią przyspieszenie renderingu przez kartę graficzną, a osoby zajmujące się grafiką rastrową zrobią użytek z szeregu efektów i filtrów bazujących na AI, które dostępne są w Photoshopie. Jeżeli więc należycie do grona kreatywnych, komputer lub laptop z kartą GeForce RTX wspomoże Was w pracy, bez względu na to, jaki pomysł przyjdzie Wam do głowy, dzięki wysokiej wydajności oraz szerokiej kompatybilności z zewnętrznym oprogramowaniem rozwiązań firmy NVIDIA.
Karty GeForce RTX oraz komputery i laptopy w nie wyposażone kupicie w sklepie Komputronik
*Artykuł sponsorowany powstał we współpracy z marką NVIDIA
Pokaż / Dodaj komentarze do: Karty graficzne GeForce RTX wspomagają zadania twórcze dzięki AI