futurebeat.pl News Tech Mobile Gaming Nauka Moto Rozrywka Promocje
Technologie 5 września 2018, 09:24

autor: Nils Raettig (gamestar.de)

Hardware’owy ray tracing – renderowanie hybrydowe, RT Core oraz Deep Learning. Czym jest ray tracing?

Ray tracing zagościł na naszych ustach, gdy Nvidia zaprezentowała nowe karty graficzne z rodziny RTX. Ale czym on tak właściwie jest? Jakie korzyści przynosi graczom? I ile trzeba za niego zapłacić?

Hardware’owy ray tracing – renderowanie hybrydowe, RT Core oraz Deep Learning

Architektura Turing oferuje między innymi specjalne procesory zajmujące się tylko obliczeniami związanymi z ray tracingiem - zostały zaprojektowane tak, aby zapewniać stosunkowo wysoką wydajność w tym obszarze.

Nowa architektura Nvidii – Turing – została zaprojektowana specjalnie z myślą o technice ray tracingu w czasie rzeczywistym. Jedną z ważniejszych wprowadzonych przez nią innowacji są specjalne jednostki obliczeniowe, których jedynym zadaniem są obliczenia związane ze „śledzeniem promieni”. Nic więc dziwnego, że Nvidia ochrzciła je mianem „Raytracing Cores” (czyli rdzeni RT).

Kolejnym bardzo ważnym czynnikiem jest fakt, że ray tracing będzie początkowo wykorzystywany w grach, które korzystają z tzw. „hybrydowego renderowania RTX”. Oznacza to, że obliczanie obrazu odbywać się będzie przez połączenie klasycznej rasteryzacji oraz ray tracingu. Przykładowo w Shadow of the Tomb Raider technika ray tracingu powinna być początkowo wykorzystywana wyłącznie do realistycznego odwzorowania cieni.

Podczas prezentacji na targach gamescom Jen-Hsun Huang powiedział, że bez nowych rdzeni RT obliczenia związane z tą technologią trwałyby dziesięciokrotnie dłużej. Ponadto zaproponował on również nową jednostkę pomiaru wydajności ray tracingu: „gigaray” na sekundę.

Oczekuje się, że ray tracing w czasie rzeczywistym przez dłuższy czas będzie stosowany w połączeniu z klasycznymi metodami renderowania, co pozwoli na oszczędzenie mocy obliczeniowej.

Jensen stwierdził także, że flagowy model generacji GTX 10, GeForce GTX 1080 Ti, osiąga 1,21 gigaraya (bez dedykowanych jednostek obliczeniowych RT) na sekundę, natomiast dzięki architekturze Turing możliwe ma być osiągnięcie 10 gigarayów na sekundę. Ponadto obliczanie obrazu może być uzupełnione algorytmem Deep Learning (głębokiego uczenia), dla którego opracowane zostały specjalne rdzenie Tensor.

Mówiąc prościej, zadaniem algorytmu jest umożliwienie prawidłowego kodowania pikseli, które nie zostały jeszcze odpowiednio uchwycone w normalnym procesie renderowania. Właśnie ten proces Nvidia nazywa „przetwarzaniem DNN”, gdzie skrót oznacza „Deep Neural Network”. Za tą wymyślną nazwą ukrywa się rozwiązanie, które ma wyeliminować problem zakłóceń obrazu, gdy nie została wyemitowana liczba wiązek wystarczająca do realistycznego zaprezentowania otoczenia.

Także i w tym przypadku Huang porównał osiągi nowej generacji do poprzedników z rodziny Pascal: procesory Tensor w architekturze Turing mają umożliwić obliczenia SI, do których obecnie potrzeba by aż dziesięciu kart GeForce GTX 1080 Ti, niewyposażonych w dedykowane jednostki obliczeniowe.

Inne zastosowanie procesorów Tensor nie ma nic wspólnego z ray tracingiem: mowa o DLSS (Deep Learning Super-Sampling). Technika ta wykorzystuje algorytm sztucznej inteligencji, która została wcześniej przeszkolona na superkomputerze, aby automatycznie poprawić jakość obrazu pojedynczej klatki na podstawie wcześniej poznanych przykładów. Może to przybrać formę bardzo dobrego antyaliasingu bez rozmycia obrazu lub artefaktów innych metod wygładzania, takich jak FXAA lub TAA.

Rdzenie Tensor w architekturze Turing będą również w stanie poprawić jakość obrazu za pomocą tzw. DLSS. Technologia ta musi być jednak obsługiwana przez daną grę.

Jakie zmiany to przyniesie – i ile będzie kosztować?

W najlepszym przypadku technika ray tracingu będzie prowadziła do bardziej realistycznego odwzorowania otoczenia w grach. Dzięki niej wszystkie dostępne źródła światła będą zachowywać się w sposób zgodny z rzeczywistą fizyką, cienie otrzymają miękki wygląd, a odbicia będą przypominać refleksy, do których jesteśmy przyzwyczajeni ze świata rzeczywistego.

Pierwsze dema zaprezentowane na targach gamescom sugerują jednak, że na drodze do pięknego, nowego świata ray tracingu wciąż stoją pewne przeszkody. Jedną z nich jest duży apetyt na moc obliczeniową, o czym świadczył pokaz Shadow of the Tomb Raider. Dostępne w internecie materiały wideo pokazują, że nawet nowy, sztandarowy model GeForce RTX 2080 Ti w przypadku wielu scen był w stanie wyświetlić grę z „Raytraced Shadows” jedynie w 30–40 klatkach na sekundę, i to w rozdzielczości Full HD.

Zgodnie z naszą wiedzą, wszystkie raytracingowe dema zaprezentowane podczas targów gamescom działały właśnie w rozdzielczości 1080p, co sugeruje, że zasobożerność nowej technologii w 4K może okazać się zdecydowanie zbyt duża. Oczywiście żadna z pokazanych gier nie została jeszcze wydana, podobnie jak odpowiednie sterowniki do kart RTX.

Twórcom takiego choćby Tomb Raidera zostało jeszcze nieco czasu na optymalizację. Ponadto funkcję ray tracingu bez wątpienia będziemy mogli włączyć lub wyłączyć w formie indywidualnego ustawienia. W związku z tym, jeśli tylko zajdzie taka potrzeba, powinna istnieć możliwość obejścia się bez tej technologii w celu osiągnięcia lepszej wydajności.

Liczyć można też na opcję pośrednią: jednym ze sposobów na oszczędzanie zasobów przy technice ray tracingu jest śledzenie mniejszej liczby promieni – a także śledzenie ich na krótszym odcinku. Będzie to jednak miało odzwierciedlenie w jakości obrazu. Takich kompromisów prawdopodobnie nie da się uniknąć, jeśli liczba klatek na sekundę ma być odpowiednio wysoka, nawet pomimo zastosowania ray tracingu.

Niezależnie od tego, technologia ta z pewnością może znacząco poprawić aspekt wizualny gier komputerowych. Pozostaje nam jedynie czekać, gdyż tylko egzemplarze testowe nowych kart graficznych RTX oraz gry obsługujące ray tracing pokażą, jak wielki postęp rzeczywiście osiągnięto w porównaniu z szumnymi zapowiedziami Nvidii o architekturze Turing.

Nvidia łączy wydajność dedykowanych jednostek renderujących w architekturze Turing z tak zwanym „RTX OPS”. Jednak nowe karty graficzne serii RTX 2000 powinny być szybsze od swoich poprzedników z rodziny Pascal nawet bez uwzględnienia rdzeni RT i procesorów Tensor.

Artykuł powstał przy współpracy z serwisem GameStar, należącym do grupy medialnej Webedia. Polskie opracowanie tekstu wykonał Michał Ostiak.

Nils Raettig (gamestar.de)

Warto było kupić GeForce RTX? Gry z najlepszym ray tracingiem
Warto było kupić GeForce RTX? Gry z najlepszym ray tracingiem

Od pojawienia się na rynku kart GeForce RTX 2080, nie zaznaliśmy zbyt wielu gier obsługujących ray tracing. Premiera RTX 3080 i obsługa tej technologii w PS5 i Xbox Series X daje jednak nadzieje na przyszłość.

Sprawdzamy ray tracing w Call of Duty: Modern Warfare
Sprawdzamy ray tracing w Call of Duty: Modern Warfare

Od momentu zapowiedzi kart graficznych z rodziny GeForce RTX oraz konsol Xbox Scarlett i PS5, ray tracing nie schodzi z ust wszystkich. Czy ta technologia sprawdza się dobrze również w najnowszej odsłonie serii Call of Duty?