Rewolucja w grafice? Nvidia wprowadza technologię raytracing
Może gdyby w przeszłości również nie pokazywali niesamowitych tech dem, które w rzeczywistości nijak miały się do rzeczywistego rozwoju grafiki to możnaby sie podniecać, ale teraz to przesada
Już niedługo postęp w grafice się zatrzyma, bo przecież nie da się zrobić czegoś lepszego niż w rzeczywistości.
Może gdyby w przeszłości również nie pokazywali niesamowitych tech dem, które w rzeczywistości nijak miały się do rzeczywistego rozwoju grafiki to możnaby sie podniecać, ale teraz to przesada
I tak gry nie będą tego używać, bo są robione pod konsole które takich bajerów nigdy nie będą mieć, głównie z tego powodu że są zbudowane z najtańszych podzespołów od AMD
Moj Switch tego nie potrzebuje :) zabawka dla dojenia pieniędzy.
Gta 6,the elder scrolls 7 i za 6-12 lat farming simulator będą kożystać z tej technologii albo i z lepszej technologii
Farming Simulator? Masz na myśli to badziewie, które praktycznie w ogóle się przez lata nie zmieniło? Zapomnij ;-)
Pov-ray, ktoś, coś ?
20 lat temu renderowało się niespecjalnie skomplikowaną scenkę (czyt. 1 klatkę) w 640x480 na 486SX nawet przez całą dobę ;)
Z tej perspektywy animacja "ledwie" HD w marnym 30fps renderowana w czasie rzeczywistym tą techniką naprawdę robi wrażenie. Pomijając praktyczne zastosowanie oczywiście, osobiście hołduję zasadzie że w grach płynność>>jakość.
Nvidia RTX - a po co to komu?? Ja gram w domu na Commodore 64 i grafika jest bardzo dobra.
A ja na ZX81 od Sinclaira i też jest dobrze.
Kto by patrzył na grafikę? W grach video? Niedorzeczność.
Zupełny bezsens na chwilę obecną. Może za 20 lat będzie to miało sens i nawet będzie standardem gdy każdy sprzęt domowy będzie w stanie robić takie obliczenia w locie. W tym czasie jednak gry nawet bez tego będą wyglądały już jak filmy. UE 4 wygląda bardzo dobrze, a nie ma tam raytracingu. Taką grafikę mamy już, a co będzie za kilka lat?:
Może silniki z odwzorowaniem atomów i realistycznych praw fizyki 1:1?
news flash: każdy nowoczesny silnik używa raytracingu przy wypalaniu cieni i GO. Różnica polega na tym, że tu to będzie w czasie rzeczywistym na karcie a nie pre-baked. A z grami jak na powyższym przykładzie nie ma dziś najmniejszego problemu. Tylko który komp uciągnie taką mapę w sensownym rozmiarze, z npcami, RUCHOMYM dynamicznym oświetleniem i AI :) No chyba, że satysfakcjonuje Cię 'symulator chodzenia' po 100 metrowym mieszkaniu. To już takie rzeczy powstają i niedługo będą miały premierę.
Zapomnieliście dodać najważniejszego, na volcie jest specjalny dodatkowy układ, tak twierdzi nv, który zapewne ma pomagać w obliczeniach, a którego nie ma w pascalach i niżej.
O, następne dema technologiczne od Nvidii, których nigdy nie ujrzymy w grach. Jedna karta, za 13 000, która pewnie uciągnie to w 5 klatkach na sekundę, nowy DirectX, pewnie też nowy Windows. Co najważniejsze, nie ma tego na konsolach, więc żaden developer się nie będzie tym przejmował.
Hydro2 - zdajesz sobie sprawę, że oświetlenie tych wnętrz z filmiku nie jest liczone w czasie rzeczywistym tylko pre-bakowane, a jego policzenie w dobrej jakości zajmuje ładnych parę godzin. Ta scena z mojego filmiku to 2 godziny na dual-xeon 2670 v3 - 32gb RAM:
Ram ma najmniejsze znaczenie. 8gb wystarczy. Poza tym skąd wiesz, że nie jest liczone in realtime? Po prostu trudno w to uwierzyć.
@Hydro2 nie jest :) takie ParisDemo chodzi nawet na GT555M co organoleptycznie sprawdziłem. Żaden popularny silnik nie liczy wszystkich cieni w realtime. Unreal wypala shadowmapy i nawet te dynamiczne cienie to prebaked. Cała branża jedzie na tych samych rozwiązaniach. Od czasu do czasu zdarzą się odszczepieńcy jak na przykład id ze swoim megatextures przy okazji RAGE (co jest fajną ciekawostką techniczną, ale niestety w praktyce się nie sprawdza), ale generalnie wszyscy robią to samo praktycznie tak samo.
Ryszawy - to że czegoś nie ma na konsolach to wcale nie znaczy że technologia zostanie zamknięta w szufladzie. Zresztą NV i tak będzie wyznaczać nowe kierunki bo po prostu może to robić.
Niby tak, ale pamiętasz kiedy wyszedł Crysis ? Widzisz jakiś gigantyczny postęp od 2007, a to już trochę ponad 10 lat ?
Większość współczesnych produkcji nie ma nawet odbić liczonych w czasie rzeczywistym, indirect lighting ma tylko ENB do Skyrima, cieni w rozsądnej jakości nie ma nawet ostatni Wiedżmin ani KCD.
Ryszawy ---> Zanim ta technologia rozgości się u PC-towców, zanim będą karty, na portfel zwykłego pc gracza, które tę technologię udźwigną i zanim one się rozgrzeją na rynku, to wyjdzie nowa generacja konsol, która zapewne już teraz jest projektowana pod kątem technologii Ray Tracing.
To nie jest ray tracking pelnoekranowy.Glownie chodzi o cienie, odbicia .Poza tym Ms wczoraj zapowiedzial wsparcie dla ray tracking w uaktualnieniu do Dx12. No to zaraz pewnie gruchnie wiadomosc, ze Vulcan tez bedzie i jeszcze lepiej. Jak czytam dyletantow piszacych, ze po co. To normalnie zalamuje sie nad inteligencja ludzi tu piszacych. Powiedzcie co wy w swoim zyciu osiagneliscie, ze uwazacie siebie za jakis guru, ktory moze kazda rewolucje do dna sprowadzac. Wiekszosc ludzi pracujacych nad ray trackingiem nie mialaby z wami o czym rozmawiac bo nie mielibyscie pojecia o czym mowicie. Najwiekszymi bolaczkami grafiki na dzien dzisiejszy sa swiatlo (ray tracking), geometria. Gdybym mial do tego dodac bolaczki gier to AI.
PS. Smiesza mnie ludzie co pisza po co, a gdy wychodzi nastepna gra AAA to pisza na temat grafiki. Grafika jest najwazniejszym elementem imersji w grze.
Przecież artykuł wspomina o API do DXa i pod to właśnie NV wprowadza RTX.
Volta na wspieranie sprzętowe, była zaprojektowana z myśl ąo tej technologii. Vega nie. Póki co, to najwyżej softwarowy fallback będzie wykorzystywany na wszystkim poza Voltą.
serio geometria? Larę już w ROTR tak odwalili, że nie da się znaleźć poly, a Ty mówisz, że bolączką jest geometria? :) Jak dla mnie to głównie oświetlenie, bo wszystkie silniki realtime robią wszystko 'sztuczkami' i protezami. Realtime raytracing z global illumination i w połączeniu nawet z dzisiejszymi standardami AAA na geometrie i rozdzielczość materiałów byłoby już przerażająco blisko prawdziwego fotorealizmu. Czego często dowodzą statyczne demo-sceny z właśnie UE4, CryEngine czy Unity dopakowanego pluginami.
"Grafika jest najwazniejszym elementem imersji w grze."
Zrobiłeś mi dzień.
To prawda jedynie w przypadku gier, w które nie warto grać.
"Grafika jest najwazniejszym elementem imersji w grze."
A mi cały tydzień.
Może i grafika jest ważna, ale nie w takim sensie jakim napisałeś, o wiele bardziej liczy się sztuka niż technologia na tym polu.
Grafika jest najwazniejszym elementem imersji w grze.
Dla kogo ? Chyba tylko dla małolatów. Rozwój gier stanął w miejscu, jeśli chodzi o mechanikę, fizykę, SI, a nawet mamy regres, a ty piszesz, że jest blisko realizmu :)
Rynek skupia się na prostocie i rozwoju graficznym,
bo to najłatwiejsze, ale nawet w grafice jeszcze bardzo daleka droga do uzyskania jakości jak w rzeczywistości.
Takie są fakty.
Maciell ma racje. Nie wiem o co wam chodzi.
Już niedługo postęp w grafice się zatrzyma, bo przecież nie da się zrobić czegoś lepszego niż w rzeczywistości.
A ile to jest dla Ciebie niedługo? Obawiam się, że możesz nie dożyć...
W 2009 roku firma Caustic Graphics ogłosiła, że opracowała algorytm umożliwiający tani raytracing w czasie rzeczywistym. Jednocześnie twierdzili, że opracowali procesor 20 krotnie wydajniejszy w obliczeniach raytracingu od ówczesnych topowych GPU.
W 2010 roku Caustic Graphics zostali kupieni przez Imagination Technologies., firmę, która na początku XXI wieku produkowała karty graficzne do PC jak Kyro cechujące się renderingiem kafelkowym a po tym, jak zostali wypchnięci z rynku przez nVidię i ATI znaleźli sobie niszę w telefonach komórkowych i stali się tam potentatem produkując procesory PowerVR.
Na początku 2012 Imagination Technologies ogłosiła, że chce wydać kartę z układem PowerVR i interfejsem PCI Express, którą da się zamontować w komputerze lub w stacji roboczej i która będzie przeznaczona do generowania w czasie rzeczywistym obrazów w technice śledzenia promieni (ang. ray tracing). Miały zostać do tego wykorzystane pakiety SDK OpenRL i Brazil 3.0 stworzone przez firmę Caustic przejętą przez IT.
Zrobienie tej karty nieco się opóźniło ale w końcu się ukazały jej dwie wersje na początku 2013. Caustic R2500 i dwukrotnie wolniejsza Caustic R2100. Inżynierowie mówili, że te karty pracują sprytniej ale nie ciężej.
Caustic R2500 kosztował 1500$ i był wyposażony w dwa procesory do obliczeń raytracingu (RTU) oraz 16 GB RAM (po 8 GB na jednostkę). RTU były produkowane na 90nm procesie i wykorzystywały kości DDR2. Mimo to, kata pobierała bardzo mało mocy. Szczytowy pobór jest oceniany na 60 watów a zwykle bierze około 40 W. Radeon 7700 był wykonany w technologi 28 nm i pobierał 75 W. GeForce GTX 660 - 110 W
Radeon 7970 - 190 W
GeForce GTX 680 - 165 W.
Z powyższych danych wynikałoby, że gdyby dopakować taką kartę tranzystorami i wykonać w 14 nm to raytracing w czasie rzeczywistym byłby bez problemu możliwy w grach. I co? Pstro. Nie ma. Bardzo się wtedy jarałem tą "sprytną" kartą ale gdyby była tak sprytna jak ja opisywali to klienci by się o nią zabijali a dziś nVidia i AMD pakowaliby manatki.
W raytracing w grach uwierzę, jak go zobaczę.
I jeszcze bardziej twórcy gier będą się skupiać na grafice, traktując fabułę po macoszemu ...
Pan Dzikus --- Odpowiedź na pytanie co się stało z tą technologią jest prozaiczna. Żadne studio developerskie, a musisz pamiętać, że to przede wszystkim one decydują o tym jak wygląda grafika w dzisiejszych grach, nie wydałoby góry pieniędzy na zrobienie gry, która mogła działać tylko na jednej karcie na świecie, od niszowego (już wtedy) producenta. Czy na tej "Caustic R2500" dało się w ogóle odpalić gry używające zwykłego DirectX ?
Założę się, że czeka nas zalew demek i filmików prezentujących real-time raytracing. Premiera nowych kart od zielonych zbliża się nieubłaganie.
Dla ciekawych, to samo w demie gry sprzed 10 lat:
https://youtu.be/Dh9uWYaiP3s
Przy każdej generacji GPU jest tak samo. Dział marketingu staje na głowie, żeby pokazywać rzeczy, które dostępne będą (jakoby) tylko i wyłącznie na najnowszych układach graficznych z najnowszą wersją DirectX. To czy te efekty trafią w końcu do gier, to już sprawa developerów.
Macie gdzieś gry z prawdziwą fizyką włosów i porządnym shaderem tychże, jakieś masowy użycie SubSurface Scattering do renderingu naturalnie wyglądającej skóry ? Ni ma, a na demkach były lata temu.
Nvidia musi sprzedać nowy produkt, a sytuacja na rynku kart dla graczy wygląda teraz mocno nieciekawie, dzięki górnikom i krypto-walutom.
No chyba, że porzucą robienie kart dla graczy.
Kto tak naprawdę będzie miał parcie na kupno GPU do PC, za cenę, za którą może kupić parę konsol, które, po prostu, są o wiele przyjaźniejszą platformą dla niedzielnych graczy ?
Po wypakowaniu z pudła masz 4K, HDR, dźwięk wysokiej jakości i zero problemów ze sterownikami. Siadasz i grasz.
Parę pytań retorycznych, do przemyślenia:
- Dlaczego po premierze gry Crysis, Crytek utrzymywał, że część zaawansowanych efektów będzie działać tylko z DirectX 10 ?
- Dlaczego w trzecim Wiedźminie na PC można włączyć szczegółowe cienie na wszystkich postaciach i odbicia liczone w czasie rzeczywistym nawet w kałużach, ale trzeba to zrobić przy pomocy modów ? Co ciekawe, nie zabija to wydajności. Dlaczego nie ma takich opcji w menu gry ? Przecież w silniku są dostępne.
- Dlaczego po premierze gry Watch Dogs, na PC wyglądała ona raczej średnio, a teraz może wyglądać tak: https://youtu.be/SOXZWgXWQ-0 lub https://youtu.be/K9m82VfXYfA
- Dlaczego najlepiej wyglądające współczesne gry, to jest prawdziwy Next-Gen, są zrobione przez dość niewielkie studia ? Mówię tu o Horizon Zero Dawn (Guerrilla Games) i Hellblade: Senua's Sacrifice (Ninja Theory). A w tym samym czasie duże studia, z górą pieniędzy, odwalają kaszanę w stylu ME Andromeda.
I jeszcze jedno, ta technologia już istnieje, nazywa się to "VXGI". Dostępna jest na przykład w UE4 dla każdej z nowszych kart Nvidii : https://youtu.be/cH2_RkfStSk, wydajnością i jakością nie grzeszy : https://youtu.be/iNSVC3YS8QE , https://youtu.be/Ts76Y_828Hk , no ale trzeba sprzedać nową generację ;)
Horizon jest ładny artystycznie. Tekstury i cieniowanie niestety pokazują granice możliwości PS4.
Technologicznie nie kopie tyłka. Taki Crysis 3, Infamous Second Son czy nawet Homefront Revolution są IMO lepsze pod tym względem.
Hellblade to liniowa, krótka gra o korytarzowej strukturze, która mistrzowsko gra oświetleniem i postpocessingiem, no i obłędną grą i motion capture Meliny.
Co dowodzi, że nie technologia jest najważniejsza, tylko sposób w jaki zostanie użyta.
A wyglądu Andromedy bym się nie czepiał. Mimika postaci i animacje nie powalają, ale cała reszta wygląda bardzo dobrze. W ogóle z EA ostatnio jest tak, że grafika to jedyne, co robi wrażenie w ich grach.
Dlaczego najlepiej wyglądające współczesne gry, to jest prawdziwy Next-Gen, są zrobione przez dość niewielkie studia ? Mówię tu o Horizon Zero Dawn (Guerrilla Games) i Hellblade: Senua's Sacrifice (Ninja Theory). A w tym samym czasie duże studia, z górą pieniędzy, odwalają kaszanę w stylu ME Andromeda.
GG to nie jest małe studio. Dodatkowo to firma, która ma za sobą całe zaplecze producenta konsoli, na którą gra docelowo powstaje.
Ninja Theory z kolei tworzy grę na gotowym silniku. Owszem, skilla mają i ogarniają silnik, ale to wciąż cudza technologia, której potencjał jest znany. Mass Effect Andromeda z kolei to przykład zepsutego zarządzania (przesiadka z 3DS Maxa na Mayę w połowie projektu), braku finalnej wizji, czym gra ma być i wykorzystywania niedostosowanej do danej gry technologii (Frostbite).
I kolejna sprawa - VXGI to nie jest ray-tracing. To aproksymacja tego procesu.
Also, to, że coś w silniku jest nie oznacza jeszcze, że działa dobrze i jest dobrze przetestowane.
@Henrar tak, połowa 'groundbreaking features' w UE na ten przykład są mocno eksperymentalne. W ogóle w tej chwili we wszystkich silnikach dużo rzeczy zmienia się z miesiąca na miesiąc. Poza tym ile lat mamy już teselację, a wykorzystywana jest średnio bym powiedział. A co do wsparcia - NinjaTheory z kolei miało duże wsparcie ze strony Epica - akurat taką politykę prowadzą, że jak coś ciekawego robisz to Ci pomogą - darmowa reklama =)
https://www.youtube.com/watch?v=J3ue35ago3Y chcieliśta nextgena z efektami, a nie tylko puste lokacje bez żadnych postaci, proszę bardzo
No i nie mówiłem.
Zalew filmików, maszyna marketingowa ruszyła - ten od Hydro, to podobno 4x Tesla V100 via NVLink, by uzyskać rozdzielczość 1080p przy 24fps, a tam jest korytarzyk, winda i trzy animowane modele.
Pamiętajcie drodzy konsumenci: Real-Time Ray Tracing - NVIDIA RTX technology only for Volta GPUs ;) Lecicie już do sklepów ? Przypominam, że jedna Tesla V100 to wydatek tylko nieco ponad 40 000 zł.
I dla przypomnienia, filmik w którym występują trzy cylindry. Zgadnijcie co ma w tytule ? :
I dla przypomnienia, filmik w którym występują trzy cylindry.
Tylko że Ray tracing na Keplerach był w znacznie niższej jakości (mniej promieni, mniejsza precyzja) niż to, co osiąga Volta.
I uwaga, na razie nikt kart dla konsumentów nie reklamuje. Technologia została pokazana na GDC a nie na E3 czy jakiejś dedykowanej zapowiedzi GeForce'ów.
Tylko czekałem aż wyjada z jakąś super ultra technologią. Każdy wie dlaczego teraz to pokazali. Załamany rynek kart graficznych a przyszłe ceny nowych kart będą kosmiczne. Więc czymś trzeba przyciągnąć ludzi do nowych GPU. Bo zapewne PASCAL specjalnie nie obsłuży tego. Bo jak inaczej by mieli sprzedać nowe GPU. Nie dajcie się nabić w balona. Ta technologia będzie tak rzadko implementowana w grach aż szkoda gadać, jeśli w ogóle będzie na poważnie. I zapewne wielkich różnic wcale nie będzie. I do tego obciążenie GPU zje nawet te całe Volty. Będzie zapewne jak z PhsyX. Zresztą ten cały ray tracing, ma być tak samo na Vulkanie, a co za tym idzie ? A to że nawet i tak stare karty to obsłużą, i ich cały misterny plan w ....... :)
Mili Państwo, nie zapominajmy, że już w 2009 roku, Intel przedstawił projekt pod nazwą Larrabee i już wtedy było on (przynajmniej z założenia) projektowany głównie z myślą o real time raytracing, ale .... sprawa uschła/przycichła albo ..... kto wie ? ... być może Intel coś tam nadal przy tym dłubie i wyskoczy ni z gruchy ni z pietruchy pokazując coś sensownego ?
Tym bardziej jest to wszystko interesujące, że gdyby komuś się wreszcie udało wyprodukować sensowny (czyli szybki i tani) układ/procesor do liczenia Raytracingu, to projektantom gier tylko to wszystko UŁATWI sprawę, a nie utrudni, bo Raytracing załatwia bardzo wiele spraw związanych z grafiką, a moim skromnym zdaniem, w ogóle "załatwi" dotychczasowe karty graficzne, czyli ich konstrukcje + silniki graficzne korzystające z dotychczasowych rozwiązań.
Tka czy siak, moim zdaniem, real time raytracing jet po prostu nieunikniony w grach, ale oczywiście trzeba jeszcze (raczej dłuuugo) poczekać na sprzęt który to uciągnie i co znacznie ważniejsze, na ceny takiego sprzętu które będą do zaakceptowania dla ludzi średnio zarabiających.
Póki co, to wszystkie te pokazowe demka są tylko pokazem technologii która jest znana od bardzo dawna i moim zdaniem, "poszumi" " poszumi" i .... cisza się zrobi na dłuuugie lata, ale i tak w końcu real time raytracing trafi pod strzechy.