Może gdyby w przeszłości również nie pokazywali niesamowitych tech dem, które w rzeczywistości nijak miały się do rzeczywistego rozwoju grafiki to możnaby sie podniecać, ale teraz to przesada
Nvidia RTX - a po co to komu?? Ja gram w domu na Commodore 64 i grafika jest bardzo dobra.
To nie jest ray tracking pelnoekranowy.Glownie chodzi o cienie, odbicia .Poza tym Ms wczoraj zapowiedzial wsparcie dla ray tracking w uaktualnieniu do Dx12. No to zaraz pewnie gruchnie wiadomosc, ze Vulcan tez bedzie i jeszcze lepiej. Jak czytam dyletantow piszacych, ze po co. To normalnie zalamuje sie nad inteligencja ludzi tu piszacych. Powiedzcie co wy w swoim zyciu osiagneliscie, ze uwazacie siebie za jakis guru, ktory moze kazda rewolucje do dna sprowadzac. Wiekszosc ludzi pracujacych nad ray trackingiem nie mialaby z wami o czym rozmawiac bo nie mielibyscie pojecia o czym mowicie. Najwiekszymi bolaczkami grafiki na dzien dzisiejszy sa swiatlo (ray tracking), geometria. Gdybym mial do tego dodac bolaczki gier to AI.
PS. Smiesza mnie ludzie co pisza po co, a gdy wychodzi nastepna gra AAA to pisza na temat grafiki. Grafika jest najwazniejszym elementem imersji w grze.
Moj Switch tego nie potrzebuje :) zabawka dla dojenia pieniędzy.
Pov-ray, ktoś, coś ?
20 lat temu renderowało się niespecjalnie skomplikowaną scenkę (czyt. 1 klatkę) w 640x480 na 486SX nawet przez całą dobę ;)
Z tej perspektywy animacja "ledwie" HD w marnym 30fps renderowana w czasie rzeczywistym tą techniką naprawdę robi wrażenie. Pomijając praktyczne zastosowanie oczywiście, osobiście hołduję zasadzie że w grach płynność>>jakość.
O, następne dema technologiczne od Nvidii, których nigdy nie ujrzymy w grach. Jedna karta, za 13 000, która pewnie uciągnie to w 5 klatkach na sekundę, nowy DirectX, pewnie też nowy Windows. Co najważniejsze, nie ma tego na konsolach, więc żaden developer się nie będzie tym przejmował.
Hydro2 - zdajesz sobie sprawę, że oświetlenie tych wnętrz z filmiku nie jest liczone w czasie rzeczywistym tylko pre-bakowane, a jego policzenie w dobrej jakości zajmuje ładnych parę godzin. Ta scena z mojego filmiku to 2 godziny na dual-xeon 2670 v3 - 32gb RAM:
Zupełny bezsens na chwilę obecną. Może za 20 lat będzie to miało sens i nawet będzie standardem gdy każdy sprzęt domowy będzie w stanie robić takie obliczenia w locie. W tym czasie jednak gry nawet bez tego będą wyglądały już jak filmy. UE 4 wygląda bardzo dobrze, a nie ma tam raytracingu. Taką grafikę mamy już, a co będzie za kilka lat?:
Zapomnieliście dodać najważniejszego, na volcie jest specjalny dodatkowy układ, tak twierdzi nv, który zapewne ma pomagać w obliczeniach, a którego nie ma w pascalach i niżej.
Ryszawy - to że czegoś nie ma na konsolach to wcale nie znaczy że technologia zostanie zamknięta w szufladzie. Zresztą NV i tak będzie wyznaczać nowe kierunki bo po prostu może to robić.
Już niedługo postęp w grafice się zatrzyma, bo przecież nie da się zrobić czegoś lepszego niż w rzeczywistości.
A ile to jest dla Ciebie niedługo? Obawiam się, że możesz nie dożyć...
W 2009 roku firma Caustic Graphics ogłosiła, że opracowała algorytm umożliwiający tani raytracing w czasie rzeczywistym. Jednocześnie twierdzili, że opracowali procesor 20 krotnie wydajniejszy w obliczeniach raytracingu od ówczesnych topowych GPU.
W 2010 roku Caustic Graphics zostali kupieni przez Imagination Technologies., firmę, która na początku XXI wieku produkowała karty graficzne do PC jak Kyro cechujące się renderingiem kafelkowym a po tym, jak zostali wypchnięci z rynku przez nVidię i ATI znaleźli sobie niszę w telefonach komórkowych i stali się tam potentatem produkując procesory PowerVR.
Na początku 2012 Imagination Technologies ogłosiła, że chce wydać kartę z układem PowerVR i interfejsem PCI Express, którą da się zamontować w komputerze lub w stacji roboczej i która będzie przeznaczona do generowania w czasie rzeczywistym obrazów w technice śledzenia promieni (ang. ray tracing). Miały zostać do tego wykorzystane pakiety SDK OpenRL i Brazil 3.0 stworzone przez firmę Caustic przejętą przez IT.
Zrobienie tej karty nieco się opóźniło ale w końcu się ukazały jej dwie wersje na początku 2013. Caustic R2500 i dwukrotnie wolniejsza Caustic R2100. Inżynierowie mówili, że te karty pracują sprytniej ale nie ciężej.
Caustic R2500 kosztował 1500$ i był wyposażony w dwa procesory do obliczeń raytracingu (RTU) oraz 16 GB RAM (po 8 GB na jednostkę). RTU były produkowane na 90nm procesie i wykorzystywały kości DDR2. Mimo to, kata pobierała bardzo mało mocy. Szczytowy pobór jest oceniany na 60 watów a zwykle bierze około 40 W. Radeon 7700 był wykonany w technologi 28 nm i pobierał 75 W. GeForce GTX 660 - 110 W
Radeon 7970 - 190 W
GeForce GTX 680 - 165 W.
Z powyższych danych wynikałoby, że gdyby dopakować taką kartę tranzystorami i wykonać w 14 nm to raytracing w czasie rzeczywistym byłby bez problemu możliwy w grach. I co? Pstro. Nie ma. Bardzo się wtedy jarałem tą "sprytną" kartą ale gdyby była tak sprytna jak ja opisywali to klienci by się o nią zabijali a dziś nVidia i AMD pakowaliby manatki.
W raytracing w grach uwierzę, jak go zobaczę.
Pan Dzikus --- Odpowiedź na pytanie co się stało z tą technologią jest prozaiczna. Żadne studio developerskie, a musisz pamiętać, że to przede wszystkim one decydują o tym jak wygląda grafika w dzisiejszych grach, nie wydałoby góry pieniędzy na zrobienie gry, która mogła działać tylko na jednej karcie na świecie, od niszowego (już wtedy) producenta. Czy na tej "Caustic R2500" dało się w ogóle odpalić gry używające zwykłego DirectX ?
Założę się, że czeka nas zalew demek i filmików prezentujących real-time raytracing. Premiera nowych kart od zielonych zbliża się nieubłaganie.
Dla ciekawych, to samo w demie gry sprzed 10 lat:
https://youtu.be/Dh9uWYaiP3s
Przy każdej generacji GPU jest tak samo. Dział marketingu staje na głowie, żeby pokazywać rzeczy, które dostępne będą (jakoby) tylko i wyłącznie na najnowszych układach graficznych z najnowszą wersją DirectX. To czy te efekty trafią w końcu do gier, to już sprawa developerów.
Macie gdzieś gry z prawdziwą fizyką włosów i porządnym shaderem tychże, jakieś masowy użycie SubSurface Scattering do renderingu naturalnie wyglądającej skóry ? Ni ma, a na demkach były lata temu.
Nvidia musi sprzedać nowy produkt, a sytuacja na rynku kart dla graczy wygląda teraz mocno nieciekawie, dzięki górnikom i krypto-walutom.
No chyba, że porzucą robienie kart dla graczy.
Kto tak naprawdę będzie miał parcie na kupno GPU do PC, za cenę, za którą może kupić parę konsol, które, po prostu, są o wiele przyjaźniejszą platformą dla niedzielnych graczy ?
Po wypakowaniu z pudła masz 4K, HDR, dźwięk wysokiej jakości i zero problemów ze sterownikami. Siadasz i grasz.
Parę pytań retorycznych, do przemyślenia:
- Dlaczego po premierze gry Crysis, Crytek utrzymywał, że część zaawansowanych efektów będzie działać tylko z DirectX 10 ?
- Dlaczego w trzecim Wiedźminie na PC można włączyć szczegółowe cienie na wszystkich postaciach i odbicia liczone w czasie rzeczywistym nawet w kałużach, ale trzeba to zrobić przy pomocy modów ? Co ciekawe, nie zabija to wydajności. Dlaczego nie ma takich opcji w menu gry ? Przecież w silniku są dostępne.
- Dlaczego po premierze gry Watch Dogs, na PC wyglądała ona raczej średnio, a teraz może wyglądać tak: https://youtu.be/SOXZWgXWQ-0 lub https://youtu.be/K9m82VfXYfA
- Dlaczego najlepiej wyglądające współczesne gry, to jest prawdziwy Next-Gen, są zrobione przez dość niewielkie studia ? Mówię tu o Horizon Zero Dawn (Guerrilla Games) i Hellblade: Senua's Sacrifice (Ninja Theory). A w tym samym czasie duże studia, z górą pieniędzy, odwalają kaszanę w stylu ME Andromeda.
I jeszcze jedno, ta technologia już istnieje, nazywa się to "VXGI". Dostępna jest na przykład w UE4 dla każdej z nowszych kart Nvidii : https://youtu.be/cH2_RkfStSk, wydajnością i jakością nie grzeszy : https://youtu.be/iNSVC3YS8QE , https://youtu.be/Ts76Y_828Hk , no ale trzeba sprzedać nową generację ;)
https://www.youtube.com/watch?v=J3ue35ago3Y chcieliśta nextgena z efektami, a nie tylko puste lokacje bez żadnych postaci, proszę bardzo
No i nie mówiłem.
Zalew filmików, maszyna marketingowa ruszyła - ten od Hydro, to podobno 4x Tesla V100 via NVLink, by uzyskać rozdzielczość 1080p przy 24fps, a tam jest korytarzyk, winda i trzy animowane modele.
Pamiętajcie drodzy konsumenci: Real-Time Ray Tracing - NVIDIA RTX technology only for Volta GPUs ;) Lecicie już do sklepów ? Przypominam, że jedna Tesla V100 to wydatek tylko nieco ponad 40 000 zł.
I dla przypomnienia, filmik w którym występują trzy cylindry. Zgadnijcie co ma w tytule ? :
Tylko czekałem aż wyjada z jakąś super ultra technologią. Każdy wie dlaczego teraz to pokazali. Załamany rynek kart graficznych a przyszłe ceny nowych kart będą kosmiczne. Więc czymś trzeba przyciągnąć ludzi do nowych GPU. Bo zapewne PASCAL specjalnie nie obsłuży tego. Bo jak inaczej by mieli sprzedać nowe GPU. Nie dajcie się nabić w balona. Ta technologia będzie tak rzadko implementowana w grach aż szkoda gadać, jeśli w ogóle będzie na poważnie. I zapewne wielkich różnic wcale nie będzie. I do tego obciążenie GPU zje nawet te całe Volty. Będzie zapewne jak z PhsyX. Zresztą ten cały ray tracing, ma być tak samo na Vulkanie, a co za tym idzie ? A to że nawet i tak stare karty to obsłużą, i ich cały misterny plan w ....... :)
Mili Państwo, nie zapominajmy, że już w 2009 roku, Intel przedstawił projekt pod nazwą Larrabee i już wtedy było on (przynajmniej z założenia) projektowany głównie z myślą o real time raytracing, ale .... sprawa uschła/przycichła albo ..... kto wie ? ... być może Intel coś tam nadal przy tym dłubie i wyskoczy ni z gruchy ni z pietruchy pokazując coś sensownego ?
Tym bardziej jest to wszystko interesujące, że gdyby komuś się wreszcie udało wyprodukować sensowny (czyli szybki i tani) układ/procesor do liczenia Raytracingu, to projektantom gier tylko to wszystko UŁATWI sprawę, a nie utrudni, bo Raytracing załatwia bardzo wiele spraw związanych z grafiką, a moim skromnym zdaniem, w ogóle "załatwi" dotychczasowe karty graficzne, czyli ich konstrukcje + silniki graficzne korzystające z dotychczasowych rozwiązań.
Tka czy siak, moim zdaniem, real time raytracing jet po prostu nieunikniony w grach, ale oczywiście trzeba jeszcze (raczej dłuuugo) poczekać na sprzęt który to uciągnie i co znacznie ważniejsze, na ceny takiego sprzętu które będą do zaakceptowania dla ludzi średnio zarabiających.
Póki co, to wszystkie te pokazowe demka są tylko pokazem technologii która jest znana od bardzo dawna i moim zdaniem, "poszumi" " poszumi" i .... cisza się zrobi na dłuuugie lata, ale i tak w końcu real time raytracing trafi pod strzechy.
I jeszcze bardziej twórcy gier będą się skupiać na grafice, traktując fabułę po macoszemu ...
Już niedługo postęp w grafice się zatrzyma, bo przecież nie da się zrobić czegoś lepszego niż w rzeczywistości.
Gta 6,the elder scrolls 7 i za 6-12 lat farming simulator będą kożystać z tej technologii albo i z lepszej technologii
I tak gry nie będą tego używać, bo są robione pod konsole które takich bajerów nigdy nie będą mieć, głównie z tego powodu że są zbudowane z najtańszych podzespołów od AMD