Crytek zaprezentował demo z ray tracingiem, działające na karcie graficznej AMD
Trochę mi to przypomina sytuacje z g-synciem i free-synciem, gdzie Nvidia przekonywała, że dopłacanie za ich technologię ma sens. Nie ma sensu.
Nie wiem na jakim etapie są z kolejnymi RTXami, ale może się okazać, że seria 20xx będzie ostatnią tego typu.
No, szczególnie G-sync ;)
Bo RT jest częścią DX12, ba aktualnie benchmarki z Ray Tracingiem są odpalane na zwykłych kartach, tylko wyniki to coś około 1 fps.
Samo AMD mówiło, że coś tam grzebie w tej technologii, i zacznie się w to bawić, gdy Ray Tracing będzie działał również na tańszych kartach (czyt. upowszechni się).
Więc czekamy na Navi i pozostaje mieć tylko nadzieję, że nie okażą się nie wypałem.
Poza tym krążą plotki o Ray Tracingu na konsolach, więc może wraz z premierą nowych konsol, AMD da nam nową technologię dla wszystkich.
Przecież to działa w real-time na AMD Radeon RX Vega 56.
RT jest dostępne dla każdego nowego GPU i jest częścią DXR ale wszystko rozbija się o wydajność demo Star Wars może działać w 1-2fps lub w 30-60fps ach. Dedykowane rdzenie dla RT służą tylko do tego, w przypadku GPU od AMD lub starszych NV całość oparta jest na normalnych rdzeniach.
Sasori666 - technologia G-Sync jest dużo lepsza od Free-synca i to że obecnie udostępnili dla posiadaczy monitorów z FS i kart NV emulację G-Synca to wynika to z możliwości technologii AV. Jednakże jak postawisz obok monitor z chipem g-sync to zobaczysz różnice.
Gdybyś nie był alexem, to może bym uwierzył.
Technologia AMD FreeSync– to nowsze rozwiązanie, które zadebiutowało w 2015 roku, a pierwsze pogłoski na jego temat pojawiły się już w 2014 roku. Nie jest to rozwiązanie sprzętowe, jak w przypadku synchronizacji G-Sync, ale programowe.
Wiadomo, że chip w monitorze robi lepszą robotę niż coś co jest wymuszone sterownikiem.
RT core służą przede wszystkim rozszumieniu co i tak wychodzi im z mieszanym skutkiem. W BF5 redukcja szumów to jedno przejście, dla porównania by zredukować szum by był niezauważalny potrzeba tych przejść od 500 do 1000 zależnie od sceny i ilości promieni, które muszą zostać obliczone.
To jest bzdura, że gsync jest lepszy od asynca, aczkolwiek nie da się ukryć, że konstrukcje z czipem nv generalnie działają lepiej od pierwszego lepszego monitora z async, bo nv tego pilnuje i także robią osobną listę najlepszych monitorów z async poprzez gsync compatible. Z asyncem trzeba po prostu dobrze wybrać, bo nie każdy producent równie dobrze implementuje technikę, z gsync trzeba się mniej bawić, ale to kosztuje.
Natomiast wielką porażką nv jest to, że jeszcze nie ma wsparcia hdmi vrr w sterach, które powinno być w zasadzie równo z obsługą asynca, jakaś kpina, bo takie tv już dawno są i teraz nie da się tego używać z kartami nv.
Wydaje mi się, ze przedstawiciele ATI kiedyś wspomnieli, że zaczną implementować technologię RTX dopiero, jak będzie szerzej dostępna. Nigdy nie czytałem o tym, że jest to zarezerowane tylko dla kart Nvidii.
Coraz więcej kłamstw wychodzi na jaw jak ostatnio z DX12 na Win7. Korpo to zawsze korpo. No ale wiadomo, że rdzenie w kartach RTX pomagają w optymalizacji RT bo jakby wymusić (pewnie się da) to i 1080ti obsłuży nową technologię ale wydajność spadnie pewnie do 10-15 fps jak nie niżej.
Nikt nie opowiadał żadnych kłamstw. Nikt nie mówił, że DX12 na Win7 nie jest możliwe - bo jest i było zawsze możliwe, od samego początku! - tylko ktoś podjął decyzję o ekskluzywności, bo chciał promować przesiadkę na nowy system. Podobnie jest z DXR (DirectX Ray Tracing) - ta technologia od samego początku była pisana z myślą o wsparciu na kartach obsługujących samo DirectX12 (bez dedykowanej implementacji w hardware), ale także z myślą o wsparciu poprzez dedykowane hardware. (są różne tryby działania DXR do wyboru - to od developera zależy, który z nich wybierze).
RTX to jest tylko NVidiowa implementacja DXR w ich hardware.
Wszystko po prostu rozbija się o to, jak dużą ktoś chce mieć wydajność i ile pracy przeznaczyć na implementację.
Równie dobrze można grać w gry na DX12 i DX11 poprzez wyłącznie CPU - używając WARP (wbudowanej w Windows emulacji DirectX na CPU). Tylko że po co, skoro to tylko programistyczna ciekawostka - bo grać się w żadną grę nie da, działa to tak wolno. (czasem nawet poniżej 1 fps w 320x240, zależy od gry). Dedykowany sprzęt radzi sobie z tym zwyczajnie znacznie lepiej.
Identycznie jest z DXR.
<RTX off>
<Nvidia has left the chat>
Pamiętajcie, że to nie jest renderowane w czasie rzeczywistym, a VEGA 56 ma podobną moc obliczeniową raytraycingu do RTX 2060
ja nie pamiętam, by była jakaś wzmianka, że to filmik prerenderowany, zresztą nazwa real-time ray tracing chyba oznacza, że obliczana na bieząco
Pamiętajcie, że to nie jest renderowane w czasie rzeczywistym
Nie, wcale...
All scenes are rendered in real-time in-editor on an AMD Vega 56 GPU. Reflections are achieved with the new experimental ray tracing feature in CRYENGINE 5 - no SSR.
Nie wcale nie napisali o tym że to RealTime RayTracing w 4 sekundzie filmu xD
Ale przed napisaniem czegoś to nauczcie się czytać tekst w języku angielskim.
@dzl
sam zacytowałeś FILM JEST RENDEROWANY w czasie rzeczywistym. To jest różnica pomiędzy "pokazujemy video w czasie rzeczywistym".
@Kasper001
Jest różnica pomiędzy raytraycingiem używanym w czasie rzeczywistym a pokazywaniem materiału nagrywanego w czasie rzeczywistym.
@jakisnick
Napisz do nich może specjalnie dla Ciebie live streama zrobią z prezentacją.
Pogrążasz się chłopie...
Jest różnica pomiędzy raytraycingiem używanym w czasie rzeczywistym a pokazywaniem materiału nagrywanego w czasie rzeczywistym.
proszę cię o głębsze wyjaśnienie, może być zabawnie
NIe moge ze śmiechu, co za dzban XDDDDDDDDDDDDD
Mistrzowie grafiki komputerowej, twórcy najlepszych rozwiązań graficznych i wielkie zdziwienie że pokazali coś takiego? To norma, a cryengine jeszcze nie raz wryje ludzi w ziemię.
PS. Nie obraziłbym się jakby rozbudowali to do gry, jak z far cry to miało miejsce
-> Sasori - g-sync od początku wspierał przedział 30-144 fps, freesync początkowo miał z tym duże problemy, nie wiem jak jest teraz.
Nie no, Crytek rzadko coś robi ale jak się już za coś weźmie to wygląda to zjawiskowo.
Chociaż to demo technologiczne i tak chcę w to zagrać.
Widać, że nie masz minimalnego pojęcia o silniku graficznym. Potrafisz ogarnąć, że silnik gry to nie tylko grafika ? To co obejrzałeś to demo technologiczne, a nie gra, żeby gra działała potrzeba jeszcze setki innych czynników niż sama grafika.Zresztą na tym silniku równie dobrze gra może wyglądać gorzej niż gry z przed kilku lat. Bardzo dobrze, że cyberpunk nie jest na tym silniku tylko na autorskim od CDP, mają większą swobodę przy projektowaniu gry.
Widzisz to nie jest tak proste. Silnik ma coś takiego jak Framework(upraszczając są to fundamenty, na których zbudowany jest silnik). Masz jeszcze coś takiego jak toolset, czyli narzędzia, i to tutaj jest problem. Bo o ile sam framework a co za tym idzie silnik(Cryengine) jest bardzo dobry, tak narzędzia są gorsze od tego co np. oferuje UE, o unity już nie wspominając.
Żaden deweloper nie będzie tracił czasu na pisanie nowych narzędzi gdy może skorzystać z gotowych na innym silniku konkurencji. Stąd mała popularność silnika Niemców.
Dodatkowo chyba jeszcze nikomu nie udało się wykorzystać 100% jego potencjału nie licząc Cryteka. Jak się spojrzy na gry na CryEngine takie jak nie wiem Lichdom to nie wyglądają one tak dobrze jak dzieła Cryteku. Star Citizen może być wyjątkiem.
akurat RedEngine jest wyjątkowo świetnym silnikiem, poza tym od czasu W3 do czasu CP2077 przeszedł jeszcze kolejne modyfikacje. Mam nadzieję że po premierze CP2077 w końcu oddadzą w ręce graczy Redkita.
Pisałem długi komentarz jak to ludzie się absolutnie na silnikach nie znają, ale wyj****bało mi całą stronę i całość usunęło i nie będę od nowa tego pisać, więc napiszę tylko, że jak ktoś w życiu żadnego silnika nie używał to radził bym się nie wypowiadać bo potem są takie bzdury dziękuję, do widzenia...
Ludzie, ale fanboye nVidii widzę ostro dają minusy w tym wątku...
Tak czy inaczej, o mało co nie podskoczyłem z radości na tę nowinę. Widać, jak bardzo przepłacili wszyscy, którzy kupili kartę z RTX w nazwie. Ba, rzekłbym nawet, że dali się oszukać.
każda karta która ma wsparcie dla DX12 ma też wsparcie dla DXR / demo dla RT możesz pobrać i sprawdzić jak działa u ciebie na karcie AMD przecież to jest żadna nowina / nowiną za to jest to że Crytek dobrze potrafił to zoptymalizować w swoim demie i przede wszystkim promuje tym swój silnik
Rumcykcyk - tutaj masz porównanie jak działa na Unreal Engine RT demo SW - możesz też sprawdzić jak działa demo infiltratora z DLSS lub bez.
https://www.youtube.com/watch?v=iSGpDMK6xxQ
Ich The Hunt Showdown jest strasznie zasobozerny. Wyobraźcie sobie ze dodają tam ray tracing ;-). Hejt na nvidie spowodowany jest tylko i wyłącznie ceną nowych rozwiązań bo tam gdzie cena nie gra roli (zastosowania profesjonalne) nowe karty nvidii zostały przyjęte bardzo ciepło i nie mają aktualnie żadnej konkurencji.
No śmiało Crytek, zróbcie teraz pełnoprawną dobrą grę na takim silniku, utrzymaną w podobnej atmosferze i być może odzyskacie szacunek i miano dobrego dewelopera, którym niegdyś byliście.
Spójrzcie na odbicie napisu "Exchange" w oknie od ok 0:34
Imho coś tutaj jest nie tak, bo ten napis chyba fizycznie nie jest w stanie się odbijać cały w oknie. Jego odległość od ściany i krawędzi ściany jest zbyt mała, aby był w całości widoczny w oknie. Podejrzewam, że ten Crytecowy RT to fajna sztuczka, ale daleko mu do prawdziwego RT.
Nikt nie jest zrobiony w bambuko, fajnie byloby zobaczyc cos wiecej niz tylko realtime reflections, o ile to chyba najbardziej oczywisty z efektow raytracingu to jest pare rzeczy duzo bardziej wplywajacych na calosciowy efekt.
No i pierwsze pytanie - czy raytracingowe dema unreala sa gorsze dlatego ze odbicia (raytraced reflections) sa slabiej zaimplementowane niz w demku cryteka? Nawet w demach unreal engine nie wszystkie elementy sie odbijaja - szkoda ze pozbyli sie ze stronki dem Unreala 4.22 ktore mozna zobaczyc tylko w ripach youtuberow, bo moglibyscie sobie sprawdzic.
Chcialbym zobaczyc u cryteka raytracowane cienie, gi, ibl, bo odbicia to tylko jeden z elementow.
Inna rzecz, ze faktycznie disclaimer na koncu filmu mowi "rendered on ..." co moze byc mylace, gdyz slowo rendering (bez magicznego "realtime") odnosi sie zwyczajowo do generowania scen niekoniecznie w czasie rzeczywistym.