artykuł powstał we współpracy z firmą Nvidia, i tyle wystarczy za komentarz
Człowieku co oni kazali ci napisać <facepalm> Co za bzdury. Po pierwsze seria rtx 5xxx nie jest taka jak ją przedstawiasz. Za wysoka cena, mały przyrost wydajności, mała płytka pcb, która jest obliczona na tylko parę lat używania, a przyrost w RT jest mały i nie chcę się nVidii NAPISAĆ sterowników dla PhysX dla tej serii kart graficznych i dlatego udostępnili to w formie otwartego oprogramowania. Poza RTX 5090 żadna karta nie jest ciekawa, a już na pewno żadna nie jest odpowiednio wyceniona ! Mam nadzieję,że dobre zarabiasz pieniądze w GO, bo dawno większych bzdur nie widziałem.
Nie wiem co jest nie tak z załączonymi grafikami, ale 80% z nich według mnie wygląda lepiej bez RT. No chyba że autor się pomylił i zamieścił je odwrotnie i obserwując RT od początku i niby tyle szumu wokół tej technologii, a tak naprawdę w ogóle jej nie czuję. Pamiętam jakie wrażenie na mnie zrobił Pixel Shader który był użyty mądrze, choćby woda w Morrowind. Natomiast RT to chyba pod maską robi wrażenie, bo wizualnie widoczność tej technologii w wielu przypadkach jest dyskusyjna jak dla mnie.
Zależy od gry. Cyberpunk, Control, Alan Wake 2, Metro Exodus z RT/PT wyglądają lepiej. świetnie wygląda też PT w Indiana Jones ale czy warto czy nie warto to zależy jaką masz kartę. Jeśli jest to 4080 albo wyżej to możesz włączyć a jeśli masz słaby sprzęt to lepiej nie
Jak działa RT/PT, jak to nas zbliża do fotorealizmu Nic takiego nie ma miejsca, dobre cienie i odbicia oraz oświetlenia były już bez RT/PT.
Kwestia spostrzegawczości - najprawdopodobniej. Powiedziałbym, że to raczej kwestia tego czy odbiorca dał się zmanipulować i wierzy w brednie, które promuje producent gpu.
To ja zapytam inaczej - czy warto włączać? Nie znam jednej gry, w której RT dawałby więcej niż zwykłe HBAO+. Nie znam też jednej gry, w której nie zabijałoby to wydajności.
Pomijam paskudy pokroju indiana jones które momentami były ohydne graficznie, ale na screenach wyglądały super dzięki wymuszonym odbiciom z RT.
Zabawne, że nawet w tych reklamowych screenach w artykule, nie jestem w stanie powiedzieć który z nich to rt włączony XD
O widzę kolejny artykuł sponsorowany NV, widać się nie sprzedaje xD
Tymczasem pytanie nadal jest to samo co od lat, po co to w ogóle włączać jak nadal tylko w paru grach na krzyż robi to jakąkolwiek różnice wartą zachodu, 99.9% gier nadal nie ma żadnego RT albo nędzne lol
Technika do mydlenia oczu, że cokolwiek się zmienia.
Większość graczy jedzie jeszcze na gtx-ach a tu ci wyjadą z tak d381lnym pytaniem
Dla mnie grafika w grach ( jakość) zatrzymała się w 2015-2018 roku praktycznie w większości nowych gier... w 1080-1440P do grania w 50-60fps na wysokich ( Nie ultra/ Nie RT ) starcza RTX 2060-3060. Gram w nowego Kingdom Koma 2 na legendarnym już 10400F/GTX 1080TI 11GB w 1080P i na wysokich płynne 65 fps ( okazjonalne spadki do 50 w mieście ale i tak gra się płynnie) Cyberpunk/W3Next Gen/ RDR 2/Hogwarts Legacy / Baldurs Gate 3/ wszystko 60 fps na wysokich już dawno ograne.
Z tego co tu czytam, to oplacalnosc jest bardzo wazna dla wielu graczy a dla wiekszosci poziom poboru energii to jedyna zmienna w tym rownaniu.
Nie zależnie od gatunku gry, (może z wyjątkiem RTS) moim priorytetem jest min 90fps w grze na rozdzielczości 5120x1440, najlepiej bez upscalerów i innych bajerów pogarszający jakość obrazu, a potem dopiero dodaje fajerwerki, a że rt jest aktualnie najbardziej obciążające, i daje najmniej zauważalne efekty (proporcjonalnie do fps) to pierwszy idzie w odstawkę.
(Dla mojego oka gra poniżej 90fps to pokaż slajdów, a i jeszcze dodam że więcej fps to bardziej dokładny antyaliasing [ta/dlss/frs itp..])
Zgadzam sie ze na wiekszosci screenow ladniej wygladaja wersje bez RT. Moze nie realistyczniej, ale LADNIEJ. Przyjemniej dla oka.
I bardziej grywalnie, bez oslepiajacego biela nieba i "wykol oko" egipskich, nikomu nie potrzebnych ciemnosci.
Dotego fajny jest tez RT, ktory w niektych grach magicznie zmniejsza zasiegi rysowania obiektow, albo usuwa polowe trawy na ziemi (mimo ze podobno odpowiada tylko za cienie i/lub oswietlenie).
Magia kina. Magia porownan reklamowych nVidia.
Gleboko w... mam fotorealizm w grach video. Na ktory musze wydac 5-7k na samo GPU, zeby potem i tak musiec grac z generatorem klatek i sumarycznym latency 150ms w grze single. A i tak zawsze bedzie to wygladac plastikowo, zwlaszcza w ruchu.
Jedyne co daja na ten moment te technologie to mozliwosc wiekszej automatyzacji pracy devsow i grafikow (co wcale nie skutkuje grami z wyzszymi wartosciami artystycznymi. z dwoma czy trzema wyjatkami, ktore wygladalyby zajebiscie i bez RTX), oraz kolosalne nabijanie kabzy firmom od GPU.
Sama technologia jest spoko, jak kazda inna. Jej implementacja w wielu grach juz taka spoko nie jest. I pod wzgledem wizualnym, i (zwlaszcza) pod wzgledem inzynieryjnym.
Jaranie sie fake screenami od nVidii i materialami promocyjnymi rowniez nie jest. ;)
Niestety dopoki bedzie okreslona liczba "dla mnie wszystko ponizej 90fps to POKAZ SLAJDOW" ludzi, to lepiej nie bedzie.
Dla mnie technologia RT to pic na wodę. Gry tracą na fabule, studia zwalniają zdolnych ludzi, coraz więcej w grach różnych dziwnych ideologii, więc mami nas się wizualnymi fajerwerkami. Zresztą podobnie jest z filmami. A nawet z dziewczynami: co z tego, że śliczna, skoro pusta i głupia jak but.
Gdyby nie skalowanie i generator klatek to RT nie miałby sensu.
Gdy zabiera połowę mocy karty, cofa nas wydajnościowo o parę ładnych lat.
Chyba głównie pod RT powstały te techniki
Skupcie się na implementacji porządnego HDR. Gra z HDR np na takim tv OLED wygląda obłędnie, żaden RT tego nie nadrobi i nie zmieni tego ilość reklam NVIDIA na Golu
TL DR. Odpowiedź: warto wyłączać, kiedy rt jest gorsze od standardowego oświetlenia i cieniowania oraz kiedy rt zżera za dużo mocy i powoduje spadki fps-ów do nieakceptowalnego poziomu.
Czyli na pewno nie warto w ogóle włączać kiedy ktoś ma dość budżetową kartę pokroju xx50 albo nawet kiedy ktoś ma xx60 i gra w bardzo wymagającą grę bądź też zwyczajnie źle zoptymalizowaną.
Zresztą to artykuł sponsorowany wiadomo przez kogo.
Dobre odbicia, oświetlenie czy cieniowanie można zrobić bez RT. To co jest tutaj pokazane w porównaniach z włączonym RT to 10 lat temu było w grach bez RT. Zwykły chwyt marketingowy aby kupować nowe karty. Grafika w grach stoi w miejscu, nowe gry wcale nie wyglądają lepiej niż gry z 2015 roku. Wiele wygląda gorzej. Dzisiaj to się inwestuje w marketing i materiały promocyjnie co doskonale tutaj widać. Nvidia po prostu robi z ludzi idiotów i ciągnie bezczelnie od nich kasę. DLSS powinien być technologią, która sprawi, ze taki GTX 1060 dalej by ciągnął wszystko spokojnie a tymczasem jak kupisz nową kartę za 2 czy 4 tysiące to musisz tego DLSSa używać bo gry tak słabo działają w większości. Optymalizacja to dzisiaj czarna magia. Wygląda to wręcz niekiedy jakby specjalnie gry bez RT wyglądały jak gry sprzed 10 lat na low (bez HBAO+, bez PCSS) aby w porównaniach widać było różnicę, aby nowe karty wciskać.
Pobawiłem się trochę frame generatorem ale z serii 4000, i ok działa, z reflexem naprawdę fajnie responsywnie, ale dlaczego nikt nie wspomina o zniekształceniach obrazu jakie z tego wynikają? Tak samo dlaczego nikt nie mówi że żeby dodawać klatki trzeba osiągnąć bazowo te 30Fps. No i też nie oszukujmy się, dobrymi shaderami można lepszy efekt osiągnąć.
Od kilku miesięcy używam 4060Ti, którą kupiłem w bardzo przyjaznej cenie i po ostatnich perypetiach jakich doświadczyli pierwsi użytownicy generacji piątej, raczej wstrzymam się i poczekam. Asus 4060 Ti fruwa rewelacyjnie nawet z moim 8th gen. Intel CPU i według benchmarkowych stronek mam więcej klatek niż podstawowa "piątka" ale za połowę ceny. Ta konfiguracja, szybki RAM 32GB, Asus Gaming MoBO, szybki SSD pozwalają mi grać bardzo płynnie na przyzwoitych detalach bez zjawiska "bottleneck", kiedy szybkość karty jest przytykana parametrami CPU czy RAMu. Pożyjemy, zobaczymy... Przede wszystkim interesuje mnie spadek cen, szlif sterów i oprogramowania pod "piątkę", co jest wadą każdej nowinki. Pozdro wszystkim.
W Cyberpunka to w ogole warto jeszcze raz zagrac, biorac pod uwage jak teraz dziala ta gra, a jesli ktos moze sobie wlaczyc RT na wysokich ustawieniach to wyglada zajebiscie.
Nowoczesny gracz obecnie:
- włącza Ray tracing co powoduje uciecie 25 klatek z frameratu żeby cieniowanie było odrobinę bardziej naturalne
- włącza generowanie klatek powodujące całkowite zmydlenie obrazu i de facto granie w 720p żeby dobić te 60 klatek
I to wszystko na komputerze za 12k Golda.
"czy warto wyłączyć RT" - tak jeśli ktoś, tak jak ja woli mieć ładniej wyglądającą gre. Jakość tekstur spada na pysk bo cała scena po etapie RT idzie na denoiser. Nawet na waszych, ręcznie dobieranych screenach, które mają udowodnić sponsorowaną tezę - widać to jak na dłoni.
Włączenie upscalingu i generacji klatek też nie pomaga teksturom. W każdej grze w której się da wyłączyć RT po prostu to robie bo lubie mieć szczegóły na monitorze. A na koniec dnia scena z ray tracingiem w najlepszym razie! wyglada inaczej, niekoniecznie lepiej.
Ja mam RTX 4050 i do ustawień graficznych z wł RT, do wysokich ustawień graficznych w grach mi wystarcza.
Mistrozwski watek, a juz wisienka na torcie to demo sprzed 20 lat "z raytracingiem" i jednym punktowym swiatlem i odbiciami kulki na quadzie, plus kilka prodeceduralnych pseudo wolumetrykow.
Nie ma sensu sluchac specjalistow, Kwisatz Haderach nie lubi rt bo wszystko wyglada z nim gorzej, a kiedys to bylo lepiej. I programisci powinni wszsytko pisac w assemblerze bo wtedy bedzie optymalizacja.
Brakuje mi tu jeszcze jugglera z amigi
Kiedyś próbowałem tłumaczyć znajomym z pewnego Discorda gamingowego, te różnice. Jak działa RT/PT, jak to nas zbliża do fotorealizmu. Niestety spora część graczy nie widzi różnicy z włączonym RT/PT, i pewnie spokojnie mogą grać na najniższych ustawieniach graficznych, i też nie zauważa różnicy... ;)
Kwestia spostrzegawczości - najprawdopodobniej.