Co do reszty to "zwykły brute force", serio? Rendery w Rendermanie, Blenderze, Arnoldzie, które i tak budują struktury akceleracyjne, korzystają z nietrywialnych algorytmów obierania ścieżek, a dalej trwają minutami, a nawet godzinami. Na to co pokazała Nvidia przekłada się ostatnie 5 lat badań akademickich nad algorytmami śledzenia promieni i odszumiania. Polecam sobie poczytać o chociażby ReSTIR, bez którego by to jeszcze nie było możliwe.
Gdyby był lepszy, wydajniejszy sposób na renderowanie symulacji światła to uwierz, że te miliardowe firmy już dawno by go opracowały. Pathtracing to jest szczyt możliwości wyliczania światła, jesteśmy wstanie jedynie pracować nad jego elementami.
I "dobre oświetlenie" to sobie możesz jedynie poobserwować w statycznych grach. I tylko w kwestii global illumination, bo do generowania odbić nie technologii poza cube mapami i planar reflections, które nadają się tylko dla luster, a niosą wydatek czasem na poziomie raytracingu. O SSR nawet nie mówie, bo to w nieprzyjaznych warunkach, a jest ich wiele, potrafi wyglądać okropnie. Jak wyliczysz wcześniej oświetlenie dla dynamicznego świata, nawet już dla samego GI? Albo dla tak ogromnego jak Cyberpunk, wiesz ile miejsca by to zajęło? Wiesz jakie koszty wybake''owania i aktualizowania to generuje? Już nie wspominając o artistach, który muszę się męczyć ze starymi technikami.
Poza tym niewiele gorszy efekt to raczej sprawa subiektywna, dla mnie różnica między tym co mieliśmy 3-4 lata wstecz, a teraz z Lumenem i coraz pełniejszymi implementacjami raytracingu jest ogromna.
Niektóry tutaj naprawdę nie rozumieją jak niesamowite jest to, że osiągnęli to w czasie rzeczywistym. Mówimy o Pathtracingu, nie znamy lepszego algorytmu obliczania oświetlenia, jest to coś co do tej pory było dostępne tylko do renderowania offline animacji i filmów i jeszcze nie tak dawno temu potrafiono liczyć klatki w dniach zamiast sekundach. To oczywiste, że można spodziewać się takiej wydajności jeśli ktoś wie czym to jest, po prostu chwytam się za głowę jak widzę komentarz typu "partacze", "po co to komu" XD to nie dla was jak widać i jest to po prostu technologia przyszłości, testująca grunt na nadejście pathtracingu w kolejnych generacjach.
Żeby technologia dorosła musi być przecież rozwijana, implementacja tego w tak zaawansowanej grze jak Cyberpunk stanowi świetne pole do tego, zresztą jak sami zaznaczyli jest to PREVIEW, które będzie rozwijane i tworzy myśl, że się da.
Absolutnie się nie zgodzę, brzmi bardzo dobrze jak na polskie standardy.
Sam będę grał po angielsku dla klimatu, ale dubbing w polskim trailerze naprawdę mnie zaskoczył
"mówisz cały czas o konsoli której po podliczeniu cena powinna być kosmiczna przy twoich danych" no właśnie nie, to ty o takiej mówisz, ja napisałem, że produkcja chipu GPU kosztuje ok. 200-400 złotych, CPU trochę taniej, bo mniejszy, zakładając, że AMD weźmie jeszcze 2x tyle za robocizne (R&D) to nadal wychodzi ok. $350. Zdajesz sobie sprawę, że rdzenie do raytracingu nie są zrobione z innego materiału i nie podwyższają kosztu produkcji? Jedynie musieli wymyślić sposób w jaki mają być przeprowadzane obliczenia dla RT, ale to sobie odrobią na spokojnie. Zakładając sprzedaż konsol na poziomie setek milionów zarobią dziesiątki miliardów dolarów, dlatego nie muszą tak podnosić ceny jak dla konsumentów, pamiętaj że sklep też zarabia, a razem z nim pośrednik, urząd celny, firma transportowa itd. i nagle te osoby trzecie robią znaczną część ceny :/
Jeszcze taki dosyć mocny argument, który nie wiem dlaczego pominąłeś - według Ciebie nowa konsola ma mieć taką samą wydajność jak Xbox One X... To powinien być wystarczający argument skoro nie chcesz słuchać o standardach IEE... Ooo albo mam jeszcze lepsze, jak w 2013 zapowiadali PS4 to te 1,84 teraflopów było w FP16? Podpowiem ci, że nie, bo nawet o tym FullHD mógłbyś zapomnieć ;) Tu masz oryginalnie ujawnioną specyfikacje: theverge.com/2013/2/20/4011496/playstation-4-tech-specs-revealed-amd-jaguar-cpu-faster-blu-ray-720p więc powtórzę po raz 50 - zdecydowanie jest to FP32...
Dlaczego tak idziesz w zaparte jak jest tyle argumentów przeciw? Honor stracisz jak się okaże, że nie miałeś racji? Nie rozumiem.
Użyłeś FP32 podając wydajność PS5 i Xboxa Series X (bo to, że wydajność podali w FP16 sobie sam dopisałeś, już ci tłumaczyłem, że nikt nie podaje TFlopsów dla floating pointa o zmniejszonej o połowę precyzji... przecież samo to brzmi głupio). Typie możesz sobie nie wierzyć, że będą miały tyle teraflopów, ale po pierwsze podaj mi JAKIKOLWIEK sprzęt w ciągu ostatnich 10 lat, którego wydajność była podawana w halfach XD, po 2 już teraz RX 5700 XT ma prawie 10 teraflopów standardowej precyzji i kosztuje w Polsce 1800 zł, czyli produkcja chipu gdzieś kosztuje maksymalnie z 200-400 złotych (polecam poczytać w necie albo chociażby tu o kosztach produkcji kart: reddit.com/r/pcmasterrace/comments/4yyfy5/how_much_profit_do_graphics_card_manufacturers/), to czemu karty tyle kosztują? bo trzeba zaprojektować architekturę i przez to R&D stanowi największy koszt w kartach, a AMD mając zapewnioną dużą sprzedaż konsol jest wstanie zmniejszyć koszt za R&D przewidywany na jednostkę, po 3 zakładając podawaną przez Ciebie wydajność 12 tflopów dla FP16 to aktualny Xbox One X byłby szybszy od PS5 i miał taką samą wydajność jak Xbox Series X. Jak nic nie jest dopisane do teraflopow to ZAWSZE dotyczy to wydajności dla FP32, bo pod to jest tworzona większość rdzeni w GPU. Jeśli nadal będziesz szedł w zaparte po tym komentarzu to nie ma dla Ciebie ratunku, wiesz jaką precyzje ma FP16? do 4 miejsc po przecinku i z tym to sobie możesz jakieś mini, lokalne obliczenia zrobić o MAŁEJ precyzji jak sama nazwa wskazuje, koordynaty wierzchołków obliczane są w GPU na floatach standardowej precyzji (FP32), kolory itd. itp., proszę Cię, jak masz wymyślać jakieś rzeczy albo podawać ceny konsumenckie to chociaż się tak nie kłóć w zaparte, bo szkoda mojego i Twojego czasu.
Co ty człowieku za głupoty piszesz, wydajność PS5 i Xboxa Series X nie jest podawana w FP16, tylko FP32. Nie bez powodu FP16 zostało nazwane "half", a FP32 to domyślny typ podawany przy każdym zestawieniu, zresztą sam standard IEEE 754 definiuje floating point pojedynczej precyzji jako 32-bitowy typ danych. Według twoich założeń GTX1060 6GB jest wolniejszy od nowych konsol o 200 razy XD ( [link] ). To strasznie słaba musi być ta karta...
Znaczna większość obliczeń na GPU np. macierze TRS oraz większość obliczeń w shaderach są wykonywana na 32 bitowych floatach, ponieważ są idealnym półśrodkiem między wydajnością, a precyzją.
Jeszcze tak w ścisłości - RTX 2070 ma 7,5 TFlopa dla FP32, a RTX 2080 10,07 TFlopa. Jak już porównujesz to chociaż zrób research, a nie lecisz i ludzi teraz jeszcze w błąd będziesz wprowadzał, bo raz używasz FP16, a raz FP32...
Specyfikacje Xbox Series X możecie zobaczyć na tej stronie:
techpowerup.com/gpu-specs/xbox-series-x-gpu.c3482