Buhaha zawsze jak ktoś obnaży nvidie (crytek) to zmienia zdanie i wtedy się już da to zrobić. Za jakiś czas się dowiemy, że karty GTX potrafią obsłużyć cały RT.
Jak technologia zostanie dopracowana to kupię sobie kartę pod ray tracing a na razie sobie odpuszczę. To mi przypomina historię jak kolega kupił sobie (wtedy nowość) smartwatcha. Ja zapytałem się po co mu to? A on zaczął wymieniać funkcje a ja spytałem się:
- Ale musisz mieć telefon w pobliżu?
- No tak...
- No to chyba lepiej już używać telefonu?
Zatkało go. Po chwili mówi:
- Ale telefonu nie użyjesz np. w trakcie biegania!
- Przecież ty nie biegasz? - mina bezcenna.
trzymcie mnie bo im wyj....
może nie doczytaliście ale w takim metro gdzie jest największe obciążenie na promienie macie tylko 20 klatek .... na 1080ti . czyli 1080 wcale sie nie nada
To nie ma sensu skoro na swoim GTX 1080 będę miał z RT trzy razy słabszą wydajność niż na RTX 2070.
Tak jak z DX12 i wsparciem go "tylko w W10".
A Crytek dał demo ray tracing na karcie AMD Vega 56.
Ten świat, media, firmy. Wszystko to jeden wielki spisek. Tak samo było z G-Sync.
To zawsze coś. GTX 1070, GTX 1080 i GTX 1660 zyskują jeszcze większy wartość.
Nie wiem, jak to jest "okrojony" ray tracking, ale czas pokaże.
Testerzy na YouTube będą mieli o czym testować. :)
Karty z serii RTX przestaną być jedynymi obsługującymi ray tracing. Firma Nvidia wypuści wkrótce sterowniki, które dodadzą taką funkcję dla układów z rodziny GeForce 10.
To gracze płacili masę pieniędzy za nowe karty graficzne, a to wszystko można było zyskać dzięki sterownikom?
Wiedzieli o tym od zawsze, ale co tam.
beda mieli raytracing na 1060 w 2kl/sek i w koncu zrozumieja ze 2080 to nie 1080 z doklejonym suffixem rtx.
bardzo dobry ruch nvidii, edukacyjny
Oczywiscie zaprezentowali wyniki na 2080 zeby moc odpalic DLSS w tej rozdzielczosci bo na 2080Ti musieli by uzyc juz 4K, a do tego pisanie o Tomb Raiderze jako grze z DXR jest lekko na wyrost bo co najwyzej za kilka dni dadza znac czy ta gra w koncu bedzie miala obsluge DXR czy musza jeszcze pare miesiecy nad tym popracowac.
Jesli juz ktos chce porownywac wydajnosc to proponuje porownywac wersje z 10xx do wersji 20xx bez DLSS.
Ja mam 1080gtx w SLI, chciałym napisać, że to mogłoby dobrze razem zadziałać np zrzucić RT na jedną kartę, ale juz się nauczyłem że nie warto iść w SLI. No i swoją drogą po co mi ten RT w grach które i tak nie kupie i nie jestem zainteresowany... Szkoda, ale muszę poczekać, aż rynek się rozrusza w tym temacie, potem kupi się nową kartę, może coś fajniejszego niż 2080Ti na tą chwile, bo dupy ta karta nie urywa.
Z jednej strony rozumiem, że trzeba rozwijać nowe technologie aby pchać grafikę do przodu, z drugiej jednak strony, nie rozumiem ray tracingu, który zabiera mnóstwo klatek. Ja mając wybór średnio/wysokie detale 60fps, a ultra na 30-50, zawsze wybiorę średnio/wysokie i 60 fps, bo gra się po prostu dużo przyjemniej. Oczywiście mowa tutaj o średnim użytkowniku z kartami typu xx60 na pokładzie, bo jeśli kogoś stać na xx80 lub xx80ti to nie ma tego problemu.
To nie jest informacja dla graczy tylko dla prosumerow.
Dziwnie zbiega sie z jutrzejsza premiera renderera Arnold GPU od autodeska, chyba chodzi o to zeby dedykowany software mozna bylo uzywac na starszych mocnych kartach.
W Metro Exodus nie ma co nawet patrzeć. Bez RT moje 1080 miało "dyszawki" na ultra ustawieniach w 1080p (nie mówiąc o ekstremalnych), słaba optymalizacja gry, przez co brak sensu nawet sprawdzania RT z 1080. Chyba, że 30 FPSów kogoś uraduje. :)
No to pozostaje tylko jedno aczkolwiek jakie fajne pytanie PO HOOOJ mi to!!! ja się pytam? już lepiej żeby dali ten DLSS.
Ludzie powiem tak skoro Raytracing działa dobrze na karcie AMD to nvidia nie zrobi tak że na gtx 1080ti będzie działać 3 razy gorzej niż na RTX2070 bo by się skomprimitowała dają Raytracing teraz do tych kart by potem nie było jak z FreeSync Co nie zmienia faktu że Nvidia wciskała kit by sprzedać nowe karty.
Narazie Raytracing jest i tak zbyt obciążający karty i taki gtx1060 ti nie ma szans by nawet w 30 fps dawał radę.
[link] Zobaczcie co się dzieje gdy RT jest włączony, cieniowanie barierek z przodu jak i ściany z lewej strony wygląda jak na low, owszem podłoga fajniej trochę błyszczy ale czy warto za taką wydajność mieć taką pierdołę ? Obecnie śmiech na sali z RT. (Linku nie widać, wystarczy wejść w artykuł z grą control i RT i zobaczyć od 26 sek do 33 sek ).
nie liczyłbym na super jakość i efekt WOW! na kartach 1xxx
DLSS tez na pewno działa tylko specjalnie nie dają.
jak czytam te komentarze to zastanawiam się czym wy jesteście zaskoczeni ?
- RT jest w DXR w DX12 i jest dostępny dla każdej kraty która obsługuje DX12 nie była to technologia zastrzeżona tylko dostępna jest dla wszystkich.
- za obsługę RT odpowiadają oddzielne rdzenie które zostały do tego dedykowane, w przypadku starych układów wszystko będzie opierać się np. w przypadku NV o cuda core, a że wydajność będzie niewielka to co z tego ?
- jeśli chodzi o g-sync to jest to technologia NV oparta na sprzętowej synchronizacji odświeżania obraz względem szybkości wyświetlania klatek, dodane g-sync emulacja dla monitorów obsługujących FS/FS2 wynika z tego że tam było to rozwiązanie oparte o sterownik i możliwości adaptacyjnej zmiany odświeżania. Nigdy nie będzie to tak samo dobrze działać jak przy użyciu sprzętowego rozwiązania
- teraz jeśli chodzi o PhysX to NV od dawna oddała PhysX dla OS dla deweloperów i też jest ona dostępna dla obu kart graficznych
to co NV nie oddała to wszystko co oparte na akceleracji sprzętowej
Unreal Engine i Unity dostaje wsparcie deweloperskie dla RT, a są to dwa najpopularniejsze silniki i zapewne gry będą na tyle zoptymalizowane że RT będzie się dało włączyć na słabszych gpu ale nadal będzie to przepaść w wydajności.
https://www.youtube.com/watch?v=iSGpDMK6xxQ&=
za nim RTX trafiły do sprzedaży było pokazane że wydajność w jednostkach z TC a brakiem tych jednostek to średnio 5:1 ~ 7:1 obok demo 1080ti vs 2080 co dokładnie to obrazuje, niemniej to jest 4K i 4fps na 1080ti więc w 1080p będzie z 20, trochę zoptymalizują i z 25-30 wyciągnie. Jednak każdy woli chyba mieć więcej fps przy użyciu tej technologii.
haha nigdy i tak bym nie skorzystal z tego czegos. juz lepiej by bylo jakby dali DLSS wtedy bym skorzystal. no ale nvidia wie doskonale ze gracze widac ze z RT na kompie maja tylko 30 fps to wtedy pobiegna do sklepu po te karty ktore pierwotnie mialy byc jedynymi kartami obslugujacymi RT :)
jak dobrze ze jak bedzie premiera ps5 to bede mogl pograc godnie i przyjemnie na konsoli :)
Skoro Crytek mówił ze ich demo działa na kartach amd i nvidia gtx to znaczy że nie potrzebowali nic odblokować.
Może efekt odbić można uzyskać w prostszy sposób
RT wykorzystywany w animacji to niebo a ziemia, ale tam nie jest generowany w czasie rzeczywistym i ma wszystkie jego elementy, a nie tylko odbicia. W grach na chwilę obecną to nic specjalnego.
Zastanawia mnie to, dlaczego twórcy/producenci sprzętu porzucili jedną z najważniejszych rzeczy, która była rozwijana, a jest on bardzo istotna.
Mianowicie fizyka twarzy/mimiki.
Kiedyś gry były nastawione na fan i dobrą zabawę, a nie fabułę czy realistyczne przekazanie odbiorcy. Potem zaczęto kombinować właśnie z mimiką twarzy. Może ktoś przypomni, bo nie pamiętam. Swego czasu jakieś studio chwaliło się, że jego model mają ileś tam mięśni i kości twarzy.
Następnie porzuconą to i zajęto się fabułą, to ona stała się najważniejsza - MassEfect, Assasin, W3, GTA4, a teraz znów dostajemy puste wydmuszki, ale za to z milionem efektów i "wodotrysków".
Ile lepszy byłby np. taki W3, gdyby mimika twarzy była jak w animacji CGI. Granie twarzą, to jedna z najważniejszych rzeczy w przekazaniu emocji, ekspresji itd.
Jakby ta scena wyglądała, gdybyśmy twórcy mieli narzędzie do realistycznej mimiki.
https://www.youtube.com/watch?v=KpANomyxkO4
A karty Tesla P40? Z takich korzystam i fajnie jakby dostały wsparcie dla RTX mimo, że to zbędny bajer.
Za 10-15 lat będziemy się śmiać z dzisiejszych kart graficznych, jakie to GTX 1080TI, czy RTX 2080TI były kiedyś potężne, a dzisiaj (czyli 2030 rok~) nie można odpalić na wysokich ustawieniach żadnej gry. Jestem ciekaw jakie gry zastaniemy za 10-15 lat, czy już ta grafika naprawdę będzie wyglądała resitycznie i gameplay stanie się też bardziej realistyczny, czy jednak będą co raz to bardziej robić płytkie gry, typu Far cry 5+, gdzie tylko można tępo postrzelać do wszystkiego... A być może nie będzie tak dużego skoku w grafice.
Czyli Nvidia umożliwi mi (mam 1060 6GB) polizanie cukierka przez papierek.
Aż zacytuję samego siebie:
Widać, jak bardzo przepłacili wszyscy, którzy kupili kartę z RTX w nazwie. Ba, rzekłbym nawet, że dali się oszukać. - https://www.gry-online.pl/S043.asp?ID=14848638&N=1#post0-14848994
i co po tych rozbłyskach co to ma być ? pomoże to jakoś w wydajności ? bo wątpię już prędzej te sterowniki mogą spowodować że gry będą chodziły jeszcze gorzej
może o to im chodzi aby dzięki temu ludzie przerzucili się z GTX na RTX hm.
ta technologia może co najwyżej zabrać kolejne FPS powinni się bardziej skupić na prędkości kart graficznych i udoskonalaniu sterowników pod tym względem gdyż
nawet obecne karty mają jeszcze problemy z 4K mowa tu oczywiście o ustawieniach ultra a nie medium czy coś takiego, bo po cholerę mi wysoka rozdzielczość jeśli wszystko pozostałe będzie wyglądało po prostu słabo graficznie to już lepiej grać w full hd i na ultra nie wspominając już o 8K... a oni jeszcze o jakimś Rey trackingu który zabierze na dzień dobry fps to ja dziękuję :)
I to tyle jeśli chodzi o sens zakupu 2080 względem 1080ti. Teraz 2080 noTI nie ma ani jednej karty przetargowej, bo ni to szybsze od 1080ti, ni to wiecej pamięci, (bo mniej).
Przecież to specjalnie pokazane. Crytek jak by nie pokazał to oni też nie. A teraz obrócili kota ogonem i dają wykresy jakie to wspaniałe są RTXy bo miażdżą GTXy i pokazują to dokładnie na wykresach, bo RTXy zalegają w magazynach. Nvidia to taka hiena foko wąż. :) Niech się pałują ze swoim Ray Tracingiem który dla mnie jest kompletnie bezużyteczny za taki pobór wydajności. Zwykłe odbicia które i tak mamy tylko gorsze. PFF TFUUU
Przecież NV od zawsze wciska kit ludziom, nawet specjalnie tnie wydajność starszych modeli żeby tylko ludzie się rzucili i kupowali nowsze i droższe karty. Nic nowego. Dziwnym jest to, że ich karty są nadal tak popularne. Szczególnie w segmencie mainstreamowym gdzie akurat AMD posiada bardzo dobre, w miarę tanie a bardzo wydajne modele.
@Rumcykcyk
Za jakiś czas się dowiemy, że karty GTX potrafią obsłużyć cały RT
Jasne, że tak, lecz zapewne w kilku klatkach na sekundę.