Pierwsze informacje o karcie GeForce Titan RTX
"Titan RTX ma być adresowany głównie do najbardziej wymagających graczy."
Nie wiem czy ludzi kupujących kartę graficzną za ponad 10k można nazwać graczami. To już bardziej profesjonaliści, entuzjaści. Graczowi spokojnie wystarczy karta do 4k. Choć do niedawna segment 3-4k należał do entuzjastów którzy nie liczą się z ceną.
Przecież Tytany to nie są karty dla graczy.
Znaczy, można na niej grać, ale to są serie dedykowane dla profesjonalistów, lepsze osiągi w grach mają karty z numeracjami.
Trochę polecieli w ... że nawet o Titan RTX nie wspomnieli, będzie trzeba zrobić zamianę w końcu prestiżowo było zawsze mieć titany w obudowie ;) hyhy
Henrich_2.0 - akurat poza pierwszym Titanem który b. dobrze wspierał obliczenia w podwójnej precyzji, kolejne Titan X Maxwell i Pascal to zwykłe GPu do grania, tym razem będzie podobnie dostaniemy cały chip + zapewne z 2x większą cenę, która i tak będzie o wiele niższa od linii profesjonalnej.
Stawiam ponad 17 koła w polszy.
Ciekawe, czy uciągnie nadchodzące gry w 60 fps-ach z włączonym RT. Pewnie nie, ale będzie już na granicy.
Pff, tam wysoka cena. Chwila, moment i część użytkowników tego forum wpisze sobie tę kartę w profilu... ;-)
Zarejestrowałem się w końcu, nie mogłem zostawić Alka samego z jego dylematami i rozmowami o topowcach :)
Cóż, też będzie chyba trzeba wymienić 2x RTX 2080Ti na 2x RTX TITAN, zawsze to te około 10% więcej to i kilka rekordów się pobije znowu ;)
Chociaż osobiście zastanawiam się nad zmianą duetu 2080Ti na jednego TITANA, z uwagi na sytuację z SLI + RayTracing, czyli obecny brak wsparcia w BFV. Jeżeli patch do Tomba pozwoli korzystać z RT + SLI, oraz pojawi się wsparcie do BFV to będzie nadal sens siedzenia na SLI. Jeśli zaś nie, to cóż... Więcej kasy w kieszeni ;)
Alek, Ty z miejsca idziesz w dwa TITANy czy też to kwestia sytuacji z SLI + RT?
Co Was napadło z tym SLI? Ostatnie testy pokazują, że gry mają fatalne wsparcie dla dwóch układów graficznych. Wydajność w wielu przypadkach jest gorsza niż na jednej karcie (tak, tak... to nie pomyłka!): https://www.purepc.pl/karty_graficzne/test_geforce_rtx_2080_ti_sli_podwojna_wydajnosc_czy_problemy Jeśli nie używacie kompów do renderowania grafiki, kopania kryptowalut itp. to wstawianie dwóch kart jest bez sensu. No chyba, że chodzi tylko o to, żeby pochwalić się, jakimi potworami dysponujecie. Innego sensu nie widzę.
Test który linkujesz to jest akurat zbiór bolączek SLI i bardzo szczątkowy zbiór informacji na ten temat, wręcz wygląda tak jakby jego założenia to był pocisk po SLI :)
Osobiście od lat idę w multiGPU i daje mi to korzyści które doceniam. Wkleję mojego długiego posta którego napisałem na łamach tamtego portalu. Mam nadzieję, że to nieco przybliży w czym rzecz i dlaczego ja osobiście w SLI idę. Jednak przyznaje, że jeżeli temat SLI + RT zostanie porzucony, to i ja porzucę SLI. Do tej pory 80% w które grałem, SLI wspierało natywnie, albo po chwili zabawy z profilami w NV Inspector sam je konfigurowałem.
"Przeczytałem artykuł, popatrzyłem na wykresy i muszę szczerze przyznać, że zamierzona satyra wyszła dobrze. Tylko warto byłoby dodać informację, że to forma humorystyczna ;-)
Mój post będzie długi ale na luzie i merytorycznie, o to chodzi.
Sam fakt testowania SLI w grach które od początku NIE WSPIERAJĄ SLI i w żaden sposób nawet poprzez zabawę profilami w NV Inspector, nie da się tego wymusić, mija się z celem. Bo jeśli testować SLI to w grach które mają wsparcie. A, jak wiadomo zawsze było, jest i będzie tak, że niestety nie każda produkcja tą technologię wspierać ma chęć.
Przykładowo negatywne skalowanie w FC5 jest nadzwyczaj dziwne, bo nawet przy włączonym Fullscreen, druga karta przynosi zauważalne wzrosty wydajności. Swoją drogą, niestety obecnie Turingi mają buga w sterach i w grach jak "Ghost Recon Wildlands" oraz "Far Cry 5" poprawne skalowanie SLI ma dopiero miejsce po włączeniu trybu ekranowego "Borderless". Co prawda marne to pocieszenie, bo nie rolą użytkownika jest kombinowanie z opcjami i dochodzenie co i jak, no ale to są typowe bolączki SLI, znane wszystkim którzy w te technologie celują od lat. Dla przykładu na Pascalach takich cyrków nie było w tych tytułach.
Platforma testowa HEDT niby ok, no ale jednak memki 3200 przy CL16, niestety nie pozwalają się rozbujać takiemu 7900X, szczególnie przy SLI co również negatywnie wpływa na odbiór zestawu testowego. Zresztą ilość pamięci podręcznej w najsłabszym przedstawicielu i9 na X299, również nie powala gdyż jest jedynie marginalnie większy od testowanego 8700K. Miło byłoby zobaczyć chociaż i9 7940X.
Dodatkowo OC mesh to MUS na X299 bo skromne 2400 na def, to strata nawet 20/30% wydajności względem typowego OC mesh do wartości 3000/3100 Mhz. 7900X często lecą z mesh nawet na 3300 MHz. Tutaj tego niestety zabrakło, co również hamuje HEDT przy single GPU, a tym bardziej SLI.
Niemniej jednak jak sam robiłem testy i9 [email protected] Ghz vs i7 8700K@5 Ghz vs i9 9900K@5 Ghz vs i7 [email protected] Ghz, to w ogólnym rozrachunku przy single GPU wyniki były zbliżone i zależnie od gry prym wiódł albo 7980XE albo 5960X (miło zaskakiwał ten stary, ale nadal świetny CPU), kiedy indziej 8700K / 9900K. Jeżeli mamy styczność z grą która pozwala w lepszym stopniu wykorzystać potencjał Quad Channel, oraz dodatkowej pamięci podręcznej czy też te dodatkowe rdzenie w jakimś stopniu swoje dorzucają tu i tam, to HEDT prowadzi. Widać to głównie w 1080p bo w 1440p czy 4k wyniki i tak są podobne przy single GPU. Ciekawostka to fakt, że 8700K / 9900K wyjątkowo dobrze radzą sobie w 4K w "Shadow of The Tomb Raider" w DX12, gdzie implementacja multiGPU oraz pomoc NVlink to majstersztyk i wyniki na "skromnym" 8700K przy 2x 2080Ti są identyczne jak na 7980XE przy 2x 2080Ti. To serio cieszy bo pokazuje potencjał jaki drzemie w NVlink oraz samym DOBRZE napisanym pod DX12 tytule. Pomimo faktu, iż w zdecydowanej większości gier mainstream bardzo odstaje i do wydajności HEDT + SLI nie jest w stanie się doczłapać.
Faktem jest, że 2080Ti w mniejszym stopniu cierpi na bottlenecki na HEDT niż na mainstream, ale musi zostać spełniony fundamentalny warunek czyli ustawienia owego HEDT nie jak zrobiłby to typowy Kowalski jaki się na tą platformę szarpnął, ale ktoś kto wie doskonale co robi. Natomiast kręcony 8700K z memkami na wysokich taktach i zbijanym CL, przy single GPU odstawał nie będzie za bardzo, a w grach jakie siedzą mocno na sile pojedynczego wątku (chociażby FC5) nawet taki 8700K@5 Ghz zanotuje przewagę nad [email protected] GHz w 1080p/1440p.
SLI nie jest dla każdego i nie chodzi tutaj nawet o aspekty finansowe, a o kwestie dotyczące tego, iż zabawa z tym niesie ze sobą często wiele kombinacji z profilami SLI (które trzeba poprawiać), czy wymogiem posiadania niemałej wiedzy i chęci w kwestii konfiguracji zestawu, a również wodowanie jest bardzo mile wskazane. Jeśli natomiast ktoś wie co robi, ma na to ochotę, środki i samozaparcie to otrzymuje potężny zestaw który pozwoli cieszyć mu się maksowaniem WIELU tytułów w bardzo wysokich rozdziałkach. Sam przechodziłem "Shadow of The Tomb Raider" w 4k z monitorem HDR i 144Hz, grając w przedziale 110-144 fps.
Kolejna sprawa to RayTracing... Dowiedziałem się, że planowane jest wsparcie SLI + RT w DX12 W "Battlefiled V" co najbardziej zapalonym entuzjastom pozwoli maksować ten tytuł z RT nawet w 4k. Tak samo wspominany "Shadow of The Tomb Raider" jak doczeka się wsparcia RT, to również pozwoli cieszyć oko przy zachowaniu wysokiej liczby klatek oraz płynności.
Podsumowując :
- Dobrze ustawiona platforma HEDT w wypadku single GPU w ogólnym rozrachunku nieznacznie wyprzedza dobrze ustawioną platformę mainstream, a czasem przy jednej karcie notuje nieznacznie gorsze wyniki.
- Przy zastosowaniu multiGPU, HEDT nawet bez OC rozjeżdża kręcone topowe rozwiązania mainstreamowe, a dodatkowe OC rdzeni / mesh / pamięci to kolejne pokaźne wzrosty wydajności jakie jeszcze bardziej potęgują dystans.
- Nie winą Nvidii jest fakt, że DX12 nie przebija się tak jak zakładano, a i developerzy często pomijają wsparcie SLI.
- Remedium na ten stan rzeczy są według mnie właśnie karty RTX, gdyż dzięki nim DX12 musi być rozwijany w większym stopniu, gdyż jest to wymóg używania RayTracingu, co prawda Vulkan również ma mieć wsparcie, no ale poczekamy zobaczymy.
Niemniej jednak SLI to rozwiązanie premium, kierowane do ludzi którzy wiedzą czego chcą, wiedzą co robią i po co to robią. Takie osoby doskonale zdają sobie sprawę z korzyści i negatywnych stron tej technologii, a jeśli ktoś jest skłonny mimo wszystko iść w takie rozwiązania to zadowolenie płynące z faktu wykorzystania potencjału takich machin zniszczenia, jest bardzo przyjemnym doświadczeniem :)
Sebastianie, ja Cię zapraszam do siebie, pokaże Ci to i owo na konfigu znacznie mocniejszym niż testowane przez Ciebie HEDT, na kartach zwodowanych i w rozdziałkach wyższych od 4k. Wtedy oczy się świecą, kto wie, może wspólnymi siłami sami napiszemy profil SLI do AC Orgins i Odysejki ;-) Przydałoby się bo brak wsparcia w tych tytułach to wielka wtopa ze strony Ubisoftu."
Gosu, jeśli RT nie będzie działa w MultiGPu (co jest totalnym nieporozumieniem i failem NV) to mocno się zastanowię czy potrzebna mi druga karta. Kiedyś miałem nawet quadro-SLI, potem tri-SLI kilka konfiguracji 3x480/580/titan pierwszy. Od czasu kiedy wystarczało SLI przeszedłem na dwie karty. Teraz większość gier dobrze działa nawet w 4K na jednej 2080TI, druga tak naprawdę podbija klatki które dla mnie osobiście nic nie znaczą o ile suma jest powyżej 60. Więc jeśli RT nie będzie wspierany w MultiGPU to zapewne zostanę przy jednym Titanie RTX. Raczej będę zmieniał, bo nie wodowałem, a dodatkowo pozbędę się kart z pamięciami od Microna.
@AnimatiV, dla gracza spokojnie wystarczy karta do 2000zł.
Kwestia tego jakie dany gracz ma wymogi, ja osobiście gram w 3440x1440p oraz 3840x2160 przy monitorach 100 Hz oraz 144 Hz, więc dla mnie SLI z topów to jest mus.
Każdy ma swoje zajawki, wymogi i możliwości. Podejście jednych i drugich osób należy szanować.
ebay.pl/itm/NVIDIA-TITAN-V-32GB-CEO-EDITION-Signed-By-Jensen-Huang-Very-Rare-1-Of-Only-20/173672238898?hash=item286fac0f32:g:mrkAAOSwkvtcApsR
Wiem, licytuje ją, jest to piękny unikat. Przyda się do kolekcji.
Chociaż na oficjalną zapowiedź musimy jeszcze poczekać, już teraz możemy założyć, że Titan RTX jest w produkcji i będzie bardzo, bardzo mocny....
....i bardzo,bardzo drogi.