Cyberpunk 2077 - RTX 3090 nie wystarczy do 4K
Jak to 3090 nie wystarczy do 4k jak Hydro pisał, że 3060ti mu wystarczy.
Dobrze, że zaznaczyli preview performance, a nie jak niektórzy postawili kropkę nad i przed day 1 patchem.
Hmm trafiłem na 2 recki gdzie recenzenci ogrywali grę po tym 45GB patchu i twierdzą że nic a nic on nie poprawił. Trochę kicha.
Ten patch był wcześniej i to nie jest day 1 z tego co było wcześniej pisane.
a ja na konkurencyjnym serwisie growym w sekcji komentarzy znalazłem informację od redaktora, że pomógł bardzo dużo w kwestii optymalizacji gry. I w ten pokładam mocniej wiarę.
ci sami twierdzą że to był zamach a nie brzoza...
Nie myl patcha recenzentów z patchem 43 gb dla graczy, bo tamten po prostu umożliwiał sensowne granie, a 1-day patch ma wyeliminować najbardziej rażące blędy. Taka to różnica.
Samo CDP Red powiedziało żeby nie brać tego w 100% wiarygodnie, bo raz, że będzie day 1 patch 40GB, a dwa gra w wersjach, które ludzie już dostali ma Denuvo. Na razie nie staram się ich usprawiedliwiać czy bronić, bo Wiedźmin też optymalizacją na początku nie błyszczał. Zobaczymy po premierze.
Już błędy w pierwszym zdaniu. Nie spieszcie się aż tak z publikowaniem newsów o Cyberpunku...
A tak w ogóle to trzeba poczekać na pierwsze łatki do gry, sterowniki i brak denuvo, wtedy wykresy i testy będą bardziej rzetelne.
Marnie widzę moje ustawienia w 1440p na RTX 2060... Najgorsze to, że nie ma gdzie kupić RTX 3070.
Hahah, ja po swoim 2060 na pewno nie spodziewałem się 1440p tylko własnie fullhd i średnio-wysokie ustawienia i to styka. Kiedyś będzie zapewne ogrywane na lepszym sprzęcie, tak że nie ma co płakać.
A jednocześnie gra wygląda jak z początku poprzedniej generacji :-D Dla mnie to taki ubicrap nadający się do grania może za rok.
Widziałem jak wygląda inFamous: Second Son, jest ok, nawet bardzo jak na tak starą grę ale widać ciecia graficzne tu i tam. Jeśli chodzi o technologię i skalę świata oraz rozbudowanie gry to nawet nie stosuj takich porównań...
RDR2 już na youtube prezentuje się 100x lepiej niż cyberpunk.
Dla mnie nie jest ważne jakie ta gra ma wymagania, najwyżej przesunę suwaki w lewo, niewiele to zmieni patrząc na ustawienia ultra z reklam.
chłop porównuje złożoność cyberpunk do paru krzaków i koni w rdr2 xdd nie mówiąc już ze nie masz pojęcia jak to wyglądało wszystko od strony technicznej... klasyczne, nie znam się ale się wypowiem
Ja tam żadnej złożoności nie widzę, ale rozumiem, że ty pracowałeś w rockstarze i CDP więc wypowiadasz się bo masz pojęcie jak to wyglądało wszystko od strony technicznej.
Zdaje się, że serwis to Tom's Hardware, a nie Techspot. :) W każdym razie, optymalizacja raczej kiepska. Co to za moda, żeby w zalecanych wymaganiach podawać kartę, która wystarcza co najwyżej do 30 fps-ów na medium?
30fps w grze rpg wystarczy zwłaszcza, że gra nie jest nastawiona na szybka akcje.
Zdaje się, że właśnie jest z racji tego, że walka opiera się na strzelaniu. Tym niemniej zgadzam się, że 30 fps-ów wystarczy, żeby cieszyć się w miarę płynną rozgrywką. To już zależy, jak kto jest wyczulony na tym punkcie. :)
przecież gtx 1060 to karta z przed 4lat z 2016r i już w dniu premiery to nie był top tylko solidny średniak co najwyżej ? Przypominam że mamy końcówkę 2020r
jak ktoś kupił teraz odświeżoną serię gtx1650 to jest to samo co 1060
ja ktoś kupił teraz gtx 1660ti to jest to to samo co stara 1070
Przed Valhallą też było straszenie i sianie paniki jakiego to sprzętu nie potrzeba a okazało się że jest bardzo dobrze zoptymalizowana.
Cyberpunk 2077 jest piekielnie zabugowany - przekonuje PC Gamer
https://www.eurogamer.pl/articles/2020-12-08-cyberpunk-2077-jest-piekielnie-zabugowany-przekonuje-pc-gamer
19FPS na GTX1060 boże co to ma być? a podali takie niskie wymagania ludzie porobili upgrady specjalnie pod tą grę i są załamani że kupili karty nie jakieś topy ale lepsze niż mieli i to i tak nic nie zmienia a nawet top karty mogą sssssaćććć CYBERBUGOWI...
Teraz macie czarno na białym już na żywca jak Borys kilka miesięcy temu mówił że ma info że gra ma nadal 20.000 błędów to każdy pukał się w głowę i mówił że to nie możliwe.
Może za dwa lata załatają chociaż połowę tej gry a optymalizacja to kpina.
Oczywiście są jeszcze ludzie którzy się łudzą że jakiś day patch i usuniecie denuvo nagle magicznie dadzą 20-30 fps bo sterowników nie ma jeszcze itd. łudźcie się dalej.
ALE GRA 91 na metacritic dramat 60 powinni dostać to w tydzień by naprawili.
poczekaj jeszcze kilka dni, sytuacja się wyklaruje. W2 też miał masę błędów ale bardzo wiele poprawili po premierze i w edycji rozszerzonej nie miałem problemów z grą. Trzeba poczekać, pytanie tylko: "Jak długo?"
Oczywiście są jeszcze ludzie którzy się łudzą że jakiś day patch i usuniecie denuvo nagle magicznie dadzą 20-30 fps bo sterowników nie ma jeszcze itd. łudźcie się dalej.
Ale wiesz, że w teorii to całkiem możliwe i bez tych rzeczy, które napisałeś nie ma jeszcze co panikować?
Czy ty naprawdę oczekujesz na tak starej karcie więcej w grze pod koniec 2020 na ultra? Co za... a nie będę tak brzydko pisać.
Czy ty naprawdę oczekujesz na tak starej...
1060 podałem tylko jako przykład jak leży optymalizacja bo według redow to karta by grać w ich super grę na wysokich w 1080p w styczniu wymieniam kartę na RTX 3060Ti o ile będzie dostępny i to ta karta powinna być w rekomendowanych podana niech nie wprowadzają ludzi w błąd bo na gtx 1060 w cyberbuga można grać ledwo na średnich i wyciągnąć max 30 pare fps w 1080p
Ultra to nie Wysokie, skoro aż takie problemy masz z czytaniem. Do wysokich pewnie 1060 wystarczy spokojnie.
Problemy z czytaniem to masz ty pisze ci że na średnich gra wyciąga max 37 fps w 1080p a ty mi wyjeżdżasz że na wysokie wystarczy spokojnie.
Ale dobra bo można sobie tak tutaj z każdym w sprzeczki wdawać to standard na gry online sami eksperci.
przeciez na 1060 na średnich w 1080 masz 30+ fps. Jak włączysz DLSS to możesz dać nawet wysokie.
To na GTX'ach z seri 10XX jest DLSS? Ja o czymś nie wiem?
Redzi ustanowili jakiś nowy śmieszny standard, po jaki uj zmieniają standard zalecanych 'Wysokie 60FPS 1080p' na 'Wysokie 1080p 30FPS'.
Teraz popatrzmy pozytywnie, denuvo plus game ready driver pozwoli wam pewnie na 45 FPS Medium w CP. chociaż tyle dobrego.
(Cały tekst dotyczy 1060 6G.)
Deweloperzy przestrzegli, że rozwiązanie to może negatywnie wpłynąć na płynność działania gry,
Tyle jeśli chodzi o Denuvo.
Na szczęście tylko dla recenzentów (i bez day 1 pacza) i nie dziwie się na pewno zdarzyłby się jeden rodzynek co by grę wypościł przedwcześnie na torrenty dla PC.
"Na koniec warto odnotować, że recenzenckie kopie Cyberpunka 2077 wykorzystują system antypiracki Denuvo, który nie będzie obecny w wersji sprzedawanej klientom."
Czyli optymalizacja wcale nie jest tak fantastyczna jak to się ludzie nastawiali, że ma być, bo wymagania niskie.
Samo CDP Red powiedziało żeby nie brać tego w 100% wiarygodnie, bo raz, że będzie day 1 patch 40GB,
No wiadomo, ale jakby optymalizację skopało Ubi albo Bethesda, to uuuu PANIE, tragedia! 1/10!
Dobrze, że zaznaczyli preview performance, a nie jak niektórzy postawili kropkę nad i przed day 1 patchem.
Nie rozumiem tego. Pamiętam newsy o F76 i day one patchu, to była krytyka i wyśmiewanie. Ale jak już sajberpank wali day one patchami rozmiarami prawie 50GB, to już wszystko gra :)
Fontanny hipokryzji.
A może tak poczekać do 10 i samemu się przekonać zamiast w te mało wiarygodne benche wierzyć?
W benche to akurat bardziej wierzę niż w tzw. "recenzentów" gier, szczególnie z serwisów pokroju gamespot.
Zresztą, nawet gamespot dał 7/10, to już coś mówi.
No a ja jednak bym poczekał, zamiast wypisywać jakieś wczesne żale. Chociaż jeśli ktoś dostaje wersję recenzencką w takim stanie to i oceny powinny być niższe i wygląda na to że takie są.
^To stosujmy to do wszystkich gier, czemu tylko sajberpank ma być uprzywilejowany? Bo pamiętam wiadra pomyj wylewane na Unity, Battlefielda IV i tak dalej. Dziwnym trafem tutaj jest "no, zaczekajmy, cierpliwości". Jestem pewien, że jakbym pogrzebał w postach, to bym tutaj 99% osób wyciągnął coś w nuty uderzające w optymalizację innych gier.
Takie to standardy właśnie.
Gry w tamtych przypadkach miały premierę i były doświadczane przez graczy i klientów w ich złym stanie, a tu premiera jest za 2 dni i duży patch w drodze! Dlatego!
Jak wyglądał przez długi czas F67? Wszystko skopane tylko nie sklep w grze...Nie wiem jak jest teraz ale próbowałem darmowy tydzień długo po premierze i wielu ogromnych aktualizacjach i wywaliłem po 2 godzinach...
Redzi pisali ze wydania recenzenckie posiadają DRM które wpływa na wydajność a wersję konsumenckie mają być bez jakiekolwiek drmu (gog) albo bez dodatkowego drmu (steam)
Tylko praktycznie nikogo nie stać na taki komputer
Czyli karta za 2200 zł ( 3060 TI ) pozwoli mi bawić się w znośnym 60+fps. Czy to dobrze ? Jak tendencja wzrostowa wymagań nadal będzie tak spora, to naprawdę granie PC-towe stanie się niewspółmiernie droższe do naszych zarobków. Gdy kupowałem GTX 1060 za 1200 zł w 2016 r, to gra ogarniała wszystkie nowości w FHD i jakiś czas po. 4 lata róznicy i mamy 90% wzrost ceny karty ( odpowiednika w nowszej generacji) i można by rzec póki co, że na starcie mamy słabszą wydajność, choć tu podkreślam wszystko zależy jak będą optymalizowane przyszłe produkcje, ale wiemy jak o się dzisiaj odbywa, że skoro są mocne karty to na co nam optymalizować. Wiem, że to są teraz tylko moje dywagacje, bo postęp graficzny w grach powoli się wypłaszcza, ale jak za rok dwa wydadzą nowe asasiny, cody, itp. to nagle okaże się, że w FHD mamy 40 fpsów i ktoś kto chciał kupić kartę na 4-5 lat do FHD będzie zawiedziony wydajnością już po 2. Zauważcie, że poczciwy 1060 nawet dzisiaj daje rade w najnowszych grach, owczywiście z pewnymi kompromisami. Boję się i martwi mnei to, że prawie 2x droższa karta sprawi się gorzej na przestrzeni kolejnych kilku lat.
Tak jakby tej grafice miało pomóc 4 czy 8k.
Zamiast niżej grać komfortowo to gracze sami kalecza sobie granie. Polecam 30 fps buhaha
Na ilu calach grasz ze twierdzisz że nie pomoże?. owszem ja wolę grać w 30fps ale w 4k bo mam duży telewizor 49cali i siedzę od niego niecały metr, nie wyobrażam sobie zmienić na 2k i grać w 60 fps..
Wole grać w przyszłości 75-100 fps 2k 27" niż zgubić choćby 1fps z 60 w 4k w walce.
Dla mnie to żaden komfort.
Obecnie 24" 60-75 fps.
Nie rozumiem działania konsol że trzymaja je na dolnym fps zamiast np 30-60 , 60-90 fps
Na kompie jak widac na grafikach zakres jest spory. By gra utrzymała min 60 fps musi chodzić srednio np w 90 fps
Ja mam takie uczciwe 3440x1440. 4k nie jest mi potrzebne. Swoje maximum osiągnąłem.
Na koniec warto odnotować, że recenzenckie kopie Cyberpunka 2077 wykorzystują system antypiracki Denuvo, który nie będzie obecny w wersji sprzedawanej klientom. Deweloperzy przestrzegli, że rozwiązanie to może negatywnie wpłynąć na płynność działania gry, dlatego też produkcja, w którą zagracie za dwa dni może działać nieco lepiej, niż sugerują powyższe wykresy.
Dobra krzykacze to denuvo wpływa czy nie na wydajność? bo ciągle ktoś twierdzi, że nieee.
Mam GTX 1060 6gb i obawiam się teraz, że sobie nie pogram w full hd.
Co myślicie? GTX 1060 6gb, procesor i5 3.4, 16 gb ddr3 ramu.
Nowego assassyna mogłem ogrywać głównie na wysokich, z paroma opcjami na średnich(tekstury wysokie przykładowo) w 40-60 fpsach w full hd.
Zależy od ustawionych detali. Jeśli satysfakcjonuje Cię 30 fps-ów, to pograsz spokojnie na medium. Obawiam się, że 60 fps-ów nie osiągniesz nawet na minimalnych niestety...
zapewne wystarczy do fullhd 40-60 fps a może i stałe 60fps, zobaczymy jak to wyjdzie po premierze. Ne ma co panikowac bedzie dobrze a po paru wiekszych łatkach bedzie rewelacyjnie.
Gamers Nexus dał tweeta co do oceny wyników wydajności:
https://twitter.com/GamersNexus/status/1336066826233651202?s=20
Jak na razie te testy nie są zbyt wiarygodne z 3 powodów:
Ale przecież na to nikt już nie zwróci uwagi :). Artykuły muszą się klikać i trzeba nakręcić "dramę", ludzie już i tak wydali wyrok i opinię, a i 1/3 oczekuje nextgenowej grafiki i niektórzy jak kolega trochę wyżej twierdzi, że CP wygląda jak gra z poprzedniej generacji, oczekują również, że gra będzie urywać tyłek, ale ma działać w 60 klatkach na 5 letnich kartach.
FDRM ale dla recenzentów NO FDRM :) czyżby CDP uważał że mimo podpisanych deklaracji recenzenci będą złodziejami ? nie ładnie :)
Pamiętajcie tylko że testy robi się w miejscach graficznych najbardziej obciążonych które nie są najczęściej reprezentacyjne dla gry / ja bym do tych wyników dodał spokojnie +20% fps. Druga sprawa że DLSS w 4K to nie jest 4K tylko 1440p upscalowane w AI do 4K i tak należy w sumie do tego podchodzić jeśli DLSS będzie w m.in. 2.0 i dobrze zaimplementowany to jakość może być niezła ale i tak natywna rozdzielczość to natywna. Będę musiał skołować drugą 3090 aby zobaczyć czy da się CP uruchomić w SLI.
Na wymagania bym nie narzekał bo są to predefiniowane profile, a że CP2077 ma wiele ustawień to sądzę że każdy znajdzie optymalne dla siebie i od 1060 nie ma co nawet myśleć że ta gra będzie mu źle działać bo będzie dobrze.
Bardziej chodziło o to pewnie, że gra mogłaby wypłynąć do zatoki grubo przed premierą. Kto by nie chciał zagrać w CP 2077 np 4 grudnia.
Nie no litości, gość chce kołować 3090 by sprawdzić czy w grze na DX12 ruszy SLI, nie nie ruszy, bo żadna gra DX12 nie obsługuje SLI, co najwyżej może obsługiwać multi gpu, ale nikt z cdpr tego nie potwierdził, a ledwo po premierze ci co mają 2 karty, w zasadzie obojętne jakie, sprawdzą i potwierdzą czy jest multi gpu czy nie.
No, ale nie ma co sobie robić nadziei, że będzie.
Druga sprawa, jest mocno wątpliwe, że tom hardware testował konkretne miejsca z uwzględnieniem najbardziej obciążających miejsc.
Dodatkowo cdpr kazało im zdjąć wyniki z adnotacją
Editor's Note, Dec. 8: At the request of the publisher, we have edited this article to remove some benchmark figures taken before the Day Zero patch that may not be representative of the consumer day one experience.
Szefoxx - oczywiście że są gry które w DX12 działają w multigpu : Shadow of the tomb raider, Metro exodus, RDR2, Deux Ex MD w DX12, Hitman 2. Czy będzie działa Cyberpunk 2077 to zależy tylko od tego czy CDP to zaimplementował już czy zaimplementuje z czasem bo zapewne to zrobi. Kartę sobie już zabukowałem w piątek będzie to sam sprawdzę.
W Przypadku Tomb Raidera wydajność jest niższa niż na jednej 3090, zresztą żeby ogarnąć 2x 3090 potrzbujesz minimum 1300W
Co wy macie z tymi klatkami? 40fps w zupełności wystarczy by komfortowo grać.
Jeśli 3060ti robi 50fps na ultra z ray tracing to cud miód i orzeszki. Oczywiście dla kogoś kto skupia się na grze a nie na cyferkach opisanych "fps" i ma palpitacje jak zrobi mikro freeza czy dropnie na chwilę klatki.
Nie zgodziłbym się, 60 klatek jest złotą liczbą do komfortowej gry, spadek poniżej już jest odczuwalny.
Co wy macie z tymi klatkami? 40fps w zupełności wystarczy by komfortowo grać.
Przykro mi kolego, że ktoś Cię tak oszukuje, lub co gorsza sam się oszukujesz :)
Nie 50,. a 57, a po OC z palcem w nosie będzie 60. Więc narzekacze muszą oczywiście dorzucić swoje 3 grosze.
#Siembi
Spadek jest odczuwalny przy włączonym vsyncu. Gdyby częstotliwość odświeżania monitora była równa ilości fps, spadek nie byłby odczuwalny. Sam często zmieniam odświeżanie na 50 Hz i z włączonym vsync (czyli 50 fps) różnica jest minimalna.
Jak to 3090 nie wystarczy do 4k jak Hydro pisał, że 3060ti mu wystarczy.
Znajdź mi choć jeden post, w którym tak pisałem, czekam.
Kiedyś mi starczało 30fps. Niestety zainwestowałem w lepszy sprzęt i przyzwyczaiłem się tak do 60fps że już poniżej 50 widzę dużą różnicę.
Mam dokładnie tak samo. IMO w grach RPG spadek z 60 klatek na 52 jest cholernie odczuwalny i prawdę powiedziawszy, nie wiem czy potrafiłabym grać w 30. Mi tam się nie spieszy, mogę pograć w CP za rok. Wiedźmina 3 dopiero teraz ogrywam i nie czuję, żebym coś straciła przez te lata.
Ale jak to przecie to karta do 8k miała być. Mimo wszystko poczekałbym do patcha na premierę i do nowych sterowników.
Zobaczymy czy się coś poprawi na premierę (pewnie nie) ale CDPR jeżeli chodzi o optymalizację to nigdy przecież nie błyszczał. Pamiętam premierę Wiedźmina 2 i problemy z działaniem gry...
coś tam jednak poprawią więc jakiekolwiek benchamarki będą wiarygodne dopiero po patchu i po nowych sterownikach.
Pięknie, z racji, że mam porządnie wykręcone GPU, a test pokazuje, że z włączonym DLSS-Q na mojej karcie jest 57 klatek, to z palcem osiągnę 60 na pełnych detalach. Czyli trza włączyć 3840x2160, skalowanie 0.5,DLSS-Q i wszystko będzie można włączyć na Ultra :) Na wszystko jest sposób, nie ma co narzekać :P Oczywiście pomijam fakt, że testy robione bez 1-dajy patcha i z denuvo, które mocno potrafi ubić framerate, wiec w ogóle bym się nie martwił.
Czyli trza włączyć 3840x2160, skalowanie 0.5
Od razu odpal w 720p - jakość ta sama a nie trzeba kombinować.
Oczywiście pomijam fakt, że testy robione bez 1-dajy patcha i z denuvo, które mocno potrafi ubić framerate, wiec w ogóle bym się nie martwił.
No według mnie też te testy teraz to głupota.
Hydro jest chyba pierwszą osobą która grając w 720p twierdzi że gra w 4k.
Hydro po co kombinować, lepiej odpal to na monitorze full hd, będzie lepiej wyglądać i działać.
może nie wiecie ale każde dlss działa w około 0.48 x pixeli. A na nowym filmie blacka z watch dogs mówi nawet że w większości nie rozpoznasz wersji perform z natywną w 4k jeśli nie przybliżysz a korzysta z jeszcze mniejszej ilości pixeli natywnych. Co jest faktem i można wyczytać albo przeliczyć. Więc nie za bardzo rozumiem kto tu ma mózg i gra klauna XD Jeśli ktoś się chce spierać to podsyłam film .https://www.youtube.com/watch?v=jYJJjTRh9bE&ab_channel=blackwhiteTV
Ale akcja gość napisał coś czego reszta nie wiedziała. I jeszcze sapio XDXDXDXD
Ale jeszcze większą będę miał bekę jeśli ktoś ma opcje włączyć dlss ale tego nie zrobi w 4k bo stwierdzi że straci jakość XDXDXD to dopiero komedia że aż mi płyn wycieka z kieszeni .
Przeczytaj post Hydro jeszcze raz. On chce włączyć skalowanie rozdzielczości i DLSS jednocześnie. Nie ma szans żeby jego karta uciągnęła 4k tylko z DLSS, zresztą powyższe grafiki pokazują że z full hd będzie miała problem. Nikt mnie nie przekona że te eksperymenty które Hydro zamierza zrobić będą wyglądać dobrze.
Ale akcja gość napisał coś czego reszta nie wiedziała. I jeszcze sapio XDXDXDXD
Ale jeszcze większą będę miał bekę jeśli ktoś ma opcje włączyć dlss ale tego nie zrobi w 4k bo stwierdzi że straci jakość XDXDXD to dopiero komedia że aż mi płyn wycieka z kieszeni
Najśmieszniejsze jest to, że to Ty nie zrozumiałeś o co nam wszystkim chodzi.
bmw a przetestowałeś sobie sam ten DLSS ? Bo ja tak, i różnica jest na korzyść natywnego 4k. Do tego DLSS w Watch dogs Legion rozmazuje obraz podczas ruchu i nie chodzi tu o opcje motion blur, tylko ten dlss robi mydło z obrazu. Obniżają wam rozdzielczość i wmawiają, że macie 2 razy więcej klatek w 4k, no zajebiście po prostu. Niech reklamują ten RT bez DLSS, ale nie przecież w 4k z RT to będzie pokaz slajdów, więc trzeba rozdzielczość obniżyć. Mam nadzieje, że ten DLSS plastikfantastik szybko odejdzie w zapomnienie.
sam dlss jest niesamowitą technologią . Mydła żadnego nie robi jeśli nie dasz na performance chyba że w metro na początkach. Korzystam z niego jak tylko mogę . I nie widzę powodu żeby gdy nie odpali mi gra w 4k odpalić dlss i mieć sporo klatek więcej . A przy tym będzie to wyglądało o niebo lepiej niż 1440p . Więc tak jak najbardziej uważam to za istotne jak profesjonalni testerzy którzt siedzą w technologi. Więc tu mi nie wróżcie że zginie bo mydło . Bo gadacie totalne głupoty chyba że włączacie dlss w 1080p to pozdro XDXXD jednym słowem słowa black >>> (dla podkreślenia 3 aż znaki) wasze słowa ., Rozumajta?
Nie neguję profesjonalizmu Blacka, ale to typ który polecał RTX 2060 do ray traycingu z włączonym DLSS właśnie w full HD. Nie dziwi mnie swoją drogą że koleś który sprzedaje karty i dostaje je do testów chwali technologię którą te karty wykorzystują.
Dobrze bmw, tylko nie wmawiaj mi, że DLSS będzie wyglądał lepiej niż natywne 4K. Żadne skalowanie w dół nie będzie lepiej wyglądać. I nie mów, że grasz w natywnym 4k z DLSS. Kup sobie monitor 1440p i skaluj sobie rozdzielczość w górę, gwarantuje że będzie wyglądało to lepiej niż te wasze 4k z DLSS :D
PS robiłem testy skalowania i różicę widać max do 1600p na monitorze 1440p Potem już jest praktycznie niemożliwa gołym okiem rozpoznanie rozdziałki na monitorze wspierającym tylko 2.5k . Co do rozwiązania z hydro i dlss nie zabardzo oddam za to życię ale też nie widziałem tego testów. teoretycznie jest to w sumie jedyna mozliwość by z użyciem dlss jak napisałem pozyskac tą samą rozdzielczość . jeśli odpali 0.5 skalowanie w 4k to uzyska 1440p Dlss też na oko weźmie z 1440p . Wiec zwyczajnie uzyska obraz 1440p z dlss 1440p więc zyska niesamowite wygładzanie bez kosztów . zamiast używać buraczanych technologi jak msaa. które na razie są jedynym ratunkiem dla vr np. Ale dalej będzie to obraz 1440p a nie 4k. Więc musiał bym poczytać o co chodzi w tej technice i gdzie się mylę
co do karty 2060 to tak było . Ponieważ ludzie nie znali jeszcze mocy jedi 3000. I myśleli że 2080 jest kartą do 4k . :P
tu podsyłam linka pod bul dupy https://www.youtube.com/watch?v=XAMpDtnfwPk&ab_channel=NVIDIAGeForce I w tym natywnym 4k jest takie mydło że mi cieknie z kieszeni tak zmoczyłem . Oczywiście jak chcecie i nawet chciałbym podeślijcie swoje nieoficjalne jakieś materiały. bo na razie tu pierdolenko bez argumentów testów czy dowodów . Panie tak jest te wiedźminy mi wioske straszą i koniec tematu dla was XD A ja chciałbym zobaczyć w miare nowe testy które temu przeczą
4k z dlss to na karcie Hydro 12 fps średnio. Życzę miłego grania.
Najnowszy DLSS nawet najlepiej zaimplementowany aktualnie powoduje efekt ghostingu w ruchu.
Fajnie, ale nie zmienia to faktu że na RTX 3060 ti zobaczysz DLSS w 4k w 12 fps ze spadkami.
Ile razy trza mowic, ze 3060 i ti tak samo jak i 1080 i ti dziela hiper przepaści. Te drugie to niemal wydajności tych pierwszych...w SLI (zakładając, ze seria 3 by wspierała SLI). Wykręciłem już na stałe 3060ti na 1830/2000 a to daje wydajność 3070. Już tak zostawiłem bo karta jest hiper cicha, a wg testów 3070 ma wydajbosc na poziomie 47 klatek, bez DLSS w wersji bez patcha i z denuvo , ktore zabiera w p...u klatek (o czy mówią sami Redzi) wiec wiesz, jakoś sie nie martwię o framerate. Za to ty powinieneś.
Weryfikowanie twoich głupot chyba stanie się moją stałą rozrywką w przerwach w pracy :)
Nie, nie masz "porządnie wykręconego GPU".
Kupiłeś bieda niereferenta z kiepskim jak na tę kartę chłodzeniem, śmiesznym power limitem i potencjałem OC, który po testach oceniono na... niższy od referencyjnych 3060ti.
I to tylko potwierdzają wyniki twojego "OC". 1830Mhz to wynik gorszy od tego co niektóre niereferenty ustawiają na auto booscie wyciągnięte wprost z pudełka.
Nie dogoniłeś RTX 3070, nie dogoniłeś 2080TI. Do ich wyników brakuje ci zegarów wyższych przynajmniej o jakieś 300-330Mhz i 8% wydajności. Co bez problemu można zweryfikować w bazie 3DMarka.
Nie mówiąc o tym, że to co dla ciebie jest zbyt wysoko nawet na sufit dla nich jest tylko podłogą bo je też można podkręcić i odjadą ci o kolejne 7-8%.
Co do wyostrzania - tutaj też nie zrozumiałeś tego co ktoś próbował ci wytłumaczyć.
Problemem jest to, że w natywnej rozdzielczości ekranu różne obiekty w grze mają różną ostrość. Wyostrzanie działa zaś dla wszystkich jednakowo, stąd po skalowaniu z niższej rozdzielczości i "przekręceniu" tego wskaźnika możesz mieć nadal delikatnie rozmazane tekstury w niektórych miejscach w tle (bo one miały mieć mniejszą ostrość w natywnej rozdzielczości) i jednocześnie zbyt ostre tekstury np na pierwszym planie (bo one miały wysoką ostrość "wyjściową"). Co spowoduje, że te "przeostrzone" tekstury wyglądają nienaturalnie, tak jakby były doklejone na tło. I nie, nie jest to zaletą. W innym przypadku Image Sharpening dostępne w panelu Nvidii byłoby od dawna opcją domyślnie włączoną i ustawioną na 100%.
Ok, zakładając że budżetowy rtx 3060 ti ewoluował w rtx 3070, to wg Tom's Hardware wciąż sporo poniżej 30 fps w 4k z dlss i RT.
może ustrawić balance+ ray na medium :P 4k klatek ni bedzie wystarczy że odskaluje do 80 % albo obniży cienie > Myślę że dla takiej karty nie będzie to problem w odpowiednich ustawieniach nawet bez skalowania.
bmwbmw2 - to jak działa DLSS to zależy od jego implementacji oraz DL dla danej gry. Czasem obraz w DLSS jest nawet lepszy, ale czasem pojawiają się pewne artefakty. Moim zdaniem a bardzo dokładnie to przetestowałem natywna rozdzielczość wypada jednak lepiej szczególnie jeśli patrzymy na małe elementy typu trawa czy włosy ponieważ przez sam upscaling nie da się tego uzyskać na ten moment lepiej. BW to stary znajomy z pclaba z którym też się znam i mimo że bardzo dokładnie tłumaczy różne rzeczy to nie wszystko jest takie oczywiste. DLSS został dodany głównie po to aby dać to w kombinacji z RT i żeby karta miała czym oddychać szczególnie że największa korzyść z tego jest przy 1440p i 4K bo w przypadku 1440p obraz jest tworzony praktycznie z 1/2 tego co ma być do przetworzenia pozostałe braki są wypełniane przez logikę, ale tak jak wyżej czasem zdarzają się błędy nawet w DLSS 2.x
Jeśli uda mi się zagrać w grę natywnie w 4K to tak będę grał, jak nie to skorzystam z DLSS.
Dobre czasy nastali....ludzie pokładają nadzieje w grze, która jest w produkcji 8 lat, miała przekładaną premierę 3x by rzekomo naprawić bugi, optymalizacje itp, dostanie dwa day one patche możliwe, że ważące więcej niż sama gra i jeszcze chcą czekać rok-dwa wzorując się na poprzednich produkcjach wmawiając sobie teksty "połatają grę jak inne swoje poprzednie i będzie tip top bo pogram bez bugów, spadków fps" Niezły festyn żenady nie ma co:)
No sorry, ale to nie firmy, które tworzą gry są złe tylko ludzie, którzy te gry kupują i że sami pozwalają i dają się doić na zagrywki typu wycięte zawartości DLC itp
Gra będzie dobra, nie ma co ukrywać, ale jak dla mnie przehypowana oporowo, lecz zdecydowanie nie wybitna, bądz rewolucyjna. Czytając artykuły i komentarze na przestrzeni miesięcy, czuć terabajty oczekiwań, które nie dla wszystkich mogą być spełnione, a tzw "fanboje" będą i tak bronić giereczki rękami i nogami.
Niemniej fajnie się czyta komentarze, sprzeczki, żale i te mierne próby udowodnienia/wmówienia sobie i innym jaka ta gra jest wspaniała/koszmarna. Poproszę o więcej, a ja idę po drugi popcorn
Dlaczego w wykresach nie ma już nigdzie RTX 2080 TI?
Jestem ciekaw, na co pozwoli ta karta w 1440p?
Nvidia się postarała aby zawyżyć wymagania sprzętowe, za rok wyjdą nowe grafiki za 5 tysięcy to pewnie uciągnę to w 60 klatkach, biznes musi się kręcić, a gracze nadal tego nie widzą i cieszą się z jakiś pseudo technologi typu RT.
No przecież Jensen jak tam pichcił te karty w piekarniku to mówił, że 3090 to do 8k jest. A tu z Sajberpunkiem ma problem w 4k na medium :D
To chyba prawidłowo nową grą czas na nową kartę graficzną. Od grania są konsole na PC należy dążyć do doskonałości graficznej w myśl zasady nowa gra nowy sprzęt.
Powiedz to ludziom, którzy nie zarabiają dużo, uwielbiają grać na PC, a mają rodziny na utrzymaniu i ogromne kredyty, bo w wielu przypadkach u nas inaczej się nie da. Logiczne, że zdrowo myślący człowiek wybierze swoje życie, a nie piksele w grze.
Druga sprawa to braki w nowych kartach. Po cholere wypuszczać coś nowego skoro nie da się tego kupić, a duży %, którzy te karty mają u siebie to testerzy, recenzenci, youtuberzy, streamerzy. Zwykły konsument jest w dupie dzisiaj, bo nawet jak uda mu się jakimś cudem zamówić to czeka pół roku na dostawę w kolejce.
Niby można poczekać na stabilną dostępność i za ten czas odłożyć kasę, ale nie powinno być takich braków w sklepach, bo nie żyjemy w średniowieczu.
Na nisko-średnich w 1080p powinien dać radę.
To było do przewidzenia. Dlatego byłem zadowolony z monitor 1080p (1920x1080, 23 cali, IPS 60Hz) i nie narzekam.
Do 4K nie śpieszy mi się, gdyż to nadal młoda technologia, który jeszcze trochę brakuje do perfekcji i dużo kosztuje (karta graficzna, a nie tylko monitor).
Albo ponad 30-60 FPS i High/Ultra, albo 4K i 30 FPS na Medium/High na wielu gry. Prosty wybór. Nie można mieć wszystkiego.
Wszystko przez kino domowe które wyskoczyło w 4k i pociągnąło za sobą konsole, które powinny jak PC chodzić w max 2k.
Do tej pory nie było takich przeskokow rozdzielczości. Przez pieniądz i lans zgubiono standardy. Za chwile będzie wabienie ludzi 8k
No ja sobie nie wyobrażam zejść z 4k do full hd czy 1440p na monitorze większym niż 24 cali. Co prawda jak chcesz 4k60fps to trochę to kosztuje. Na RTX 3080 taki RDR2 na high w 4k działa w 60-80 klatkach, więc da się. Z każdą kolejną generacją kart graficzny 4k będzie bardziej dostępne.
Czytając ostatnio dyskusje na temat optymalizacji Cyberpunka na PC nic tylko się uśmiechnąć. Posty typu: KUNSOLE HAMUJO ROZWOJ GIER mieszają się ze stękaniem że na GTX 1060 (prawie 5 letniej karcie, 5 lat to jest przepaść w branży elektronicznej jakby ktoś nie wiedział) gra chodzi słabo.
No skandal, wiadomo że gra powinna oszałamiać graficznie ale tak żeby dało się grać na wysokich na GTX 1060 i na 8gb RAMU w 60 klatkach.
Mi to wygląda na to że dlss jeszcze nie jest tu wspierane . Pewnie trzeba będzie poczekać na 2 patche od nvidi oprócz samego cdp. i tak zagram za 3-4 miechy więc mnie to tam bez różnicy. Ale czekam na dobry produkt !
Czemu twierdzisz, że DLSS nie jest tu wspierane, skoro można je odpalić i w większości przypadków to uratuje wydajność na słabszych gpu. Idąc tokiem wykresów, ja tam widzę tylko, że na ultra 1080p DLSS był odpalony tylko na 3090, czyli jak dla mnie analogicznie wychodzi na to, że np. 2060 uciągnie CP2077 w full hd w 60 + fpsach włączając DLSS w trybie wydajności lub jako zbalansowany.
DLSS 2.1 i skalowanie uczynią cuda. Nie będzie to pełne 4K, ale ciężko będzie się tego dopatrzyć.
Nie żadne cuda tylko 2K z odpalonym DLSS. Bo w takiej rozdzielczości grasz w rzeczywistości po ustawieniu swojego skalowania i tak to powinieneś nazywać. Rozdzielczość wyświetlania ma dużo mniejsze znaczenie w tym momencie. Renderujesz obraz w 2k i taką masz jakość obrazu.
To tak jakbyś wybrał FullHD/1440 przy video na YouTube/Netflixie i twierdził, że ono ma jakość 4K bo wyswietliłeś je na takim ekranie. Albo kupił telewizor 4k do oglądania telewizji nie nadającej sygnału w UHD. Nie, nie ma tej jakości i im większy ekran tym wyraźniej to widać.
To, że ty na to swoje swoje skalowanie nakładasz DLSS, które ukrywa niedostatki renderowania dzięki wyostrzaniu i Anti Aliasingowi nie zmieni tego, że koniec końców całość od samego początku masz renderowaną w rozdzielczości o połowę niższej.
Na koniec - to jest absurd Hydro, że ty włączasz dwie techniki, które robią to samo - renderują obraz w 1440p by wyświetlić na ekranie o wyższej rozdzielczości. Z tym, że jedna dzięki zaawansowanym algorytmom Anti Aliasingu i wyostrzania osiąga lepszy efekt (DLSS), a druga (skalowanie w panelu sterowania/grze) ich nie posiada i robi to znacznie gorzej.
De facto psujesz tylko efekt osiągany przez DLSS ustawiając końcową wartość renderowania na 0,5 rozdzielczości ekranu.
MaBo_s - to nie jest do końca tak. Masz tablice około połowy punktów w MPx ale pozostała nie jest wrzucona najprostszą metodą dla upscalingu na zasadzie próbkowania punktów stycznych i tworzenia pośrednich tylko DL na podstawie wielokrotnego loopa na danej grze przewiduje jakie to będzie wypełnienie więc faktycznie masz dokładnie tą samą ilość pikseli w DLSS 2.x co natywnie rozdzielczości. Problem polega tylko na tym że nie zawsze jest to robione perfekcyjnie więc czasem mogą być przekłamania. Niemniej DLSS to przyszłość może nawet i większa niż każdemu się to dzisiaj wydaje do uzyskania niesamowitej oprawy graficznej przy o połowie mniejszym koszcie wymaganej mocy.
DLSS 2.0/2.1 nie "uczy się na pętlach" w danej grze. Używa uniwersalnego modelu wypracowanego na podstawie obiektów przygotowanych przez Nvidię tak żeby móc szybciej i łatwiej implementować DLSS w kolejnych produkcjach.
Wiem, że deep learning, uczenie maszynowe, AI to fajnie brzmiące pojęcia i robią dobre marketingowe wrażenie, ale w praktyce technika Nvidii nie "uczy się" niczego podczas twojego grania tylko używa ustandaryzowanego algorytmu dopracowanego przez Nvidię przy okazji wprowadzania kolejnych iteracji DLSSu.
No i najważniejsza kwestia - jesteś pewny, że Hydro na koniec otrzyma dokładnie tę samą liczbę pixeli powstałych dzięki DL skoro oprócz DLSS on włącza właśnie ten najprostszy upscaling z 0,5 natywnej rozdzielczości?
Bo tego dotyczyły moje wątpliwości w pierwszym poście.
PS. Jeśli chodzi o sam DLSS zaś to też kibicuję i uważam, że w przyszłości może mieć dużo większe znaczenie niż teraz bo to bardzo dobrze rozwijająca się technika i widać, że kolejne wersje przynoszą wyraźną poprawę.
Trzeba poczekać jak dla mnie będzie spokojnie można grać na 1060 6 gb
Te wszystkie testy były bez patcha optymalizującego więc pewnie z + 5 klatek
do tego dolicz testowanie na denuvo spokojnie z 10 klatek
no i niezoptymalizowane sterowniki kart graficznych kolejne 5 klatek
Plus 2 patche dodatkowe po premierze i będzie tak jak z wiedźminem 2
Czyli na GTX 1050 Ti jestem pogrzebany ? Jak wszystko na minimum zrobie, może da się grać ? Tu nie uwzgledniono najniższych ustawien, może gra ich nie ma ? Hm, nie miało być wielkich wymagań a nawet na potworach nie ma tyle co powinno być. Gra miała być długa, a jest krótka. Chociaż pewnie można sobie wydłużyć. Ale to, że gra powstawała długo i była przesuwana po to by ją dopracować a w efekcie jest masa błędów to trochę przesada.
Litości.. Grałem 3 lata temu na 1050 ti i już ledwo dawała radę, a ludzie oczekują że tak słaba karta da radę w nowych grach. Jeśli masz wersje msi to próbuj ją kręcić na maksa możliwości, może to coś da. Redzi nigdzie nie mówili, że gra będzie długa, a zadania poboczne łączą się z fabuła, więc takie rozwiązanie to duży plus.
Carlito78 --- GTX 1050TI po paździerz nie karta, już w dniu premiery była słaba, a mowa teraz... najlepsze co mógłbyś zrobić to ją sprzedać, i w tych samych pieniądzach ze sprzedaży masz GTX 970 4GB który jest o jakieś 50% bardziej wydajny.
Sami we własnej recenzji piszecie, że na 2080 "Przy ustawieniach ultra gra bez problemu utrzymywała stabilne 60 klatek, chociaż gdy nie wprowadzałem limitu FPS-ów, potrafiła generować wartości pomiędzy 95 a 105 klatkami", więc po co publikować takie głupoty?
Cóż, włączy się dlss i jakoś to będzie działać. Ale nurtuje mnie ten podwójny standard - jak redzi wypuszczają zabugowaną grę to wszystko ładnie cacy, patche zategują. Ale jak robi to ktoś inny to jest szydzenie, słuszne żeby nie było, gry powinny wychodzić dopracowane.
Mam do sprzedania kartę Gigabyte GTX 1660 S. Karta kupiona w x-komie we wrześniu tego roku. Sprzedam w dobrej cenie jeśli będą chętni.