Forum Gry Hobby Sprzęt Rozmawiamy Archiwum Regulamin

Technologie Nvidia potwierdza karty GeForce RTX Super

27.06.2019 11:10
1
7
zanonimizowany1255967
74
Generał

Spotkanie w dyrekcji nVidii
-nowa seria kart RTX okazała się niewypałem, są o połowę droższe niż poprzednia generacja a ilość gier jakie obsługują efekty RTXa można policzyć na palcach jednej ręki
-co więc proponujecie?
-zrobić trochę mocniejsze i jeszcze droższe wersje RTX
-SUPER (chórem)

27.06.2019 11:10
1
7
zanonimizowany1255967
74
Generał

Spotkanie w dyrekcji nVidii
-nowa seria kart RTX okazała się niewypałem, są o połowę droższe niż poprzednia generacja a ilość gier jakie obsługują efekty RTXa można policzyć na palcach jednej ręki
-co więc proponujecie?
-zrobić trochę mocniejsze i jeszcze droższe wersje RTX
-SUPER (chórem)

27.06.2019 11:16
AIDIDPl
2
odpowiedz
9 odpowiedzi
AIDIDPl
183
PC-towiec

Prawda, ale w 2020 roku już w sumie będzie około 10 dużych gier z obsługą RT. Można się już zastanawiać nad kupnem.

27.06.2019 11:26
Rumcykcyk
2.1
Rumcykcyk
124
Głębinowiec

Ciekawe ile osób mając kartę RTX odpala RT katując komputer. To taki sam bajer jak włosy czy tam jakieś realistyczne cienie które nikomu do życia nie są potrzebne, a po wyłączeniu dostajemy zastrzyk fps albo odciążamy komponenty.

27.06.2019 11:31
AIDIDPl
2.2
AIDIDPl
183
PC-towiec

Jak ktoś ma RTX 2080 ti, albo będzie miał RTX 2080 Super i Super Ti to może sobie włączać. Te karty jako tako trzymają te 60 fps.

Ciekaw jestem jak będzie z nowymi grami.

27.06.2019 11:31
😈
2.3
1
AnetaWalewska
1
Centurion

W single to jeszcze ktoś korzysta z RTX ale w multi to 99% graczy ma to wyłączone :) Trzeba czekać aż ta technologia doczeka się kolejnej generacji kart bo na razie to jest kosmiczna technologia dla zamożnych obywateli :)

27.06.2019 12:10
mirko81
2.4
mirko81
75
Slow Gaming

I oczywiście te 10 musi ci sie spodobać.

27.06.2019 13:36
AIDIDPl
2.5
1
AIDIDPl
183
PC-towiec

Z włączonym RT nie mogą ci się nie podobać.

27.06.2019 14:40
animatiV
😈
2.6
animatiV
101
Generał

Jak dobrze że nie gram na multi. RT mogę mieć włączony przez cały czas!

post wyedytowany przez animatiV 2019-06-27 14:40:50
27.06.2019 14:49
2.7
zanonimizowany1246592
22
Konsul

I grać w Metro Exoduss w rwanych 45 fps'ach.

27.06.2019 16:35
kaszanka9
😂
2.8
kaszanka9
109
Bulbulator

Aż 10? [OSTROŻNIE]

Z włączonym RT nie mogą ci się nie podobać.

Aha.

post wyedytowany przez kaszanka9 2019-06-27 16:35:15
27.06.2019 16:46
Orion Devastator
2.9
Orion Devastator
50
Konsul

Najlepiej widać było jaki efekt daje RTX na przykładzie streama takiego DansGaming jak grał w Metro Exodus. Ludzie co chwile na czacie pytali czy "RTX on?", bo taką różnicę to dawało, że nie do końca wiadomo (wiem stream gorsza jakość itd.), oglądałem chyba z 3h gameplayu i przez ten czas kilka razy było tłumaczone co to RTX, aż dał sobie spokój ;)
Ludzie mieli bekę do tego momentu, że jak coś się dziwnego działo czy jakiś bug w grze to nagle fala komentarzy "RTX on" :) ogólnie beka, że co to nie dają te efekty :)

Dans ma zdaje się 2 te karty w SLI więc też nie widać było spadków wydajności.

Także różnica jest widoczna ale mizerna? Efekt ogólnie wygląda dobrze i miło że są rozwijane takie technologie ale podstawowe cieniowanie też jest dobre na wysokich detalach. Ja jeśli w coś gram to często sam wyłączam lub możliwie ograniczam cienie bo potrafią mocno obciążać, gram głównie w gry singleplayer więc teoretycznie mógłbym się zachwycać lepszymi cieniami ale wolę więcej FPS.

27.06.2019 11:31
3
odpowiedz
Kelebglin
62
Pretorianin

To nie będzie przypadkiem tak, że super cenowo będą jak obecne rtx, a obecne obniżą?

27.06.2019 11:34
NightBosman
4
odpowiedz
NightBosman
87
Konsul

Bardzo jestem ciekawy co z tego będzie, oby tylko nie okazało sie ze +5% :v

27.06.2019 11:41
Soulcatcher
5
odpowiedz
5 odpowiedzi
Soulcatcher
280
ESO

karta RTX2080, czy ta stara czy nowa która będzie jest dla osób grających w 4K i tylko dla nich ma sens.

dla mnie różnica jest taka że na 1080 mam między 30 a 60 fps w 4K a na 2080 jest 50-60 fps.

Jak ktoś gra w mniej niż 4K, 1080 jest naprawdę wystarczająca.

27.06.2019 12:08
Tal_Rascha
5.1
Tal_Rascha
214
Never Fade Away

Premium VIP

1080 już powoli średnio daje sobie radę w 1440p

27.06.2019 12:38
Kadaj
5.2
Kadaj
68
Konsul

To już zależy jakie ma się wymaganie odnośnie fpsów w grach. U mnie na 1080 w 1440p. wszystko, w co miałem okazję zagrać, śmiga na ultra. : >

27.06.2019 13:07
.:Jj:.
5.3
.:Jj:.
147
    ENNIO MORRICONE    

A jakie można mieć wymagania odnośnie płynności w grach na PC?

Są osoby gustujące w przedziale 37-39 klatek? Są miłośnicy 26, koneserzy 51? Bazowy standard to 60, jeszcze przez bardzo, bardzo długi czas to będzie najpopularniejsza częstotliwość odświeżania w monitorach.
Czy do czegoś wymagana jest niska wydajność i klatkowanie? :)

Ogólnie dyskusja bez konkretów 'co jest dla kogo wystarczające' jest bezsensowna. Tak jak standardem jest 60fpsów, tak standardem w danej chwili jest branie pod uwagę aktualnie wydawanych gier.
Przecież oczywiste, że jak ktoś gra w starsze gry, gry 2d, pozycje mniej wymagające to słabsza karta będzie dawała radę. Tylko o czym to ma świadczyć, że dana karta nadaje się do rozdzielczości xyz?
Ja mogę grać tylko w indyki 2D i śmiem twierdzić, że Iris Pro 580 jest w zupełności wystarczający dla każdego.

Dyskusja z cyklu 'którą myszkę polecacie'- każdy z własną prawdą objawioną :)

27.06.2019 13:18
Kadaj
5.4
1
Kadaj
68
Konsul

Mi spokojnie wystarczy stabilne 40, jak jeszcze miałem starą 970-kę to do takiej mniej do takiej wartości żyłowałem ustawienia i przyjemnie się grało. I piszę to z poziomu kogoś, u kogo wszystkie te gierki obecnie chodzą na 60. : >

27.06.2019 16:17
XoniC
5.5
XoniC
67
Generał

@.:Jj:. Ja jestem koneserem 45-50 fps i dobrze się z tym czuję, ponieważ nie muszę wydawać kasy mocne i drogie karty graficzne. Chociaż mój gtx 1060 powoli dostaje zadyszki w 1440p.

27.06.2019 11:54
6
1
odpowiedz
Le Loi
71
Generał

Proszę nie siać nieprawdziwych informacji, każdy RTX 20XX Super będzie posiadał wydajność poprzedniej "dziesiątki", (2060 super = 2070, 2070 super = 2080 i tak dalej) a ceny jedynie w 2060 będą wyższe. Jak dla mnie jest to ciekawa propozycja.

27.06.2019 12:04
7
odpowiedz
mysticwaver
46
Centurion

Rok 2030, nvidia ogłasza nową serię kart, GeForce URTX^2 4900 Super Dupper Ultra Titanium Pro 4. Dopóki cena zaporowa to nie ma co się pchać. Ziomki pograją na gtx970 w cyberpunka i to się liczy :=)

BTW: Sam na przestrzeni lat kilka nowinek wyłączam w grach na start, onegdaj to był motion blur, obecnie właśnie RTX. Przetestowałem jak to działa i kartę oddałem na zwrot, wróciłem do 1060 6GB którego na szczęście jeszcze nie sprzedałem :))

post wyedytowany przez mysticwaver 2019-06-27 12:05:41
27.06.2019 12:20
8
1
odpowiedz
5 odpowiedzi
Likfidator
120
Senator

karta RTX2080, czy ta stara czy nowa która będzie jest dla osób grających w 4K i tylko dla nich ma sens.

Tylko wiesz, mało kto chce grać w 4K. Taka rozdzielczość jest świetna do produktywności, czy to do pracy z tekstem dzięki super ostrym czcionkom, czy do grafiki albo edycji filmów. W tym ostatnim 5K i 6K są nawet lepsze, bo edytorze można mieć ramkę 4K z pikselami 1:1.

W przypadku gier, 4K zjada zbyt dużo mocy GPU, jednocześnie nie oferując dużo lepszej grafiki względem 1440p. Żeby nie powiedzieć, że 4K jest gorsze od 1440p. Chodzi po prostu o to, że w 1440p na high-endowej karcie można grać na ultra w 100+ fps.

Sama rozdzielczość to tylko połowa sukcesu. 1440p w 144 Hz to więcej pikseli/sekundę niż 4K w 60 Hz. Wystarczy odpalić testufo.com by zobaczyć jak gigantyczną różnicę robi 120+ Hz względem 60 (konsolowe 30 fps przemilczę).

W panelu 60 Hz każda dynamiczna scena jest tak rozmyta, że nie da się zauważyć różnicy między 720p a 4K. Tak na marginesie twórcy gier z tego chętnie korzystają implementując dynamiczną rozdzielczość i czasową rekonstrukcję obrazu, gdzie spokojne, eksploracyjne fragmenty możemy podziwiać w wysokiej rozdzielczości, a dynamiczne są w mniejszej bez utraty płynności.

Przez najbliższe 3-5 lat standardem dla PC będzie 1440p w 120-240 Hz z G-sync/Freesync. Zwykli użytkownicy wybiorą tradycyjne 16:9, a entuzjaści ultra-wide 3440x1440. Totalny high-end to 32:9 w 5120x1440p.

Niezależnie od zasobności portfela nikt nie chce grać w 4K, bo to najgorszy możliwy wybór... no 5K, 6K i 8K jest jeszcze gorsze, ale nikt w to nie wchodzi.

Nawet 5120x1440p oferując fantastyczny ultra-wide ma milion pikseli mniej niż 4K, a tym samym 10-15% więcej FPS.

27.06.2019 13:28
Soulcatcher
8.1
Soulcatcher
280
ESO

"Tylko wiesz, mało kto chce grać w 4K"

Tak wiem.

Dlatego właśnie napisałem że dla ludzi grających w FullHD te karty nie mają sensu.

Przy 1440p można się zastanowić, jak ktoś ma pieniądze to 2080 da mu komfort, ale moim zdaniem 1080 też wystarcza.

27.06.2019 14:00
piter987
8.2
piter987
79
PcMasterRace

Zapominasz o jednym, nie każdy gra na monitorze, ja na przykład mam te 4k na 55 calowym TV i uwierz mi - jest ogromna różnica między zwykłym full hd, a 4k, a co dopiero 720. W grach również - 2k, a 4k to spory przeskok widoczny gołym okiem. Poza tym w 4k nie musisz grać tylko w najnowsze tytuły, a zaręczam Ci że samo włączenie starszej gierki na 4k to już jest jej duży skok jakościowy :) Tym bardziej jeśli dodać do 4k HDR oczywiście, chyba o nim zapomniałeś :D Samo to świadczy o tym iż jednak rozdzielczość swoje robi :) Więc nie gadaj że nikt w 4k nie chce grać bo "najgorszy wybór" xD Odpal Far Cry 5 na 4k z hdr, Odyssey, Origin, wszystkie te nowsze gierki, odpal sobie nawet Gothica - w wyższej rozdzielczości WSZYSTKO jest lepsze, a ja jednak wolę grać w 60fps na dowalonych 55 calach, niż kitrać te 144hz na 2k/full hd na 27 calach

27.06.2019 14:46
animatiV
8.3
animatiV
101
Generał

Takiego RTX 2080/ti można wykorzystać nawet na monitorze 1080p lub w wersji UW. Oczywiście, zwykły szary użytkownik który korzysta z komputera do grania jak na konsoli jej nie wykorzysta ale ten który wie co daje komputer, potrafi modować gry ogromnymi teksturami które zajmują 8-10GB pamięci VRAM to już inna bajka.

27.06.2019 17:09
8.4
enzomori
30
Chorąży

Zgadzam się w zupełności. Przydałoby się więcej monitorów 1440p 144hz z GSync, obecnie są ciut drogie względem Freesync - jedyna nadzieja, że karty AMD będą dobre, ale na tą chwilę skłaniam się ku Ryzen 3600(?)/Nvidii RTX 2070S + nowy monitor 1440p/144hz bez dopłacania do Gsynca, ale z tego co czytałem niektóre monitory z Freesync mają wsparcie w nowych sterach Nvidii.
Mój obecny sprzęt ma już 6 lat (i54670/770gtx+1080p60), więc nie mogę doczekać się efektu 'wow' :P

27.06.2019 17:12
kaszanka9
8.5
kaszanka9
109
Bulbulator

Ale z tym tv 55 cali zależy z jakiej odległości grasz, jak ze 3-4m i dalej to nie warto tracić mocy na 4k, bo i tak ledwo co się zauważy.
A piszę o tym, bo też wolę większy ekran do grania, już nigdy nie wrócę do małego monitora, różnica w odbiorze gier jest zauważalne na plus tylko to działa najlepiej tak do 2m, i też jestem zwolennikiem ultra wide, które można po prostu wymusić, na 55 calach to będzie i tak chyba więcej cali niż największe dedykowane monitory 21:9, a do tego przy 21:9 zyskuje się około 20% wydajności.
Tu działa też siła przyzwyczajenia, bo grając tylko 4k z bliska potem 1080p wygląda tandetnie, ale po kilku dniach "oczy" wracają do normy.

27.06.2019 12:53
9
odpowiedz
4 odpowiedzi
zanonimizowany1285878
24
Senator

Moja ulubiona rozdzielczość od lat to 1366x768.
Rzadko wskakuje na 1600x900. W wyższych rozdzielczościach jest "za ostro" i oczy mi się męczą. Wolę zdecydowanie dołożyć ilość detali tekstur, szczegółów itp. Kupiłem nieco ponad miesiąc temu GTX 1660 Ti. Myślę, że przy moich niewielkich wymaganiach względem grafiki pogram na tej karcie w wysokich detalach jeszcze długo(procesor Ryzen 5 2400G i 16 GB ram o taktowaniu w tej chwili 2866 MHz) Kompletnie nie rozumiem tej pogoni za hiper ultra bajerami graficznymi :) Oczywiście nic nie mam do tych którzy takie drogie karty kupują. Uważam jedynie, że buduje to nie zbyt zdrowy już konsumpcjonizm :)

27.06.2019 13:10
.:Jj:.
9.1
.:Jj:.
147
    ENNIO MORRICONE    

W wyższych rozdzielczościach jest "za ostro" i oczy mi się męczą.
W jaki sposób bardziej zniekształcony obraz (np. aliasing), mniejsza przestrzeń robocza itd. jest bardziej przyjazna dla użytkownika i zwiększa komfort?

Pierwszy raz w życiu przeczytałem, że niższa rozdzielczość jest mniej męcząca do grania.

27.06.2019 13:20
9.2
zanonimizowany1285878
24
Senator

Nie zniekształcony obraz tylko za ostry :)
Pierwszy raz w życiu przeczytałem, że niższa rozdzielczość jest mniej męcząca do grania. Zawsze musi być ten pierwszy raz ;)
Graj sobie jak chcesz, Ja jestem już za stary :)

27.06.2019 15:20
9.3
zanonimizowany1191507
24
Legend

Wolę zdecydowanie dołożyć ilość detali tekstur, szczegółów itp

Których nawet nie zauważysz przy tak niskiej rozdzielczości.

27.06.2019 15:36
Garruk_Wildspeaker
9.4
Garruk_Wildspeaker
1
Konsul
Image

O wiele bardziej zniszczysz sobie wzrok majaz rozpackany obraz i rozmazane czcionki, spowodowane uzywaniem rozdzielczosci nizszych niz natywna. Na LCDkach obraz w rozdzielczosci nizszej niz natywna wyglada poprostu do dupy.

Natomiast jesli cie bola oczy to poprostu zmniejsz jasnosc/kontrast/gamme do akceptowalnego poziomu (np w moim monitorze to jest ok 20 na 100 - wyzej potrafia oczy lzawic przy patrzeniu na biale tlo - tak swieci) i wylacz wszystkie bajery w stylu superpodswietlen, dynamicznego kontrastu, itp..
Oraz zadbaj o odpowiednie oswietlenie stanowiska z komputerem, nigdy nie graj po ciemku, itd...

1660ti i ryzen5 zeby grac w rozpackanym 1366x768... no lol.

PS. Sprobuj sie pobawic tymi suwakami ale na boga, wlacz natywna rodzielczosc. Krzywde sobie robisz.

post wyedytowany przez Garruk_Wildspeaker 2019-06-27 15:40:28
27.06.2019 13:22
10
odpowiedz
1 odpowiedź
sadler
136
Konsul

Jaka badziewna nazwa, Super heheh. Ciekawy jestem jaki będzie przyrost wydajności, 5 klatek ?

27.06.2019 16:30
XoniC
10.1
1
XoniC
67
Generał

Pewnie coś około 10-15 %.

27.06.2019 16:22
11
odpowiedz
Likfidator
120
Senator

ja na przykład mam te 4k na 55 calowym TV i uwierz mi - jest ogromna różnica między zwykłym full hd, a 4k, a co dopiero 720. W grach również - 2k, a 4k to spory przeskok widoczny gołym okiem.

Wiesz co robi różnicę w TV? Brak natywnej rozdzielczości. 1440p na matrycy 4K wygląda słabo, bo interpolacja rozmywa obraz i co gorsza wyolbrzymia aliasing.

Mając jednak obok siebie ekran 4K i 1440p różnica jest prawie zerowa. Jak zestawisz 4K 60 Hz obok 1440p 144 Hz, to chyba nie muszę mówić na czym gra się lepiej?

Też czasem gram na TV i wiesz co, kilka miesięcy temu kupiłem 75" Samsunga co przyjmuje sygnał 120 Hz. Po podłączeniu PC i odpaleniu Rocket League zaliczyłem opad szczęki większy niż przy HDR, a mam też 1000 nitowy 60" TV z 2016 roku.

W tym momencie wiedziałem, że czas na zmianę monitora. Jeszcze rok temu planowałem upgrade na monitor 4K 60Hz + HDR w głównej maszynie. W drugim kompie stacjonarnym używanym do netu itd. mam monitor 4K od dłuższego czasu. Jednak po zobaczeniu w akcji 120 Hz całkowita zmiana planów.

W między czasie było sporo materiałów m.in. z Linus Tech Tips o tym, że podbijanie rozdzielczości przestaje mieć sens od pewnego poziomu i większy zysk jest z dodatkowej płynności. Kilka dni temu Linus wrzucił materiał z upgrade'u swojego własnego PC. Jakby chciał to mógłby iść 8K, ale wybrał 3440x1440 w 200 Hz.

Oczywiście co kto lubi i jakie gry preferuje. Wysoką płynność najlepiej widać w grach z szybką akcją. W innych grach np. strategiach to 4K może wyglądać lepiej.

Technologie Nvidia potwierdza karty GeForce RTX Super