Forum Gry Hobby Sprzęt Rozmawiamy Archiwum Regulamin

Technologie 8 GB to za mało - czyli dramat współczesnych kart graficznych

24.04.2023 16:15
3
14
odpowiedz
mafioso12
98
Konsul

Dawanie Last of Us jako przykład to jakieś nieporozumienie. Ta gra to techniczy potwór, bo jak wytłumaczyć, że gra u mnie lepiej działa przy ustawieniu wszystkich tekstur na High (a tekstur postaci nawet na Ultra!) i nie ma żadnych problemów mimo, że gra komunikuje, że alokuje sobie prawie 9GB VRAMu (na 3060Ti). Tekstury średnie mają za to wieczny problem i są rozmazane jak gówno + wieczne glicze grafiki. Niektóre ustawienia są też mocno zbugowane i gra na Ultra wygląda gorzej niż na High. To co się odwaliło przy premierze Arkham Knight to przy The Last of Bug był mały pikuś.

Hogwarts Legacy - kolejny przykład technicznego bubla, bo jak wytłumaczyć, że na premierę się nie dało a po kilku patchach gra działa dobrze.

Tyle w temacie.

post wyedytowany przez mafioso12 2023-04-24 16:23:45
25.04.2023 10:12
32
10
odpowiedz
stud3nciq
79
Pretorianin

Przyczyna małej ilości VRAMu u nVidii: kryptościerwo i zachłanność nVidii.

Tytułem wstępu: nVidia miała w planach wersje z 2x większą ilością pamięci. I było to na tym portalu wspominane: https://www.gry-online.pl/hardware/geforce-rtx-3080-20-gb-i-rtx-3070-16-gb-potwierdzone-przez-gigaby/z01e81a
Jakiś czas temu na ebay trafiły w pełni sprawne prototypy 3080 20GB - i wtedy już nikt nie miał wątpliwości, że takie karty to nie tylko "projekt", ale dało się to zrealizować w praktyce.

Jednak potem wybuchł boom na kopanie kryptośmiecia. Cwaniury z nVidii szybko zauważyły, że górnicy biorą karty całymi kontenerami, a przy tym wcale nie trzeba im dużo vRAMu, 8GB według rozpiski ETH powinno wystarczyć do 2026 roku. I tak oto wersje z podwójną pamięcią zostały skasowane. Za to dobrze, aby ten RAM był szybki - dlatego tak się pchali w GDDR6X.

To było bardzo cyniczne posunięcie: wiedzieli, że boom kiedyś się skończy i rynek zaleje masa kart z koparek. Ale ponieważ mają mało VRAMu, szybko przestaną być wystarczające do nowych produkcji i gracze będą musieli kupować nowe generacje.

Błąd w szacunkach polegał na tym, że boom skończył się znacznie szybciej niż zakładano. Tj. zajęłoby to znacznie dłużej, ale ETH w końcu przeszedł na model PoS i uciął kopanie na kartach graficznych. I nVidia została z furą niesprzedanych kart. Albowiem tak szczerzyli mordy na miliardowe zyski, że wykupili moce produkcyjne w fabrykach chipów - i musieli je wykorzystać. Do tego doszedł boom na uczenie maszynowe.

To z powyższych powodów jesteśmy w obecnym miejscu, tj. z nieprawdopodobnie drogimi kartami nowej generacji i magazynami zawalonymi starą serią, która dopiero teraz, po ponad 2,5 roku od swojej premiery zaczyna pomalutku tanieć.

post wyedytowany przez stud3nciq 2023-04-25 10:12:43
24.04.2023 16:22
5
4
odpowiedz
4 odpowiedzi
noobmer
54
Generał

A ja mam tylko 10gb :C

Wystarczy przesunać suwak tekstur poziom nizej. Róznice rzucająco sie na tyle w oczy rzuca sie dopiero na opcjach "średnich"

Poza tym to tylko pokazuje jak olano optymalizacje, na konsolach jest 16gb współdzielonej pamięci i jakoś to działa i wyglada a na PC masz 8GB na same tekstury i za mało. Przykład z RE4 to te tekstury te hight 0,5-8 to już chyba skalowanie sztuka dla sztuki bo różnic strzelam praktycznie nie widać.

CIekawe czy zacznie sie moda na mody z paczkami tekstur ale tym razem nie zwiększające a odchudzajace ale zarazem tak samo dobrymi teksturami.

post wyedytowany przez noobmer 2023-04-24 16:33:01
24.04.2023 16:33
😜
6
4
odpowiedz
1 odpowiedź
zanonimizowany1378531
15
Senator

Ja tam ze swojego RTX2060 jestem super zadowolony. Na razie w to co gram, chula sobie spokojnie w najwyższych możliwych ustawieniach. Gdy będzie trzeba, to zejdę z detalami w dół, uruchomię grę w oknie w rozdzielczosci mniejszej niż natywna i dalej będę cieszył się grami.

24.04.2023 16:49
Rumcykcyk
7
3
odpowiedz
2 odpowiedzi
Rumcykcyk
125
Głębinowiec

Między Ultra, a Wysokimi nie ma większych różnic. Często w grach Ubisotfu bawiłem się suwakami i patrzyłem na obrazku jak zmienia się grafika. Wiele opcji poleciało na średnie/wysokie bo kompletnie nie widziałem różnicy tylko leciutki lifting (o ile to dobre słowo) na korzyść wyższych ustawień.

Cienie można zawsze śmiało wrzucić na średnie i mamy zastrzyk fps, a ich wygląd jest lekko bladszy, na ultra mamy cienie ciemniejsze.

25.04.2023 12:57
cenzura
36
3
odpowiedz
cenzura
50
Pretorianin

Kiedyś umiano w optymalizację...

24.04.2023 16:20
4
2
odpowiedz
1 odpowiedź
lukas291818
8
Legionista

Pamiętam, że kiedyś do badziewnych kart dawali dużo vram, które przy tak słabych kartach nigdy nie dało się wykorzystać i reklamowali to jako grafika 2 giga.

24.04.2023 17:06
pieterkov
👎
8
2
odpowiedz
1 odpowiedź
pieterkov
156
Senator

Używanie gównianie zoptymalizowanych gier jako argumentów jest słabe. Mi tam re 2 i re 3 chodziły bez problemu na 1070 z 8GB. Re 2 to chyba nawet na 970 ogrywałem gdzie realnie szybkiej pamięci było 3GB - i śmigało to w 1080p na high.

Poza tym w większości gier różnica w teksturach extreme vs high jest żadna. Chodzi jedynie o redukcję buforowania - potencjalnie mniejszy stutter. Jeżeli gra jest dobrze zrobiona to nie ma to jednak znaczenia.
Spadek jakości zaczyna się dopiero przy medium, a czasem nawet dopiero low. Czy gracie na high 0.5 czy high 4.0 - zawsze tekstury będą ostre.

Rozdmuchany problem. Nawet 3070 mało której grze zapewni taką wydajność żeby opłacało się odpalać 1440p na extreme.

24.04.2023 18:46
13
2
odpowiedz
2 odpowiedzi
zanonimizowany768165
119
Legend

Dopiero jakiś czas temu wymieniłem starucha GF 650 na GF 1660 z 6GB vRAM i nadal mam w co grać. Na razie lepsze mi nie potrzebna (mam pilniejsze wydatki) i jakoś nie czuję się gorszy mimo, że tutejsza populacja będzie mnie chciała przekonać, że jest inaczej...

24.04.2023 22:26
26
2
odpowiedz
Lukxxx
226
Generał

A to jeszcze nie są gry "next gen", te dopiero zaczną wychodzić w tym roku.

24.04.2023 22:57
Persecuted
27
2
odpowiedz
Persecuted
154
Adeptus Mechanicus

To niestety prawda. Można się czepiać optymalizacji, ale nawet perfekcyjne zarządzanie pamięcią czy odpowiednie strumieniowanie danych wielkich cudów nie zdziała, bo koniec końców tekstura w wysokiej rozdzielczości swoje ważyć musi, nawet pomimo kompresji. To zaś sprawia, że opisane w tekście problemy już niebawem przestaną być incydentalne i staną się o wiele bardziej powszechne, zwłaszcza gdy UE 5.0 wejdzie do masowego użycia i zniknie balast w postaci starych konsol. Nvidia dała ciała, bo sprzedaje ultra drogie GPU, które całkiem niedługo mogą wymagać przycinania ustawień w nowych grach. Normalnie można by machnąć na to ręką, ale nie w sytuacji, gdy wydało się na kartę graficzną np. ponad 5200 tysięcy złotych (tyle trzeba dać chociażby za sensowne modele RTX 4070ti, z 12 GB ram). Ot, skutki braku zdrowej konkurencji.

post wyedytowany przez Persecuted 2023-04-24 22:58:48
25.04.2023 11:55
35
2
odpowiedz
1 odpowiedź
Marv
39
Pretorianin

Moim zdaniem taka 3070 to powinna mieć minmunim 12 GB, skoro 3060 ma wersję 12GB. Nvidia leci typowo biznesowo, to jest wszystko pomyślane tak, żeby wymieniać kartę co 2-3 max lata a nie jak kiedyś co 5. I podobnie, kiedyś jak się nawet wymieniło po tych 2 latach kartę, to skok wydajności był na tyle duży, że czułeś opłacalność zakupu, teraz mamy jakieś 10-15 fps pomiędzy generacjami. Potem się dziwią że rynek PC przynosi straty. Lata temu grano głównie na PC i konsolach, teraz dużo konsumentów im odpłynęło przez mobile, więc próbują sobie to zrekompensować. Wypuszczają generację za generacją okrajając jak najbardziej się da w stosunku

spoiler start

cena/wkurw graczy

spoiler stop

i tak to leci. Jako posiadacz 3070 8GB na razie problemów z ilośćią Vramu nie zauważyłem, ale przy tempie wzrostu wymagań gier, za chwilę będę w minimalnych na mid-endowej karcie z poprzedniej generacji, która swoje kosztowała, trochę słabo.

post wyedytowany przez Marv 2023-04-25 12:02:38
30.04.2023 12:01
mastarops
41
2
odpowiedz
mastarops
145
Generał

Trochę żenada. Nie mogę się doczekać premiery 4060 z 8 GB gdzie się okaże że czasami z 3060 12 GB będzie przegrywać :D

Nie powiem, nawet zastanawiałem się nad porządnym PC ale przy takich przemierach to szkoda nerwów.

24.04.2023 19:47
Herr Pietrus
😂
18
1
odpowiedz
Herr Pietrus
231
Jestę Grifterę

Raczej dramat gamedevu na odp... I interesy producentów GPU. Może by jeszcze jakieś nowe coiny podpompować, bo ponoć 4070 nie schodzi... (ale czy na pewno?)

post wyedytowany przez Herr Pietrus 2023-04-24 19:50:17
24.04.2023 21:54
Sid67
😐
25
1
odpowiedz
Sid67
237
Generał

Dramat to jest trochę testów i testerów (może niektórych graczy też) jak wszystko zawsze na "ultra" musi być. Kiedyś często w grach były opcje, które "zabijały" praktycznie każdą kartę i logiczne było, że niektóre opcje przeznaczone są dla absolutnie topowych (a czasem "przyszłych") kart - a obecnie testuje się na "ultra" karty ze średniej półki - i szok, że trafiają się wąskie gardła w niektórych obszarach.

25.04.2023 06:08
keeper_4chan
28
1
odpowiedz
keeper_4chan
104
Generał

Za dużo rzeczy od jakiegoś czasu jest zwalane na barki VRAM.
Do tego jeszcze sporo danych dubluje się z zwykłym RAM.

Konsole kiedyś miały to ciekawie zoptymalizowane, bo nie dublowało się tyle informacji po kościach RAM.

post wyedytowany przez keeper_4chan 2023-04-25 06:09:55
27.04.2023 13:45
40
1
odpowiedz
1 odpowiedź
Sev125
53
Centurion

Mogliście się chociaż trochę postarać a tak mamy bezpośrednią kopie materiału hardware unboxed z wczoraj trochę słabo a na dodatek nawet screen z wyników testów jest skopiowany bezpośrednio od nich

02.06.2023 09:02
42
1
odpowiedz
Sunkrest0
18
Chorąży

Naprawdę mnie wkurza obecny rynek. Nawet gdy wydam absurdalne 4 tysiące na GPU to i tak godzić się muszę na bardzo duże ustępstwa których po prostu nie powinno być w tym przedziale cenowym. Widzę idąc cenowo niżej wcale nie jest lepiej.

post wyedytowany przez Sunkrest0 2023-06-02 09:06:52
02.06.2023 09:19
mirko81
😉
43
1
odpowiedz
mirko81
76
Slow Gaming

Dobry moment na zapowiedzenie kart 4160/4170 z 16 GB vram

24.04.2023 17:36
11
odpowiedz
3 odpowiedzi
lis22
86
Generał

Ech, pamiętam jak w okresie 2011 - 2013 miałem GTX 570 z 1GB VRAM i to było wtedy za mało do zmodowanego Skyrima ;)

24.04.2023 19:14
15
odpowiedz
toyminator
86
Senator

Zależy kto w jaką rozdzielczość gra, W FHD to nie problem. Nie gram, i nie będę raczej nigdy grać na QHD i wyżej. No dobra, na QHD pewnie kiedyś tak.
Ogólnie z zasady najpierw schodzę na średnie detale, a potem na 30 klatek ale znowu wysokie. Nie schodzę na średnie i 30 FPS albo na niskie wcale. Unity był dla mnie wyjątkiem, i grało się źle. O ile sama grafika jako tako na niskich da się grać, ale tekstury są obrzydliwe.

24.04.2023 19:38
17
odpowiedz
1 odpowiedź
Twoja stara 1993
56
Generał

I tak się zastało wszystko wystarczy zobaczyć wstecz lata 2001-2011 z 32Mb do 2GB vram to ogromny przeskok graficzny a przyrost co praktycznie 2 lata.
W latach 2012- 2022 praktycznie z 2Gb wzrosło zaledwie do 8Gb w wymaganiach.
Widać też było że rewolucji graficznych nie było tak dużych.

Na dzisiejsze czasy jeśli ktoś che kartę na 3-4 lata to bym kupował raczej 16Gb vram
Nie tak dawno pisałem że zamierzam kupić RX6700Xt ale ten ma 12Gb i raczej kupię 6800 z 16GB raczej i tak NVIDIA w tej cenie nie ma nic z 16Gb

Jednak NVIDIA nieźle wrobiła w kona posiadaczy RTX3070 to świetne karty mogły by się jeszcze nadawać z 2-3 lata na Ultra jednak 8Gb Vram to nieporozumienie.

post wyedytowany przez Twoja stara 1993 2023-04-24 19:42:57
24.04.2023 19:50
19
odpowiedz
user34094678df
3
Junior

Ort.: "Karze to sądzić".

24.04.2023 20:12
20
odpowiedz
screef
26
Legionista
24.04.2023 20:57
Link
😂
23
odpowiedz
2 odpowiedzi
Link
24
Senator

RTX 3060 – 8/12 GB
RTX 3060 Ti – 8 GB
RTX 3070 – 8 GB
RTX 3070 Ti – 8 GB
RTX 3080 – 10/12 GB

NVIDIA dają VRAM w takiej ilości GB dla karty z wyższej półki, kiedy na sklepowej półce są dostępne karty RTX 3060, co mają aż 12 GB VRAM (taki jak mój) do wyboru. Po prostu EPIC FAIL. Lol!

Nie ma jak zrobić biedne graczy w konia, co nie znają się na rzeczy i wyciągnąć od nich jak najwięcej pieniędzy.

24.04.2023 21:08
Last_Redemption
😉
24
odpowiedz
1 odpowiedź
Last_Redemption
53
Senator

Może AMD to przewidziało (konsole są na ich podzespołach) i dlatego daje więcej vramu

25.04.2023 08:04
29
odpowiedz
1 odpowiedź
zanonimizowany475387
122
Konsul

A ja celowo ustawiam na średnie, może to kogoś zdziwi ale dla mnie ustawienia wysokie czy ultra są po prostu za ,,ostre,, i czuje dyskomfort gdy muszę się przyglądać tylu detalom i wyszukiwać czegoś wzrokiem na monitorze.

post wyedytowany przez zanonimizowany475387 2023-04-25 08:05:26
25.04.2023 10:57
Illuminackiretpalianinnajezdzcazdalekiegokosmosu
😐
33
odpowiedz
3 odpowiedzi
Illuminackiretpalianinnajezdzcazdalekiegokosmosu
64
Generał

Do 1080p też już za mało?

25.04.2023 11:44
DrAmok
34
odpowiedz
2 odpowiedzi
DrAmok
53
Chorąży

Zmieniłem kilka dni temu rtxa 3070 na RX 7900 xt i teraz widzę ile gry potrafią targać vramu. Taki tlou potrafi ponad 14gb wciągnąć . Szczerze powiem że każda nowa gra przekracza 12gb więc optymalnie jest teraz kupić kartę z 16gb vram. Nawet Apex legenda którego cisnę od lat przy ustawieniach ULTRA pobiera prawie 9gb .

25.04.2023 17:01
37
odpowiedz
FSB znowu nadaje
32
Konsul

A w tym samym momencie 32 GB ramu stoi puste.
Problemem nie są karty graficzne tylko marne porty z konsol i ich architektura która nadal oparta jest na współdzielonej pamięci operacyjnej.
Najpierw robi się wersje konsolową, a potem marny pecetowy port który nie korzysta z ramu tylko wszystko ma być wrzucone do vramu.
To chyba logiczne że tak to nie będzie działać.

25.04.2023 21:01
38
odpowiedz
Bonaducci
25
Chorąży

Niestety taktyka zielonych działa. Sam od 7 lat używałem Strix 1070, która całkiem ładnie się kręciła i jest bardzo chłodna. Od 7 lat miałem 8GB VRAM, a wydajnościowo 1070 po OC (lub najbardziej bazowe 1070 Ti) wypada jak podstawowy model 3060 8GB. Co prawda 3070 i 3070 Ti są wyraźnie mocniejsze i mają szerszą szynę pamięci od 3060, ale kto widział po 7 latach wywalać tyle kasy na kartę z tą samą ilością VRAM? To jest jakaś kpina. Niestety dziala, bo większość zmieniających sprzęt poszła o 1-2 półki wyżej aby mieć te 12GB, albo kupili coś, co już ich zaczyna ograniczać nawet w nienajwyzszej rozdzielczości.

18.07.2023 21:24
😡
44
odpowiedz
eliotroman
48
Centurion

Nie opowiadajcie bzdur bo 8Gb Vram do grania w 1080p wystarcza i wystarczy w 2023, 2024 i jeszcze w 2025roku. To jest nakręcanie zysków firmą przez takie strony jak wasza, i wy robicie to świadomie. Mam gdzieś jakieś pojedyncze zwalone gry, które i tak mnie nie interesują, a jak bym chciał zagrać to zagram bez problemu obniżając jakoś tekstur. CoD WARZONE 2.0 w opcjach graficznych ma taką fajną funkcję która pokazuje zużycie Vram w zależności od poziomu jakości tekstur. Są 4 poziomy jakości tekstu, bardzo niski zużywa 1.9Gb, niski 2.2Gb, normalny 3Gb, wysoki 4.5Gb. Ja gram na niskim nie ze względu na to że nie mogę na wysokim tylko nie chcę bo wolę mieć więcej klatek po prostu. Różnica między wysokimi teksturami a niskimi realnie w wyglądzie owych jest nie wielka za to w zużyciu Vram ogromna, a znam wiele przykładów gier gdzie te różnice są jeszcze większe, tak większe w zużyciu Vram a mniejsze w jakości i wyglądzie tekstur. To pokazuje jaką takie artykuły robią ludziom sieczkę z mózgu, obłęd. Od marca 2019 do maja 2023 miałem RTX 2060 z 6Gb Vram i nie brakło mi go nigdy i nigdzie, i miałbym go dalej, gdyby nie kolega który uraczył mnie propozycją nie do odrzucenia proponując RTX 3070 w cenie 700 zł, na OLX w tym czasie najtańsze były po 1500zł. Tak że nie czytajcie tych bzdur bo prawie 66% ludzi, według danych STEAMa dalej gra w 1080p a z 10-12% w jeszcze niższych, tak, w jeszcze niższych a nie wyższych rozdzielczościach, i bez problemu, nawet taki RTX 2060 z 6Gb Vram do obecnej generacji gier w zupełności wam wystarczy, zapewniając wam płynną rozgrywkę jak nie w ultra to w wysokich ustawieniach tak tekstur jak i ogóle wszystkiego innego. RTX 2060 i te 6Gb Vram przy może czasem konieczności obniżeniu tekstur o jedno oczko w dół wystarczy wam na 2-3 lata lekko. Ten co pisał ten artykuł jest pewnie sponsorowany przez firmy które by chciały żebyśmy wydawali grube tysiące złotych na ich nowe karty.

post wyedytowany przez eliotroman 2023-07-18 21:26:55
24.04.2023 17:11
9
odpowiedz
1 odpowiedź
endar14
11
Legionista

Statystyki pokazują że gracze bardzo kochają Nvidię. Sukces serii 3000 i 4000 wynika chyba głównie z tego że gracze uwierzyli że są to świetne karty do grania ze śledzeniem promieni. Większość posiadaczy kart serii 3000 ma pewnie 10 GB lub mniej pamięci VRAM - w tym przypadku karta zielonych do grania z raytracingiem jest równie dobra co Radeony. Przynajmniej tak można sądzić o grach AAA które dopiero będą wychodzić.

24.04.2023 17:11
10
odpowiedz
1 odpowiedź
MisQ95
9
Legionista

Na początku roku składałem komputer. Dobrze, że wziąłem RTX 3060 12 GB, a nie wersje 8 GB.

24.04.2023 18:33
12
odpowiedz
zanonimizowany1245771
54
Konsul

To jest kopia z innego watku ale z przyjemnoscia to wkleje i tutaj.

Te karty maja za malo vramu na obecne standardy jesli wezmie sie pod uwage ile to ciagnie na high / ultra w nowszych grach. Przy podkrecaniu texture quality w re4 re to potrafi ciagnac i 10gb w wymagajacych momentach z rt on i to na karcie z high endu pokroju 3080 z 12gb. Jakbym chcial podwyzszyc jeszcze bardziej to i te 12gb nie wystarczylo by na te same 1080p. Wiec uwazam ze ta ilosc vramu w nowych kartach jest za mala!. Rtx 4050 powinien mieć 10gb, 4050ti 12gb, 4060 16gb, 4060ti 20gb , 4070 24gb, 4070ti 28gb, 4080 32gb, 4090 48gb. Te 16gb w nowym 4080 nie starczy badz starczy ledwo na suwaki mocno w prawo w 4k a tego sie oczekuje po nowych produktach ze do kolejnej generacji bedą mogly bez problemu posłużyć, a się okazuje low-mid-high tier może nie wystarczyć nawet na gry w 1080p. Pierdol się Nvidia za skąpstwo z vramem bo po co dobry rdzeń jeśli nie będziesz miał szansy wykorzystać w pełni jego potencjału.

post wyedytowany przez zanonimizowany1245771 2023-04-24 18:35:45
24.04.2023 18:49
Lolek4312
😉
14
odpowiedz
Lolek4312
0
Pretorianin

Moim zdaniem 8gb vram dzisiaj to mało. Sam mam rx6600 z taką ilością pamięci i jest ok ale nie gram tak często na pc, więc tester ze mnie żaden. Ciekawa sytuacja, bo pamiętam, że już w 2015r wychodziły karty z 4gb vram, a to było 8 lat temu a gry co by nie mówić przez te lata podskoczyły graficznie a tekstury coraz bardziej żrą pamięć. W 2023r minimum to karta z 12gb vram i kropka.

24.04.2023 19:33
16
odpowiedz
1 odpowiedź
Znubionek
55
Generał

Master4
Znacząco rozmywa to T(X)AA, przez co nie da się często normalnie patrzeć na to co jest w grze. Praktycznie każda nowa większa gra ma to włączone na najwyższych ustawieniach.
Zmniejszenie rozdzielczości to mały pikuś i problem schodkowanych krawędzi można sobie w pewien sposób poprawić przez MSAA w ustawieniach karty graficznej (jeżeli nie ma w grze).

co ty za glupoty piszesz? jak zmniejszysz rozdzielczosc to bedziesz mial tragiczny obraz, rozmyje ci nawet interfejs. chyba ze masz jakis internal resolution slider w grze ale to pewnie wykorzystuje TAA i tak. nowe gry maja lepiej zaimplementowany TAA i juz nie jest tak rozmazane, no i masz tez dostepna najlepsza forme TAA czyli DLSS. a jak nie uzywasz zadnego rodzaju TAA we wspolczesnych grach to masz masakryczny aliasing, wrecz obraz nie nadaje sie do niczego.

forcowanie MSAA w sterowniku dziala tylko w bardzo starych grach, w nowych nic nie robi. takze pewnie sobie aplikujesz placebo i do tego je tu chwalisz jakie jest fajne wprowadzajac innych w blad, lol. no coz, nie spodziewam sie niczego wiecej po typowym uzytkowniku gola.

post wyedytowany przez Znubionek 2023-04-24 19:35:05
24.04.2023 20:50
21
odpowiedz
Cubi__
95
Pretorianin

Wy tak serio ??? Przecież już jest jedna sieciówka co przy FHD wymaga ponad 14GB VRAM'u ! Ile trzeba w 2023 roku ? No 16GB to jak kupujesz na dłuższy okres, a 12 jak na parę miesięcy i tyle w temacie.

24.04.2023 20:56
kęsik
😐
22
odpowiedz
kęsik
161
Legend

Zarówno Hogwart jak i RE4 działają całkiem spoko na 4GB VRamu wiec nie wiem o co chodzi. Dramat współczesnych kart graficznych, chyba bardziej nieudolności deweloperów.

25.04.2023 08:52
30
odpowiedz
Jaya
68
Generał

Gry nie mogą mieć więcej tekstur wepchniętych do ramu, zagłębień/szpar w nich, nie może być zbyt wielu wierzchołków. Wtedy nic nie pójdzie po myśli Nvidii bo RT On szlak trafi nawet na 9090ti.

Stąd może nie pchają zbyt dużo ramu - bo "muszą gracze używać RT On kiedyś", ale kto wie, o co może chodzić. Raczej o proporcje tranzystorów do pamięci trzeba dobrze trzymać. Niezbyt można stawiać jeszcze na statyczno-dynamiczne rozwiązania.

Wolałbym zobaczyć alternatywę w nowych grach - dystans renderu/cieni zwiększony za tą samą wydajność vs RT On w grach, albo wyłączone pory dnia i całkiem statyczne światło, ewentualnie ruchome cienie liści (zazwyczaj naturalne cienie liści to też utrapienie dla RT On)

DLSS też wspomaga raczej redukcję potrzebnej pamięci i stawia bardziej na procesor. Dużo zależy od gameengine czy jest w stanie dynamicznie dobierać np. odległość cieni względem fps i tego co się dzieje na ekranie. SSD szybkie dużo nadrabiają braki w ramie, jeśli gameengine dobrze radzi sobie z Level Of Detail.

post wyedytowany przez Jaya 2023-04-25 08:55:53
25.04.2023 09:59
😃
31
odpowiedz
1 odpowiedź
abraham11
50
Pretorianin

Jeszcze chwila i osoby zachłanne które chcą wszystkiego co najlepsze z gier mając przy okazji by była najlepsza płynność z minimum 60kl bo mają np za dużo w swoim życiu i nie zagrają np na
40 kl lub z mniejszą ilością ustawień.

Bedą może musieli zacząć wehikuł czasu budować by przenieść się np o 25 lat w przód i złożyć sobie tam sprzęt a potem wrócić do naszych czasów.

No chyba że przeniosą się na konsolę i tam co najwyżej będzie takiej osobie przeszkadzać jeśli jakaś gra będzie miała np tylko do 30-35 kl.

26.04.2023 19:51
39
odpowiedz
freedomatic
25
Legionista

oj widze, że sprzedaż NVIDII cos slabo leci ,żeby sponsorowac takie artykuły..po co,.. ano po tożeby kupowac potworki za $$ z serii 4000

24.04.2023 15:58
1
Master4
60
Pretorianin

"Zmniejszenie rozdzielczości jest, według mnie, ostatecznością – ustawienie niższej rozdziałki niż natywna dla danego monitora znacząco rozmyje obraz."
Znacząco rozmywa to T(X)AA, przez co nie da się często normalnie patrzeć na to co jest w grze. Praktycznie każda nowa większa gra ma to włączone na najwyższych ustawieniach.
Zmniejszenie rozdzielczości to mały pikuś i problem schodkowanych krawędzi można sobie w pewien sposób poprawić przez MSAA w ustawieniach karty graficznej (jeżeli nie ma w grze).

24.04.2023 16:05
prawdziwy
2
odpowiedz
prawdziwy
26
Pretorianin

Nvidia 4060 > nowe gry AAA fullhd ustawienia normal 60+ klatek
Trochę starsze gry AAA oraz reszta fullhd ultra/wysokie ustawienia 60+ klatek lub 1440p 40/60+ klatek zależności od gry.

Nvidia 4070 Nvidia informuje, że jest to karta do 1440p wiec jest ok, nawet przy niższych ustawieniach, bo gry i tak dobrze wyglądają, nawet na normalnych ustawieniach.

4080/4090 > 4k ustawienia wszelakie :)

Poza ceną to jest ok i nie widzę tutaj problemu poza graczami, którzy sami sobie problemy szukają.

Technologie 8 GB to za mało - czyli dramat współczesnych kart graficznych