Forum Gry Hobby Sprzęt Rozmawiamy Archiwum Regulamin

Technologie 8 GB to za mało - czyli dramat współczesnych kart graficznych

24.04.2023 16:15
3
14
odpowiedz
mafioso12
98
Konsul

Dawanie Last of Us jako przykład to jakieś nieporozumienie. Ta gra to techniczy potwór, bo jak wytłumaczyć, że gra u mnie lepiej działa przy ustawieniu wszystkich tekstur na High (a tekstur postaci nawet na Ultra!) i nie ma żadnych problemów mimo, że gra komunikuje, że alokuje sobie prawie 9GB VRAMu (na 3060Ti). Tekstury średnie mają za to wieczny problem i są rozmazane jak gówno + wieczne glicze grafiki. Niektóre ustawienia są też mocno zbugowane i gra na Ultra wygląda gorzej niż na High. To co się odwaliło przy premierze Arkham Knight to przy The Last of Bug był mały pikuś.

Hogwarts Legacy - kolejny przykład technicznego bubla, bo jak wytłumaczyć, że na premierę się nie dało a po kilku patchach gra działa dobrze.

Tyle w temacie.

post wyedytowany przez mafioso12 2023-04-24 16:23:45
25.04.2023 10:12
32
10
odpowiedz
stud3nciq
79
Pretorianin

Przyczyna małej ilości VRAMu u nVidii: kryptościerwo i zachłanność nVidii.

Tytułem wstępu: nVidia miała w planach wersje z 2x większą ilością pamięci. I było to na tym portalu wspominane: https://www.gry-online.pl/hardware/geforce-rtx-3080-20-gb-i-rtx-3070-16-gb-potwierdzone-przez-gigaby/z01e81a
Jakiś czas temu na ebay trafiły w pełni sprawne prototypy 3080 20GB - i wtedy już nikt nie miał wątpliwości, że takie karty to nie tylko "projekt", ale dało się to zrealizować w praktyce.

Jednak potem wybuchł boom na kopanie kryptośmiecia. Cwaniury z nVidii szybko zauważyły, że górnicy biorą karty całymi kontenerami, a przy tym wcale nie trzeba im dużo vRAMu, 8GB według rozpiski ETH powinno wystarczyć do 2026 roku. I tak oto wersje z podwójną pamięcią zostały skasowane. Za to dobrze, aby ten RAM był szybki - dlatego tak się pchali w GDDR6X.

To było bardzo cyniczne posunięcie: wiedzieli, że boom kiedyś się skończy i rynek zaleje masa kart z koparek. Ale ponieważ mają mało VRAMu, szybko przestaną być wystarczające do nowych produkcji i gracze będą musieli kupować nowe generacje.

Błąd w szacunkach polegał na tym, że boom skończył się znacznie szybciej niż zakładano. Tj. zajęłoby to znacznie dłużej, ale ETH w końcu przeszedł na model PoS i uciął kopanie na kartach graficznych. I nVidia została z furą niesprzedanych kart. Albowiem tak szczerzyli mordy na miliardowe zyski, że wykupili moce produkcyjne w fabrykach chipów - i musieli je wykorzystać. Do tego doszedł boom na uczenie maszynowe.

To z powyższych powodów jesteśmy w obecnym miejscu, tj. z nieprawdopodobnie drogimi kartami nowej generacji i magazynami zawalonymi starą serią, która dopiero teraz, po ponad 2,5 roku od swojej premiery zaczyna pomalutku tanieć.

post wyedytowany przez stud3nciq 2023-04-25 10:12:43
24.04.2023 15:58
1
Master4
60
Pretorianin

"Zmniejszenie rozdzielczości jest, według mnie, ostatecznością – ustawienie niższej rozdziałki niż natywna dla danego monitora znacząco rozmyje obraz."
Znacząco rozmywa to T(X)AA, przez co nie da się często normalnie patrzeć na to co jest w grze. Praktycznie każda nowa większa gra ma to włączone na najwyższych ustawieniach.
Zmniejszenie rozdzielczości to mały pikuś i problem schodkowanych krawędzi można sobie w pewien sposób poprawić przez MSAA w ustawieniach karty graficznej (jeżeli nie ma w grze).

24.04.2023 16:05
prawdziwy
2
odpowiedz
prawdziwy
26
Pretorianin

Nvidia 4060 > nowe gry AAA fullhd ustawienia normal 60+ klatek
Trochę starsze gry AAA oraz reszta fullhd ultra/wysokie ustawienia 60+ klatek lub 1440p 40/60+ klatek zależności od gry.

Nvidia 4070 Nvidia informuje, że jest to karta do 1440p wiec jest ok, nawet przy niższych ustawieniach, bo gry i tak dobrze wyglądają, nawet na normalnych ustawieniach.

4080/4090 > 4k ustawienia wszelakie :)

Poza ceną to jest ok i nie widzę tutaj problemu poza graczami, którzy sami sobie problemy szukają.

24.04.2023 16:15
3
14
odpowiedz
mafioso12
98
Konsul

Dawanie Last of Us jako przykład to jakieś nieporozumienie. Ta gra to techniczy potwór, bo jak wytłumaczyć, że gra u mnie lepiej działa przy ustawieniu wszystkich tekstur na High (a tekstur postaci nawet na Ultra!) i nie ma żadnych problemów mimo, że gra komunikuje, że alokuje sobie prawie 9GB VRAMu (na 3060Ti). Tekstury średnie mają za to wieczny problem i są rozmazane jak gówno + wieczne glicze grafiki. Niektóre ustawienia są też mocno zbugowane i gra na Ultra wygląda gorzej niż na High. To co się odwaliło przy premierze Arkham Knight to przy The Last of Bug był mały pikuś.

Hogwarts Legacy - kolejny przykład technicznego bubla, bo jak wytłumaczyć, że na premierę się nie dało a po kilku patchach gra działa dobrze.

Tyle w temacie.

post wyedytowany przez mafioso12 2023-04-24 16:23:45
24.04.2023 16:20
4
2
odpowiedz
1 odpowiedź
lukas291818
8
Legionista

Pamiętam, że kiedyś do badziewnych kart dawali dużo vram, które przy tak słabych kartach nigdy nie dało się wykorzystać i reklamowali to jako grafika 2 giga.

24.04.2023 16:49
BartekTenMagik
4.1
2
BartekTenMagik
78
Opiekun Przestrzeni

Zawsze mam wewnętrzny wybuch jak słyszę, że łoooo, karta ma 4GB to jest dobra do gier i w ogóle mocna karta.
O czym mowa? O GT710 4GB O_O

24.04.2023 16:22
5
4
odpowiedz
4 odpowiedzi
noobmer
54
Generał

A ja mam tylko 10gb :C

Wystarczy przesunać suwak tekstur poziom nizej. Róznice rzucająco sie na tyle w oczy rzuca sie dopiero na opcjach "średnich"

Poza tym to tylko pokazuje jak olano optymalizacje, na konsolach jest 16gb współdzielonej pamięci i jakoś to działa i wyglada a na PC masz 8GB na same tekstury i za mało. Przykład z RE4 to te tekstury te hight 0,5-8 to już chyba skalowanie sztuka dla sztuki bo różnic strzelam praktycznie nie widać.

CIekawe czy zacznie sie moda na mody z paczkami tekstur ale tym razem nie zwiększające a odchudzajace ale zarazem tak samo dobrymi teksturami.

post wyedytowany przez noobmer 2023-04-24 16:33:01
24.04.2023 17:08
pieterkov
5.1
pieterkov
156
Senator

Dokładnie tak. Ale trzeba się czepić nvidii bo teraz taka moda - na wskakiwanie na rowerki modnych gównoburz.

24.04.2023 19:17
5.2
Znubionek
55
Generał
Image

noobmer
Poza tym to tylko pokazuje jak olano optymalizacje, na konsolach jest 16gb współdzielonej pamięci i jakoś to działa i wyglada a na PC masz 8GB na same tekstury i za mało.
no i nie pomyslales ze te 16 gb to wiecej niz 8 gb? brawo. no i konsole moga miec gorsze tekstury i inne ustawienia. zobacz pic rel.
Przykład z RE4 to te tekstury te hight 0,5-8 to już chyba skalowanie sztuka dla sztuki bo różnic strzelam praktycznie nie widać.
z tego co kojarze to w poprzednich residentach jak ustawiles wyzszy budzet vramu dla tekstur to miales mniej pop-inu tekstur, wiec to calkiem fajnie ze dali taka opcje.

post wyedytowany przez Znubionek 2023-04-24 19:19:37
24.04.2023 19:37
5.3
1
noobmer
54
Generał

Znubionek To ty chyba nie pomyślałeś, w konsolach masz 16gb współdzielonej wiec trzeba w te 16gb wrzucić OS, tekstury i te dane co sie trzyma w ramie a na PC na same tekstury masz zaleznei od karty 8-16 + zazwyczaj 16gb ramu czyli już w porównaniu do konsol ma sie te 24gb ramu w góre

post wyedytowany przez noobmer 2023-04-24 19:37:39
25.04.2023 01:12
5.4
Znubionek
55
Generał
Wideo

noobmer
No nie znasz się. Doinformuj się najpierw https://youtu.be/Isn4eLTi8lQ w skrócie 1:08:37 - 1:08:55

24.04.2023 16:33
😜
6
4
odpowiedz
1 odpowiedź
zanonimizowany1378531
15
Senator

Ja tam ze swojego RTX2060 jestem super zadowolony. Na razie w to co gram, chula sobie spokojnie w najwyższych możliwych ustawieniach. Gdy będzie trzeba, to zejdę z detalami w dół, uruchomię grę w oknie w rozdzielczosci mniejszej niż natywna i dalej będę cieszył się grami.

24.04.2023 17:39
6.1
lis22
86
Generał

No nie wiem ... RTX 2080 TI i w 1440p z DLSS na "jakość' i z włączonym RT tylko dla odbić mam ok. 20 - 30 fps w Hogwarts Legacy, dlatego przesiadam się na RTX 4080, min. dla frame generation.

24.04.2023 16:49
Rumcykcyk
7
3
odpowiedz
2 odpowiedzi
Rumcykcyk
125
Głębinowiec

Między Ultra, a Wysokimi nie ma większych różnic. Często w grach Ubisotfu bawiłem się suwakami i patrzyłem na obrazku jak zmienia się grafika. Wiele opcji poleciało na średnie/wysokie bo kompletnie nie widziałem różnicy tylko leciutki lifting (o ile to dobre słowo) na korzyść wyższych ustawień.

Cienie można zawsze śmiało wrzucić na średnie i mamy zastrzyk fps, a ich wygląd jest lekko bladszy, na ultra mamy cienie ciemniejsze.

24.04.2023 19:20
7.1
toyminator
86
Senator

Praktycznie między Wysokimi a ultra nie ma wcale. Widać ją w cieniach i oświetleniu. Ale w teksturach to by się trzeba mocno przyjrzeć. A w cieniach i oświetleniu widać, bo na ultra dodatkowo jakaś technologia jest, która jest zbyteczna. Zawsze tak było, że Ultra to grafika która będzie na wysokich za x lat. Ale ogólnie ultra to sztuka dla sztuki. Między średnimi a wysokimi też nie ma aż takich różnic, ale pomiędzy średnimi a ultra jednak tak ;D Takie to dziwne. Ale na samych średnich gra i tak wygląda bardzo ładnie. Niskie też tragicznie nie wyglądają, ale to jednak mniejsza przyjemność z grania. Ogólnie tylko tekstury, światło i cienie robią robotę.

24.04.2023 22:56
7.2
1
dev1anceONE
36
Pretorianin

Rumcykcyk toyminator No co do tekstur to nie w każdej grze to się sprawdza, patrzcie RDR2, gdzie jednak między High a Ultra jest spora różnica w ich jakości

24.04.2023 17:06
pieterkov
👎
8
2
odpowiedz
1 odpowiedź
pieterkov
156
Senator

Używanie gównianie zoptymalizowanych gier jako argumentów jest słabe. Mi tam re 2 i re 3 chodziły bez problemu na 1070 z 8GB. Re 2 to chyba nawet na 970 ogrywałem gdzie realnie szybkiej pamięci było 3GB - i śmigało to w 1080p na high.

Poza tym w większości gier różnica w teksturach extreme vs high jest żadna. Chodzi jedynie o redukcję buforowania - potencjalnie mniejszy stutter. Jeżeli gra jest dobrze zrobiona to nie ma to jednak znaczenia.
Spadek jakości zaczyna się dopiero przy medium, a czasem nawet dopiero low. Czy gracie na high 0.5 czy high 4.0 - zawsze tekstury będą ostre.

Rozdmuchany problem. Nawet 3070 mało której grze zapewni taką wydajność żeby opłacało się odpalać 1440p na extreme.

19.07.2023 18:27
👍
8.1
eliotroman
48
Centurion

Dokładnie w 100% się z tobą zgadzam. Do obecnej generacji gier spokojnie RTX 2060 wystarczy z 6Gb Vram, i 100 razy wolałbym tego wydajnego RTX od jakichś badziewnych kart z 8Gb Vramu. Do tego ja do niedawno miałem tego RTX 2060 i karta ogień, a dokładnie tak jak mówisz, jak by ci gdzieś brakowało Vramu, mi nie brakowało nigdzie, to o oczko w dół tekstury i dalej jazda, różnica w jakości obrazu żadna a zwalnia ci się od razu 1Gb-2Gb Vramu. Teraz mam 3070 i 8Gb Vramu i ta karta mi na 2-3 lata lekko starczy. Zresztą ja mam 5000 godzin w BFV a tam mam 200 klatek i zamykam licznik, ja gram i tak tylko praktycznie w dwie gry, w BFV i w WARZONE 2.0

24.04.2023 17:11
9
odpowiedz
1 odpowiedź
endar14
11
Legionista

Statystyki pokazują że gracze bardzo kochają Nvidię. Sukces serii 3000 i 4000 wynika chyba głównie z tego że gracze uwierzyli że są to świetne karty do grania ze śledzeniem promieni. Większość posiadaczy kart serii 3000 ma pewnie 10 GB lub mniej pamięci VRAM - w tym przypadku karta zielonych do grania z raytracingiem jest równie dobra co Radeony. Przynajmniej tak można sądzić o grach AAA które dopiero będą wychodzić.

19.07.2023 18:19
😂
9.1
eliotroman
48
Centurion

Według danych STEAMa z Ankiet dotyczących sprzętu i oprogramowania za lipiec tego roku "tylko" 80% graczy ma 8Gb Vram lub mniej.

24.04.2023 17:11
10
odpowiedz
1 odpowiedź
MisQ95
9
Legionista

Na początku roku składałem komputer. Dobrze, że wziąłem RTX 3060 12 GB, a nie wersje 8 GB.

24.04.2023 18:36
MineBeziX
10.1
MineBeziX
65
Generał

Fakt, bo 8GB wersja jest kupsztalem, nie ze względu na samą ilość VRAMu, a ze względu na szynę pamięci, która sprawia że przy identycznej specyfikacji karta jest jakoś 15% wolniejsza od wersji 12GB.

24.04.2023 17:36
11
odpowiedz
3 odpowiedzi
lis22
86
Generał

Ech, pamiętam jak w okresie 2011 - 2013 miałem GTX 570 z 1GB VRAM i to było wtedy za mało do zmodowanego Skyrima ;)

24.04.2023 18:37
Legion 13
11.1
Legion 13
158
The Black Swordsman

A dzisiaj do mocno zmodowanego Skyrima potrzeba 10GB do 1080p i 12GB do 1440p/4k.

24.04.2023 19:05
😂
11.2
zanonimizowany1310097
33
Senator

Legion 13 ---zależy co masz na myśli pisząc mocno zmodowanego... jak wrąbiesz do Skyrima tekstury 4K bądź 8K to i RTX 4090 będzie się dusić... Ja na swoim RTX 3070 + 200modów i tekstury pod 2K- i wyłączam synchronizacje pionową to mam 400fps w 1440p :p

post wyedytowany przez zanonimizowany1310097 2023-04-24 19:06:58
25.04.2023 07:43
11.3
CzyCieBoli
26
Konsul

|A dzisiaj do mocno zmodowanego Skyrima potrzeba 10GB do 1080p i 12GB do 1440p/4k.

No ale to chyba normalne? modujesz to wiesz co wrzucasz, to chyba ciezko się spodziewać by wymagania nie skakały jak ładujesz nie wiadomo jak cięzkie tekstury..

24.04.2023 18:33
12
odpowiedz
zanonimizowany1245771
54
Konsul

To jest kopia z innego watku ale z przyjemnoscia to wkleje i tutaj.

Te karty maja za malo vramu na obecne standardy jesli wezmie sie pod uwage ile to ciagnie na high / ultra w nowszych grach. Przy podkrecaniu texture quality w re4 re to potrafi ciagnac i 10gb w wymagajacych momentach z rt on i to na karcie z high endu pokroju 3080 z 12gb. Jakbym chcial podwyzszyc jeszcze bardziej to i te 12gb nie wystarczylo by na te same 1080p. Wiec uwazam ze ta ilosc vramu w nowych kartach jest za mala!. Rtx 4050 powinien mieć 10gb, 4050ti 12gb, 4060 16gb, 4060ti 20gb , 4070 24gb, 4070ti 28gb, 4080 32gb, 4090 48gb. Te 16gb w nowym 4080 nie starczy badz starczy ledwo na suwaki mocno w prawo w 4k a tego sie oczekuje po nowych produktach ze do kolejnej generacji bedą mogly bez problemu posłużyć, a się okazuje low-mid-high tier może nie wystarczyć nawet na gry w 1080p. Pierdol się Nvidia za skąpstwo z vramem bo po co dobry rdzeń jeśli nie będziesz miał szansy wykorzystać w pełni jego potencjału.

post wyedytowany przez zanonimizowany1245771 2023-04-24 18:35:45
24.04.2023 18:46
13
2
odpowiedz
2 odpowiedzi
zanonimizowany768165
119
Legend

Dopiero jakiś czas temu wymieniłem starucha GF 650 na GF 1660 z 6GB vRAM i nadal mam w co grać. Na razie lepsze mi nie potrzebna (mam pilniejsze wydatki) i jakoś nie czuję się gorszy mimo, że tutejsza populacja będzie mnie chciała przekonać, że jest inaczej...

25.04.2023 07:40
13.1
CzyCieBoli
26
Konsul

Się rzucili z przekonywaniem co? XD
W dupie mam jaką masz kartę XD dlaczego ktoś ma cię do czegoś przekonywać? I co nam z Twoich wydatków innych? Każdy bierze kartę taką jaką chce/może. Koniec kropka ;d To czy najnowsze gierki pójdą - nie pójdą to jest fakt. To że nie grasz w nie, to znowu każdy ma w nosie XD a przynajmniej tak zakładam, bo nudne życie byłoby kogoś kogo interesuje kogoś karta w domu XD

post wyedytowany przez CzyCieBoli 2023-04-25 07:42:18
02.05.2023 13:17
Wronski
😂
13.2
Wronski
28
Senator

CzyCieBoli - Nie znasz sie to sie nie wypowiadaj.

SpecShadow - Masz racje, karta do dupy, na twoim miejscu zainwestowalbym w RTX 4090 bo teraz tylko na tym sie da grac. Jezeli brak ci kasy to powinienes zarabiac wiecej i byc w stanie kupic lepsza karte, nie ma nic pilniejszego niz wywalenie pieniedzy w bloto.

I prosze, gadka motywacyjna :D

24.04.2023 18:49
Lolek4312
😉
14
odpowiedz
Lolek4312
0
Pretorianin

Moim zdaniem 8gb vram dzisiaj to mało. Sam mam rx6600 z taką ilością pamięci i jest ok ale nie gram tak często na pc, więc tester ze mnie żaden. Ciekawa sytuacja, bo pamiętam, że już w 2015r wychodziły karty z 4gb vram, a to było 8 lat temu a gry co by nie mówić przez te lata podskoczyły graficznie a tekstury coraz bardziej żrą pamięć. W 2023r minimum to karta z 12gb vram i kropka.

24.04.2023 19:14
15
odpowiedz
toyminator
86
Senator

Zależy kto w jaką rozdzielczość gra, W FHD to nie problem. Nie gram, i nie będę raczej nigdy grać na QHD i wyżej. No dobra, na QHD pewnie kiedyś tak.
Ogólnie z zasady najpierw schodzę na średnie detale, a potem na 30 klatek ale znowu wysokie. Nie schodzę na średnie i 30 FPS albo na niskie wcale. Unity był dla mnie wyjątkiem, i grało się źle. O ile sama grafika jako tako na niskich da się grać, ale tekstury są obrzydliwe.

24.04.2023 19:33
16
odpowiedz
1 odpowiedź
Znubionek
55
Generał

Master4
Znacząco rozmywa to T(X)AA, przez co nie da się często normalnie patrzeć na to co jest w grze. Praktycznie każda nowa większa gra ma to włączone na najwyższych ustawieniach.
Zmniejszenie rozdzielczości to mały pikuś i problem schodkowanych krawędzi można sobie w pewien sposób poprawić przez MSAA w ustawieniach karty graficznej (jeżeli nie ma w grze).

co ty za glupoty piszesz? jak zmniejszysz rozdzielczosc to bedziesz mial tragiczny obraz, rozmyje ci nawet interfejs. chyba ze masz jakis internal resolution slider w grze ale to pewnie wykorzystuje TAA i tak. nowe gry maja lepiej zaimplementowany TAA i juz nie jest tak rozmazane, no i masz tez dostepna najlepsza forme TAA czyli DLSS. a jak nie uzywasz zadnego rodzaju TAA we wspolczesnych grach to masz masakryczny aliasing, wrecz obraz nie nadaje sie do niczego.

forcowanie MSAA w sterowniku dziala tylko w bardzo starych grach, w nowych nic nie robi. takze pewnie sobie aplikujesz placebo i do tego je tu chwalisz jakie jest fajne wprowadzajac innych w blad, lol. no coz, nie spodziewam sie niczego wiecej po typowym uzytkowniku gola.

post wyedytowany przez Znubionek 2023-04-24 19:35:05
24.04.2023 19:43
🤡
16.1
Master4
60
Pretorianin

Pozdro 600, niespodziewałem się niczego innego po typowym użytkownikowi gola, który uwielbia TAA.

24.04.2023 19:38
17
odpowiedz
1 odpowiedź
Twoja stara 1993
56
Generał

I tak się zastało wszystko wystarczy zobaczyć wstecz lata 2001-2011 z 32Mb do 2GB vram to ogromny przeskok graficzny a przyrost co praktycznie 2 lata.
W latach 2012- 2022 praktycznie z 2Gb wzrosło zaledwie do 8Gb w wymaganiach.
Widać też było że rewolucji graficznych nie było tak dużych.

Na dzisiejsze czasy jeśli ktoś che kartę na 3-4 lata to bym kupował raczej 16Gb vram
Nie tak dawno pisałem że zamierzam kupić RX6700Xt ale ten ma 12Gb i raczej kupię 6800 z 16GB raczej i tak NVIDIA w tej cenie nie ma nic z 16Gb

Jednak NVIDIA nieźle wrobiła w kona posiadaczy RTX3070 to świetne karty mogły by się jeszcze nadawać z 2-3 lata na Ultra jednak 8Gb Vram to nieporozumienie.

post wyedytowany przez Twoja stara 1993 2023-04-24 19:42:57
18.07.2023 23:25
17.1
eliotroman
48
Centurion

Sam jesteś nieporozumienie i sam się zrobiłeś w konia i nie masz zielonego pojęcia jak mitologizowany jest Vram. 8Gb Vramu starczy spokojnie na 3 lata w 1080p na teksturach ULTRA, a jak w jakichś paru grach nie starczy to się zejdzie o oczko w dół z jakością tekstur i wszystko będzie śmigało i to w wysokim klatkażu, a różnica między ULTRA a wysokim teksturami jest żadna, dosłownie żadna. RTX 2060 z 6Gb Vramu odpali wszystkie gry przez najbliższe 2-3 lata na wysokich ustawieniach tekstur, a cześć i na ULTRA, a parę procent może gier już wdanych 2025 też odpali i zagrasz z teksturami średnimi. Nie wiesz o czym mówisz, Vram jest fetyszyzowany a łatwo go obejść. 80% graczy ma 8Gb Vramu lub mniej, dane za STEAMem. Nie bój się twórcy gier nie chcą pójść z torbami.

24.04.2023 19:47
Herr Pietrus
😂
18
1
odpowiedz
Herr Pietrus
231
Jestę Grifterę

Raczej dramat gamedevu na odp... I interesy producentów GPU. Może by jeszcze jakieś nowe coiny podpompować, bo ponoć 4070 nie schodzi... (ale czy na pewno?)

post wyedytowany przez Herr Pietrus 2023-04-24 19:50:17
24.04.2023 19:50
19
odpowiedz
user34094678df
3
Junior

Ort.: "Karze to sądzić".

24.04.2023 20:12
20
odpowiedz
screef
26
Legionista
24.04.2023 20:50
21
odpowiedz
Cubi__
95
Pretorianin

Wy tak serio ??? Przecież już jest jedna sieciówka co przy FHD wymaga ponad 14GB VRAM'u ! Ile trzeba w 2023 roku ? No 16GB to jak kupujesz na dłuższy okres, a 12 jak na parę miesięcy i tyle w temacie.

24.04.2023 20:56
kęsik
😐
22
odpowiedz
kęsik
161
Legend

Zarówno Hogwart jak i RE4 działają całkiem spoko na 4GB VRamu wiec nie wiem o co chodzi. Dramat współczesnych kart graficznych, chyba bardziej nieudolności deweloperów.

24.04.2023 20:57
Link
😂
23
odpowiedz
2 odpowiedzi
Link
24
Senator

RTX 3060 – 8/12 GB
RTX 3060 Ti – 8 GB
RTX 3070 – 8 GB
RTX 3070 Ti – 8 GB
RTX 3080 – 10/12 GB

NVIDIA dają VRAM w takiej ilości GB dla karty z wyższej półki, kiedy na sklepowej półce są dostępne karty RTX 3060, co mają aż 12 GB VRAM (taki jak mój) do wyboru. Po prostu EPIC FAIL. Lol!

Nie ma jak zrobić biedne graczy w konia, co nie znają się na rzeczy i wyciągnąć od nich jak najwięcej pieniędzy.

24.04.2023 22:52
MineBeziX
23.1
2
MineBeziX
65
Generał

Spokojnie, 3060 12GB to pomyłka, bo dali taką szynę pamięci, że mogli wsadzić 6 albo 12. Jedyny powód, dla którego ta karta ma aż tyle pamięci.

Potem się "poprawili" z 8GB modelem, który ma jeszcze mniejszą szynę, przez co wydajność w stosunku do wariantu 12GB spada o około 15%.

Teraz ponownie się "poprawiają" i wszystko poniżej 4070 będzie miało 8GB albo mniej. xD

25.04.2023 01:16
Leo Tar
23.2
Leo Tar
63
Wyjątek Krytyczny

Wersja z 12 Gb była idealna do kopania.

24.04.2023 21:08
Last_Redemption
😉
24
odpowiedz
1 odpowiedź
Last_Redemption
53
Senator

Może AMD to przewidziało (konsole są na ich podzespołach) i dlatego daje więcej vramu

24.04.2023 22:17
24.1
BlackTone
41
Generał

Nie nie przewidziało tylko do większości kart dają wolniejsze i tańsze pamięci GDDR6 nie GDDR6X

24.04.2023 21:54
Sid67
😐
25
1
odpowiedz
Sid67
237
Generał

Dramat to jest trochę testów i testerów (może niektórych graczy też) jak wszystko zawsze na "ultra" musi być. Kiedyś często w grach były opcje, które "zabijały" praktycznie każdą kartę i logiczne było, że niektóre opcje przeznaczone są dla absolutnie topowych (a czasem "przyszłych") kart - a obecnie testuje się na "ultra" karty ze średniej półki - i szok, że trafiają się wąskie gardła w niektórych obszarach.

24.04.2023 22:26
26
2
odpowiedz
Lukxxx
226
Generał

A to jeszcze nie są gry "next gen", te dopiero zaczną wychodzić w tym roku.

24.04.2023 22:57
Persecuted
27
2
odpowiedz
Persecuted
154
Adeptus Mechanicus

To niestety prawda. Można się czepiać optymalizacji, ale nawet perfekcyjne zarządzanie pamięcią czy odpowiednie strumieniowanie danych wielkich cudów nie zdziała, bo koniec końców tekstura w wysokiej rozdzielczości swoje ważyć musi, nawet pomimo kompresji. To zaś sprawia, że opisane w tekście problemy już niebawem przestaną być incydentalne i staną się o wiele bardziej powszechne, zwłaszcza gdy UE 5.0 wejdzie do masowego użycia i zniknie balast w postaci starych konsol. Nvidia dała ciała, bo sprzedaje ultra drogie GPU, które całkiem niedługo mogą wymagać przycinania ustawień w nowych grach. Normalnie można by machnąć na to ręką, ale nie w sytuacji, gdy wydało się na kartę graficzną np. ponad 5200 tysięcy złotych (tyle trzeba dać chociażby za sensowne modele RTX 4070ti, z 12 GB ram). Ot, skutki braku zdrowej konkurencji.

post wyedytowany przez Persecuted 2023-04-24 22:58:48
25.04.2023 06:08
keeper_4chan
28
1
odpowiedz
keeper_4chan
104
Generał

Za dużo rzeczy od jakiegoś czasu jest zwalane na barki VRAM.
Do tego jeszcze sporo danych dubluje się z zwykłym RAM.

Konsole kiedyś miały to ciekawie zoptymalizowane, bo nie dublowało się tyle informacji po kościach RAM.

post wyedytowany przez keeper_4chan 2023-04-25 06:09:55
25.04.2023 08:04
29
odpowiedz
1 odpowiedź
zanonimizowany475387
122
Konsul

A ja celowo ustawiam na średnie, może to kogoś zdziwi ale dla mnie ustawienia wysokie czy ultra są po prostu za ,,ostre,, i czuje dyskomfort gdy muszę się przyglądać tylu detalom i wyszukiwać czegoś wzrokiem na monitorze.

post wyedytowany przez zanonimizowany475387 2023-04-25 08:05:26
26.04.2023 21:14
29.1
passout
32
Chorąży

Ja daje na Low wszystko, bo wkurwia mnie np. trawa i cienie. Rozprasza mnie i kompletnie nic nie widzę. A kasa w portfelu.

25.04.2023 08:52
30
odpowiedz
Jaya
68
Generał

Gry nie mogą mieć więcej tekstur wepchniętych do ramu, zagłębień/szpar w nich, nie może być zbyt wielu wierzchołków. Wtedy nic nie pójdzie po myśli Nvidii bo RT On szlak trafi nawet na 9090ti.

Stąd może nie pchają zbyt dużo ramu - bo "muszą gracze używać RT On kiedyś", ale kto wie, o co może chodzić. Raczej o proporcje tranzystorów do pamięci trzeba dobrze trzymać. Niezbyt można stawiać jeszcze na statyczno-dynamiczne rozwiązania.

Wolałbym zobaczyć alternatywę w nowych grach - dystans renderu/cieni zwiększony za tą samą wydajność vs RT On w grach, albo wyłączone pory dnia i całkiem statyczne światło, ewentualnie ruchome cienie liści (zazwyczaj naturalne cienie liści to też utrapienie dla RT On)

DLSS też wspomaga raczej redukcję potrzebnej pamięci i stawia bardziej na procesor. Dużo zależy od gameengine czy jest w stanie dynamicznie dobierać np. odległość cieni względem fps i tego co się dzieje na ekranie. SSD szybkie dużo nadrabiają braki w ramie, jeśli gameengine dobrze radzi sobie z Level Of Detail.

post wyedytowany przez Jaya 2023-04-25 08:55:53
25.04.2023 09:59
😃
31
odpowiedz
1 odpowiedź
abraham11
50
Pretorianin

Jeszcze chwila i osoby zachłanne które chcą wszystkiego co najlepsze z gier mając przy okazji by była najlepsza płynność z minimum 60kl bo mają np za dużo w swoim życiu i nie zagrają np na
40 kl lub z mniejszą ilością ustawień.

Bedą może musieli zacząć wehikuł czasu budować by przenieść się np o 25 lat w przód i złożyć sobie tam sprzęt a potem wrócić do naszych czasów.

No chyba że przeniosą się na konsolę i tam co najwyżej będzie takiej osobie przeszkadzać jeśli jakaś gra będzie miała np tylko do 30-35 kl.

25.04.2023 10:59
Persecuted
31.1
Persecuted
154
Adeptus Mechanicus

No tak, bo to przecież takie nierozsądne wymagać wysokiej wydajności od karty graficznej za bagatela 5000 złotych i więcej (bo na ten moment tak naprawdę nic poniżej RTX 4070ti, oraz jego odpowiedników z AMD, nie ma sensu)...

post wyedytowany przez Persecuted 2023-04-25 11:00:34
25.04.2023 10:12
32
10
odpowiedz
stud3nciq
79
Pretorianin

Przyczyna małej ilości VRAMu u nVidii: kryptościerwo i zachłanność nVidii.

Tytułem wstępu: nVidia miała w planach wersje z 2x większą ilością pamięci. I było to na tym portalu wspominane: https://www.gry-online.pl/hardware/geforce-rtx-3080-20-gb-i-rtx-3070-16-gb-potwierdzone-przez-gigaby/z01e81a
Jakiś czas temu na ebay trafiły w pełni sprawne prototypy 3080 20GB - i wtedy już nikt nie miał wątpliwości, że takie karty to nie tylko "projekt", ale dało się to zrealizować w praktyce.

Jednak potem wybuchł boom na kopanie kryptośmiecia. Cwaniury z nVidii szybko zauważyły, że górnicy biorą karty całymi kontenerami, a przy tym wcale nie trzeba im dużo vRAMu, 8GB według rozpiski ETH powinno wystarczyć do 2026 roku. I tak oto wersje z podwójną pamięcią zostały skasowane. Za to dobrze, aby ten RAM był szybki - dlatego tak się pchali w GDDR6X.

To było bardzo cyniczne posunięcie: wiedzieli, że boom kiedyś się skończy i rynek zaleje masa kart z koparek. Ale ponieważ mają mało VRAMu, szybko przestaną być wystarczające do nowych produkcji i gracze będą musieli kupować nowe generacje.

Błąd w szacunkach polegał na tym, że boom skończył się znacznie szybciej niż zakładano. Tj. zajęłoby to znacznie dłużej, ale ETH w końcu przeszedł na model PoS i uciął kopanie na kartach graficznych. I nVidia została z furą niesprzedanych kart. Albowiem tak szczerzyli mordy na miliardowe zyski, że wykupili moce produkcyjne w fabrykach chipów - i musieli je wykorzystać. Do tego doszedł boom na uczenie maszynowe.

To z powyższych powodów jesteśmy w obecnym miejscu, tj. z nieprawdopodobnie drogimi kartami nowej generacji i magazynami zawalonymi starą serią, która dopiero teraz, po ponad 2,5 roku od swojej premiery zaczyna pomalutku tanieć.

post wyedytowany przez stud3nciq 2023-04-25 10:12:43
25.04.2023 10:57
Illuminackiretpalianinnajezdzcazdalekiegokosmosu
😐
33
odpowiedz
3 odpowiedzi
Illuminackiretpalianinnajezdzcazdalekiegokosmosu
64
Generał

Do 1080p też już za mało?

25.04.2023 11:41
33.1
2
zanonimizowany1245771
54
Konsul

Illuminackiretpalianinnajezdzcazdalekiegokosmosu szczerze mowiac jakbys mial miec pokrecone texture quality na max w takim re4 re to nawet te 12gb vram na 3080 nie starczy przy 1080p, a co tu mowic o 4080 z 16 ktora jest dedykowana niby pod 4k. Nvidia rozczarowala sporo ze skapstwem w vram. A to jest rozgrzewka bo gry pod silniki pokroju ue5 jesli nie beda ograniczane stara generacja to beda konsumowaly duzo vramu na te wszystkie wodotryski graficzne. Po prostu ta seria rtx 4000 to klapa jak nic i lepiej poczekac na cos lepszego badz brac starszy uklad bo inaczej sie zawiedziesz.

post wyedytowany przez zanonimizowany1245771 2023-04-25 11:41:41
25.04.2023 16:51
Illuminackiretpalianinnajezdzcazdalekiegokosmosu
👍
33.2

Tak, nic lepszego od 3060ti obecnie mi nie potrzeba. Gdzieforsy rtx4000 na pewno omijam.

18.07.2023 22:12
😡
33.3
eliotroman
48
Centurion

Nie, wystarczy ci spokojnie na 3 lata jak nie dłużej i nie słuchaj ich bo nie wiedzą o czym mówią. Wejdź sobie na google i wpisz - Ankieta dotycząca sprzętu i oprogramowania - 80% ludzi ma 8Gb Vramu i mniej a 20% ma jeszcze ciągle 1, tak 1Gb Vramu. RTX 2060 do obecnej genracji gier na 2 lata ci wystarczy do grania w 1080 na wysokich/Ultra teksturach, RTX 2060 ma 6Gb Vramu. Jak by było tak jak większość zmanipulowanych tu pisze to by producenci gier z torbami poszli a nie bój się bo nie pójdą.

25.04.2023 11:44
DrAmok
34
odpowiedz
2 odpowiedzi
DrAmok
53
Chorąży

Zmieniłem kilka dni temu rtxa 3070 na RX 7900 xt i teraz widzę ile gry potrafią targać vramu. Taki tlou potrafi ponad 14gb wciągnąć . Szczerze powiem że każda nowa gra przekracza 12gb więc optymalnie jest teraz kupić kartę z 16gb vram. Nawet Apex legenda którego cisnę od lat przy ustawieniach ULTRA pobiera prawie 9gb .

25.04.2023 13:43
34.1
1
Lantgravius
3
Junior

ilość alokacji VRAM nie jest równoznaczna w faktycznym jej wykorzystaniem

post wyedytowany przez Lantgravius 2023-04-25 13:44:22
18.07.2023 22:05
😂
34.2
eliotroman
48
Centurion

Bzdury gadasz i komputerach nie masz zielonego pojęcia, wiesz co to jest alokacja RAMu czy Vramu? Nie wiesz i nie będę ci tłumaczył, RTX 2060 z 6Gb Vramu wystarczyłby ci do grania przez najbliższe 2 lata z teksturami wysokimi bez problemu. Nie wiesz o czym mówisz. NVIDIA dobrze wie jaki % graczy ma 8Gb Vramu i mniej i myślisz że 80% ludzi nie będzie mogło grać w gry bo ma 8Gb i mniej Vramu na kartach? Nie rozśmieszaj mnie. To byłby upadek branży gier. Wejdź sobie na STEAMA i zobacz. Wpisz w google tak - ankieta dotycząca sprzętu i oprogramowania - i sobie zobacz, 80% graczy ma cały czas 8Gb Vram lub mniej a 20% ma 1Gb Vramu, tak 1Gb Vramu dobrze słyszysz.

post wyedytowany przez eliotroman 2023-07-18 22:08:06
25.04.2023 11:55
35
2
odpowiedz
1 odpowiedź
Marv
39
Pretorianin

Moim zdaniem taka 3070 to powinna mieć minmunim 12 GB, skoro 3060 ma wersję 12GB. Nvidia leci typowo biznesowo, to jest wszystko pomyślane tak, żeby wymieniać kartę co 2-3 max lata a nie jak kiedyś co 5. I podobnie, kiedyś jak się nawet wymieniło po tych 2 latach kartę, to skok wydajności był na tyle duży, że czułeś opłacalność zakupu, teraz mamy jakieś 10-15 fps pomiędzy generacjami. Potem się dziwią że rynek PC przynosi straty. Lata temu grano głównie na PC i konsolach, teraz dużo konsumentów im odpłynęło przez mobile, więc próbują sobie to zrekompensować. Wypuszczają generację za generacją okrajając jak najbardziej się da w stosunku

spoiler start

cena/wkurw graczy

spoiler stop

i tak to leci. Jako posiadacz 3070 8GB na razie problemów z ilośćią Vramu nie zauważyłem, ale przy tempie wzrostu wymagań gier, za chwilę będę w minimalnych na mid-endowej karcie z poprzedniej generacji, która swoje kosztowała, trochę słabo.

post wyedytowany przez Marv 2023-04-25 12:02:38
18.07.2023 21:56
😂
35.1
eliotroman
48
Centurion

No mogłaby mieć ale nie ma i nie tragizujmy już tak, sam od miesiąca dopiero mam RTX 3070 od kolegi za 700 zł, za swojego RTX 2060 tyle na OLX wziąłem, i po pierwsze jest to karta, w parze z dobrym procesora, raczej z high-end'u a po drugie do do 1080p wystarczy ci jeszcze spokojnie na 2-3 lata z teksturami na ULTRA. Może w jakichś kilku procentach gier za rok, dwa będziesz musiał zejść z teksturami o oczko w dół i dalej polecisz. I co z tego że zejdziesz z ULTRA na wysokie, różnica w wyglądzie prawie żadna a 1-2Gb Vramu zwolnisz. Każdy by chciał mieć więcej Vramu ale uwierz że i 6Gb Vramu na RTX 2060 pozwoli jeszcze ludziom parę latek cieszyć się grami i to tak w dobrym klatkażu jak na przyzwoitych ustawieniach graficznych.

post wyedytowany przez eliotroman 2023-07-18 21:59:37
25.04.2023 12:57
cenzura
36
3
odpowiedz
cenzura
50
Pretorianin

Kiedyś umiano w optymalizację...

25.04.2023 17:01
37
odpowiedz
FSB znowu nadaje
32
Konsul

A w tym samym momencie 32 GB ramu stoi puste.
Problemem nie są karty graficzne tylko marne porty z konsol i ich architektura która nadal oparta jest na współdzielonej pamięci operacyjnej.
Najpierw robi się wersje konsolową, a potem marny pecetowy port który nie korzysta z ramu tylko wszystko ma być wrzucone do vramu.
To chyba logiczne że tak to nie będzie działać.

25.04.2023 21:01
38
odpowiedz
Bonaducci
25
Chorąży

Niestety taktyka zielonych działa. Sam od 7 lat używałem Strix 1070, która całkiem ładnie się kręciła i jest bardzo chłodna. Od 7 lat miałem 8GB VRAM, a wydajnościowo 1070 po OC (lub najbardziej bazowe 1070 Ti) wypada jak podstawowy model 3060 8GB. Co prawda 3070 i 3070 Ti są wyraźnie mocniejsze i mają szerszą szynę pamięci od 3060, ale kto widział po 7 latach wywalać tyle kasy na kartę z tą samą ilością VRAM? To jest jakaś kpina. Niestety dziala, bo większość zmieniających sprzęt poszła o 1-2 półki wyżej aby mieć te 12GB, albo kupili coś, co już ich zaczyna ograniczać nawet w nienajwyzszej rozdzielczości.

26.04.2023 19:51
39
odpowiedz
freedomatic
25
Legionista

oj widze, że sprzedaż NVIDII cos slabo leci ,żeby sponsorowac takie artykuły..po co,.. ano po tożeby kupowac potworki za $$ z serii 4000

27.04.2023 13:45
40
1
odpowiedz
1 odpowiedź
Sev125
53
Centurion

Mogliście się chociaż trochę postarać a tak mamy bezpośrednią kopie materiału hardware unboxed z wczoraj trochę słabo a na dodatek nawet screen z wyników testów jest skopiowany bezpośrednio od nich

29.04.2023 13:18
rassi
😉
40.1
rassi
41
Centurion

GRYOnline.plTeam

Sev125 Tekst został napisany 31 marca, opublikowany 24 kwietnia, a Ty wspominasz o jakimś materiale z 26 kwietnia.

30.04.2023 12:01
mastarops
41
2
odpowiedz
mastarops
145
Generał

Trochę żenada. Nie mogę się doczekać premiery 4060 z 8 GB gdzie się okaże że czasami z 3060 12 GB będzie przegrywać :D

Nie powiem, nawet zastanawiałem się nad porządnym PC ale przy takich przemierach to szkoda nerwów.

02.06.2023 09:02
42
1
odpowiedz
Sunkrest0
18
Chorąży

Naprawdę mnie wkurza obecny rynek. Nawet gdy wydam absurdalne 4 tysiące na GPU to i tak godzić się muszę na bardzo duże ustępstwa których po prostu nie powinno być w tym przedziale cenowym. Widzę idąc cenowo niżej wcale nie jest lepiej.

post wyedytowany przez Sunkrest0 2023-06-02 09:06:52
02.06.2023 09:19
mirko81
😉
43
1
odpowiedz
mirko81
76
Slow Gaming

Dobry moment na zapowiedzenie kart 4160/4170 z 16 GB vram

18.07.2023 21:24
😡
44
odpowiedz
eliotroman
48
Centurion

Nie opowiadajcie bzdur bo 8Gb Vram do grania w 1080p wystarcza i wystarczy w 2023, 2024 i jeszcze w 2025roku. To jest nakręcanie zysków firmą przez takie strony jak wasza, i wy robicie to świadomie. Mam gdzieś jakieś pojedyncze zwalone gry, które i tak mnie nie interesują, a jak bym chciał zagrać to zagram bez problemu obniżając jakoś tekstur. CoD WARZONE 2.0 w opcjach graficznych ma taką fajną funkcję która pokazuje zużycie Vram w zależności od poziomu jakości tekstur. Są 4 poziomy jakości tekstu, bardzo niski zużywa 1.9Gb, niski 2.2Gb, normalny 3Gb, wysoki 4.5Gb. Ja gram na niskim nie ze względu na to że nie mogę na wysokim tylko nie chcę bo wolę mieć więcej klatek po prostu. Różnica między wysokimi teksturami a niskimi realnie w wyglądzie owych jest nie wielka za to w zużyciu Vram ogromna, a znam wiele przykładów gier gdzie te różnice są jeszcze większe, tak większe w zużyciu Vram a mniejsze w jakości i wyglądzie tekstur. To pokazuje jaką takie artykuły robią ludziom sieczkę z mózgu, obłęd. Od marca 2019 do maja 2023 miałem RTX 2060 z 6Gb Vram i nie brakło mi go nigdy i nigdzie, i miałbym go dalej, gdyby nie kolega który uraczył mnie propozycją nie do odrzucenia proponując RTX 3070 w cenie 700 zł, na OLX w tym czasie najtańsze były po 1500zł. Tak że nie czytajcie tych bzdur bo prawie 66% ludzi, według danych STEAMa dalej gra w 1080p a z 10-12% w jeszcze niższych, tak, w jeszcze niższych a nie wyższych rozdzielczościach, i bez problemu, nawet taki RTX 2060 z 6Gb Vram do obecnej generacji gier w zupełności wam wystarczy, zapewniając wam płynną rozgrywkę jak nie w ultra to w wysokich ustawieniach tak tekstur jak i ogóle wszystkiego innego. RTX 2060 i te 6Gb Vram przy może czasem konieczności obniżeniu tekstur o jedno oczko w dół wystarczy wam na 2-3 lata lekko. Ten co pisał ten artykuł jest pewnie sponsorowany przez firmy które by chciały żebyśmy wydawali grube tysiące złotych na ich nowe karty.

post wyedytowany przez eliotroman 2023-07-18 21:26:55
Technologie 8 GB to za mało - czyli dramat współczesnych kart graficznych