8 GB to za mało - czyli dramat współczesnych kart graficznych
Dawanie Last of Us jako przykład to jakieś nieporozumienie. Ta gra to techniczy potwór, bo jak wytłumaczyć, że gra u mnie lepiej działa przy ustawieniu wszystkich tekstur na High (a tekstur postaci nawet na Ultra!) i nie ma żadnych problemów mimo, że gra komunikuje, że alokuje sobie prawie 9GB VRAMu (na 3060Ti). Tekstury średnie mają za to wieczny problem i są rozmazane jak gówno + wieczne glicze grafiki. Niektóre ustawienia są też mocno zbugowane i gra na Ultra wygląda gorzej niż na High. To co się odwaliło przy premierze Arkham Knight to przy The Last of Bug był mały pikuś.
Hogwarts Legacy - kolejny przykład technicznego bubla, bo jak wytłumaczyć, że na premierę się nie dało a po kilku patchach gra działa dobrze.
Tyle w temacie.
Przyczyna małej ilości VRAMu u nVidii: kryptościerwo i zachłanność nVidii.
Tytułem wstępu: nVidia miała w planach wersje z 2x większą ilością pamięci. I było to na tym portalu wspominane: https://www.gry-online.pl/hardware/geforce-rtx-3080-20-gb-i-rtx-3070-16-gb-potwierdzone-przez-gigaby/z01e81a
Jakiś czas temu na ebay trafiły w pełni sprawne prototypy 3080 20GB - i wtedy już nikt nie miał wątpliwości, że takie karty to nie tylko "projekt", ale dało się to zrealizować w praktyce.
Jednak potem wybuchł boom na kopanie kryptośmiecia. Cwaniury z nVidii szybko zauważyły, że górnicy biorą karty całymi kontenerami, a przy tym wcale nie trzeba im dużo vRAMu, 8GB według rozpiski ETH powinno wystarczyć do 2026 roku. I tak oto wersje z podwójną pamięcią zostały skasowane. Za to dobrze, aby ten RAM był szybki - dlatego tak się pchali w GDDR6X.
To było bardzo cyniczne posunięcie: wiedzieli, że boom kiedyś się skończy i rynek zaleje masa kart z koparek. Ale ponieważ mają mało VRAMu, szybko przestaną być wystarczające do nowych produkcji i gracze będą musieli kupować nowe generacje.
Błąd w szacunkach polegał na tym, że boom skończył się znacznie szybciej niż zakładano. Tj. zajęłoby to znacznie dłużej, ale ETH w końcu przeszedł na model PoS i uciął kopanie na kartach graficznych. I nVidia została z furą niesprzedanych kart. Albowiem tak szczerzyli mordy na miliardowe zyski, że wykupili moce produkcyjne w fabrykach chipów - i musieli je wykorzystać. Do tego doszedł boom na uczenie maszynowe.
To z powyższych powodów jesteśmy w obecnym miejscu, tj. z nieprawdopodobnie drogimi kartami nowej generacji i magazynami zawalonymi starą serią, która dopiero teraz, po ponad 2,5 roku od swojej premiery zaczyna pomalutku tanieć.
"Zmniejszenie rozdzielczości jest, według mnie, ostatecznością – ustawienie niższej rozdziałki niż natywna dla danego monitora znacząco rozmyje obraz."
Znacząco rozmywa to T(X)AA, przez co nie da się często normalnie patrzeć na to co jest w grze. Praktycznie każda nowa większa gra ma to włączone na najwyższych ustawieniach.
Zmniejszenie rozdzielczości to mały pikuś i problem schodkowanych krawędzi można sobie w pewien sposób poprawić przez MSAA w ustawieniach karty graficznej (jeżeli nie ma w grze).
Nvidia 4060 > nowe gry AAA fullhd ustawienia normal 60+ klatek
Trochę starsze gry AAA oraz reszta fullhd ultra/wysokie ustawienia 60+ klatek lub 1440p 40/60+ klatek zależności od gry.
Nvidia 4070 Nvidia informuje, że jest to karta do 1440p wiec jest ok, nawet przy niższych ustawieniach, bo gry i tak dobrze wyglądają, nawet na normalnych ustawieniach.
4080/4090 > 4k ustawienia wszelakie :)
Poza ceną to jest ok i nie widzę tutaj problemu poza graczami, którzy sami sobie problemy szukają.
Dawanie Last of Us jako przykład to jakieś nieporozumienie. Ta gra to techniczy potwór, bo jak wytłumaczyć, że gra u mnie lepiej działa przy ustawieniu wszystkich tekstur na High (a tekstur postaci nawet na Ultra!) i nie ma żadnych problemów mimo, że gra komunikuje, że alokuje sobie prawie 9GB VRAMu (na 3060Ti). Tekstury średnie mają za to wieczny problem i są rozmazane jak gówno + wieczne glicze grafiki. Niektóre ustawienia są też mocno zbugowane i gra na Ultra wygląda gorzej niż na High. To co się odwaliło przy premierze Arkham Knight to przy The Last of Bug był mały pikuś.
Hogwarts Legacy - kolejny przykład technicznego bubla, bo jak wytłumaczyć, że na premierę się nie dało a po kilku patchach gra działa dobrze.
Tyle w temacie.
Pamiętam, że kiedyś do badziewnych kart dawali dużo vram, które przy tak słabych kartach nigdy nie dało się wykorzystać i reklamowali to jako grafika 2 giga.
A ja mam tylko 10gb :C
Wystarczy przesunać suwak tekstur poziom nizej. Róznice rzucająco sie na tyle w oczy rzuca sie dopiero na opcjach "średnich"
Poza tym to tylko pokazuje jak olano optymalizacje, na konsolach jest 16gb współdzielonej pamięci i jakoś to działa i wyglada a na PC masz 8GB na same tekstury i za mało. Przykład z RE4 to te tekstury te hight 0,5-8 to już chyba skalowanie sztuka dla sztuki bo różnic strzelam praktycznie nie widać.
CIekawe czy zacznie sie moda na mody z paczkami tekstur ale tym razem nie zwiększające a odchudzajace ale zarazem tak samo dobrymi teksturami.
Dokładnie tak. Ale trzeba się czepić nvidii bo teraz taka moda - na wskakiwanie na rowerki modnych gównoburz.
Poza tym to tylko pokazuje jak olano optymalizacje, na konsolach jest 16gb współdzielonej pamięci i jakoś to działa i wyglada a na PC masz 8GB na same tekstury i za mało.
no i nie pomyslales ze te 16 gb to wiecej niz 8 gb? brawo. no i konsole moga miec gorsze tekstury i inne ustawienia. zobacz pic rel.
Przykład z RE4 to te tekstury te hight 0,5-8 to już chyba skalowanie sztuka dla sztuki bo różnic strzelam praktycznie nie widać.
z tego co kojarze to w poprzednich residentach jak ustawiles wyzszy budzet vramu dla tekstur to miales mniej pop-inu tekstur, wiec to calkiem fajnie ze dali taka opcje.
No nie znasz się. Doinformuj się najpierw https://youtu.be/Isn4eLTi8lQ w skrócie 1:08:37 - 1:08:55
Ja tam ze swojego RTX2060 jestem super zadowolony. Na razie w to co gram, chula sobie spokojnie w najwyższych możliwych ustawieniach. Gdy będzie trzeba, to zejdę z detalami w dół, uruchomię grę w oknie w rozdzielczosci mniejszej niż natywna i dalej będę cieszył się grami.
No nie wiem ... RTX 2080 TI i w 1440p z DLSS na "jakość' i z włączonym RT tylko dla odbić mam ok. 20 - 30 fps w Hogwarts Legacy, dlatego przesiadam się na RTX 4080, min. dla frame generation.
Między Ultra, a Wysokimi nie ma większych różnic. Często w grach Ubisotfu bawiłem się suwakami i patrzyłem na obrazku jak zmienia się grafika. Wiele opcji poleciało na średnie/wysokie bo kompletnie nie widziałem różnicy tylko leciutki lifting (o ile to dobre słowo) na korzyść wyższych ustawień.
Cienie można zawsze śmiało wrzucić na średnie i mamy zastrzyk fps, a ich wygląd jest lekko bladszy, na ultra mamy cienie ciemniejsze.
Praktycznie między Wysokimi a ultra nie ma wcale. Widać ją w cieniach i oświetleniu. Ale w teksturach to by się trzeba mocno przyjrzeć. A w cieniach i oświetleniu widać, bo na ultra dodatkowo jakaś technologia jest, która jest zbyteczna. Zawsze tak było, że Ultra to grafika która będzie na wysokich za x lat. Ale ogólnie ultra to sztuka dla sztuki. Między średnimi a wysokimi też nie ma aż takich różnic, ale pomiędzy średnimi a ultra jednak tak ;D Takie to dziwne. Ale na samych średnich gra i tak wygląda bardzo ładnie. Niskie też tragicznie nie wyglądają, ale to jednak mniejsza przyjemność z grania. Ogólnie tylko tekstury, światło i cienie robią robotę.
Używanie gównianie zoptymalizowanych gier jako argumentów jest słabe. Mi tam re 2 i re 3 chodziły bez problemu na 1070 z 8GB. Re 2 to chyba nawet na 970 ogrywałem gdzie realnie szybkiej pamięci było 3GB - i śmigało to w 1080p na high.
Poza tym w większości gier różnica w teksturach extreme vs high jest żadna. Chodzi jedynie o redukcję buforowania - potencjalnie mniejszy stutter. Jeżeli gra jest dobrze zrobiona to nie ma to jednak znaczenia.
Spadek jakości zaczyna się dopiero przy medium, a czasem nawet dopiero low. Czy gracie na high 0.5 czy high 4.0 - zawsze tekstury będą ostre.
Rozdmuchany problem. Nawet 3070 mało której grze zapewni taką wydajność żeby opłacało się odpalać 1440p na extreme.
Dokładnie w 100% się z tobą zgadzam. Do obecnej generacji gier spokojnie RTX 2060 wystarczy z 6Gb Vram, i 100 razy wolałbym tego wydajnego RTX od jakichś badziewnych kart z 8Gb Vramu. Do tego ja do niedawno miałem tego RTX 2060 i karta ogień, a dokładnie tak jak mówisz, jak by ci gdzieś brakowało Vramu, mi nie brakowało nigdzie, to o oczko w dół tekstury i dalej jazda, różnica w jakości obrazu żadna a zwalnia ci się od razu 1Gb-2Gb Vramu. Teraz mam 3070 i 8Gb Vramu i ta karta mi na 2-3 lata lekko starczy. Zresztą ja mam 5000 godzin w BFV a tam mam 200 klatek i zamykam licznik, ja gram i tak tylko praktycznie w dwie gry, w BFV i w WARZONE 2.0
Statystyki pokazują że gracze bardzo kochają Nvidię. Sukces serii 3000 i 4000 wynika chyba głównie z tego że gracze uwierzyli że są to świetne karty do grania ze śledzeniem promieni. Większość posiadaczy kart serii 3000 ma pewnie 10 GB lub mniej pamięci VRAM - w tym przypadku karta zielonych do grania z raytracingiem jest równie dobra co Radeony. Przynajmniej tak można sądzić o grach AAA które dopiero będą wychodzić.
Według danych STEAMa z Ankiet dotyczących sprzętu i oprogramowania za lipiec tego roku "tylko" 80% graczy ma 8Gb Vram lub mniej.
Na początku roku składałem komputer. Dobrze, że wziąłem RTX 3060 12 GB, a nie wersje 8 GB.
Ech, pamiętam jak w okresie 2011 - 2013 miałem GTX 570 z 1GB VRAM i to było wtedy za mało do zmodowanego Skyrima ;)
A dzisiaj do mocno zmodowanego Skyrima potrzeba 10GB do 1080p i 12GB do 1440p/4k.
Legion 13 ---zależy co masz na myśli pisząc mocno zmodowanego... jak wrąbiesz do Skyrima tekstury 4K bądź 8K to i RTX 4090 będzie się dusić... Ja na swoim RTX 3070 + 200modów i tekstury pod 2K- i wyłączam synchronizacje pionową to mam 400fps w 1440p :p
|A dzisiaj do mocno zmodowanego Skyrima potrzeba 10GB do 1080p i 12GB do 1440p/4k.
No ale to chyba normalne? modujesz to wiesz co wrzucasz, to chyba ciezko się spodziewać by wymagania nie skakały jak ładujesz nie wiadomo jak cięzkie tekstury..
Te karty maja za malo vramu na obecne standardy jesli wezmie sie pod uwage ile to ciagnie na high / ultra w nowszych grach. Przy podkrecaniu texture quality w re4 re to potrafi ciagnac i 10gb w wymagajacych momentach z rt on i to na karcie z high endu pokroju 3080 z 12gb. Jakbym chcial podwyzszyc jeszcze bardziej to i te 12gb nie wystarczylo by na te same 1080p. Wiec uwazam ze ta ilosc vramu w nowych kartach jest za mala!. Rtx 4050 powinien mieć 10gb, 4050ti 12gb, 4060 16gb, 4060ti 20gb , 4070 24gb, 4070ti 28gb, 4080 32gb, 4090 48gb. Te 16gb w nowym 4080 nie starczy badz starczy ledwo na suwaki mocno w prawo w 4k a tego sie oczekuje po nowych produktach ze do kolejnej generacji bedą mogly bez problemu posłużyć, a się okazuje low-mid-high tier może nie wystarczyć nawet na gry w 1080p. Pierdol się Nvidia za skąpstwo z vramem bo po co dobry rdzeń jeśli nie będziesz miał szansy wykorzystać w pełni jego potencjału.
Dopiero jakiś czas temu wymieniłem starucha GF 650 na GF 1660 z 6GB vRAM i nadal mam w co grać. Na razie lepsze mi nie potrzebna (mam pilniejsze wydatki) i jakoś nie czuję się gorszy mimo, że tutejsza populacja będzie mnie chciała przekonać, że jest inaczej...
Się rzucili z przekonywaniem co? XD
W dupie mam jaką masz kartę XD dlaczego ktoś ma cię do czegoś przekonywać? I co nam z Twoich wydatków innych? Każdy bierze kartę taką jaką chce/może. Koniec kropka ;d To czy najnowsze gierki pójdą - nie pójdą to jest fakt. To że nie grasz w nie, to znowu każdy ma w nosie XD a przynajmniej tak zakładam, bo nudne życie byłoby kogoś kogo interesuje kogoś karta w domu XD
I prosze, gadka motywacyjna :D
Moim zdaniem 8gb vram dzisiaj to mało. Sam mam rx6600 z taką ilością pamięci i jest ok ale nie gram tak często na pc, więc tester ze mnie żaden. Ciekawa sytuacja, bo pamiętam, że już w 2015r wychodziły karty z 4gb vram, a to było 8 lat temu a gry co by nie mówić przez te lata podskoczyły graficznie a tekstury coraz bardziej żrą pamięć. W 2023r minimum to karta z 12gb vram i kropka.
Zależy kto w jaką rozdzielczość gra, W FHD to nie problem. Nie gram, i nie będę raczej nigdy grać na QHD i wyżej. No dobra, na QHD pewnie kiedyś tak.
Ogólnie z zasady najpierw schodzę na średnie detale, a potem na 30 klatek ale znowu wysokie. Nie schodzę na średnie i 30 FPS albo na niskie wcale. Unity był dla mnie wyjątkiem, i grało się źle. O ile sama grafika jako tako na niskich da się grać, ale tekstury są obrzydliwe.
Znacząco rozmywa to T(X)AA, przez co nie da się często normalnie patrzeć na to co jest w grze. Praktycznie każda nowa większa gra ma to włączone na najwyższych ustawieniach.
Zmniejszenie rozdzielczości to mały pikuś i problem schodkowanych krawędzi można sobie w pewien sposób poprawić przez MSAA w ustawieniach karty graficznej (jeżeli nie ma w grze).
co ty za glupoty piszesz? jak zmniejszysz rozdzielczosc to bedziesz mial tragiczny obraz, rozmyje ci nawet interfejs. chyba ze masz jakis internal resolution slider w grze ale to pewnie wykorzystuje TAA i tak. nowe gry maja lepiej zaimplementowany TAA i juz nie jest tak rozmazane, no i masz tez dostepna najlepsza forme TAA czyli DLSS. a jak nie uzywasz zadnego rodzaju TAA we wspolczesnych grach to masz masakryczny aliasing, wrecz obraz nie nadaje sie do niczego.
forcowanie MSAA w sterowniku dziala tylko w bardzo starych grach, w nowych nic nie robi. takze pewnie sobie aplikujesz placebo i do tego je tu chwalisz jakie jest fajne wprowadzajac innych w blad, lol. no coz, nie spodziewam sie niczego wiecej po typowym uzytkowniku gola.
Pozdro 600, niespodziewałem się niczego innego po typowym użytkownikowi gola, który uwielbia TAA.
I tak się zastało wszystko wystarczy zobaczyć wstecz lata 2001-2011 z 32Mb do 2GB vram to ogromny przeskok graficzny a przyrost co praktycznie 2 lata.
W latach 2012- 2022 praktycznie z 2Gb wzrosło zaledwie do 8Gb w wymaganiach.
Widać też było że rewolucji graficznych nie było tak dużych.
Na dzisiejsze czasy jeśli ktoś che kartę na 3-4 lata to bym kupował raczej 16Gb vram
Nie tak dawno pisałem że zamierzam kupić RX6700Xt ale ten ma 12Gb i raczej kupię 6800 z 16GB raczej i tak NVIDIA w tej cenie nie ma nic z 16Gb
Jednak NVIDIA nieźle wrobiła w kona posiadaczy RTX3070 to świetne karty mogły by się jeszcze nadawać z 2-3 lata na Ultra jednak 8Gb Vram to nieporozumienie.
Sam jesteś nieporozumienie i sam się zrobiłeś w konia i nie masz zielonego pojęcia jak mitologizowany jest Vram. 8Gb Vramu starczy spokojnie na 3 lata w 1080p na teksturach ULTRA, a jak w jakichś paru grach nie starczy to się zejdzie o oczko w dół z jakością tekstur i wszystko będzie śmigało i to w wysokim klatkażu, a różnica między ULTRA a wysokim teksturami jest żadna, dosłownie żadna. RTX 2060 z 6Gb Vramu odpali wszystkie gry przez najbliższe 2-3 lata na wysokich ustawieniach tekstur, a cześć i na ULTRA, a parę procent może gier już wdanych 2025 też odpali i zagrasz z teksturami średnimi. Nie wiesz o czym mówisz, Vram jest fetyszyzowany a łatwo go obejść. 80% graczy ma 8Gb Vramu lub mniej, dane za STEAMem. Nie bój się twórcy gier nie chcą pójść z torbami.
Raczej dramat gamedevu na odp... I interesy producentów GPU. Może by jeszcze jakieś nowe coiny podpompować, bo ponoć 4070 nie schodzi... (ale czy na pewno?)
Wy tak serio ??? Przecież już jest jedna sieciówka co przy FHD wymaga ponad 14GB VRAM'u ! Ile trzeba w 2023 roku ? No 16GB to jak kupujesz na dłuższy okres, a 12 jak na parę miesięcy i tyle w temacie.
Zarówno Hogwart jak i RE4 działają całkiem spoko na 4GB VRamu wiec nie wiem o co chodzi. Dramat współczesnych kart graficznych, chyba bardziej nieudolności deweloperów.
RTX 3060 – 8/12 GB
RTX 3060 Ti – 8 GB
RTX 3070 – 8 GB
RTX 3070 Ti – 8 GB
RTX 3080 – 10/12 GB
NVIDIA dają VRAM w takiej ilości GB dla karty z wyższej półki, kiedy na sklepowej półce są dostępne karty RTX 3060, co mają aż 12 GB VRAM (taki jak mój) do wyboru. Po prostu EPIC FAIL. Lol!
Nie ma jak zrobić biedne graczy w konia, co nie znają się na rzeczy i wyciągnąć od nich jak najwięcej pieniędzy.
Spokojnie, 3060 12GB to pomyłka, bo dali taką szynę pamięci, że mogli wsadzić 6 albo 12. Jedyny powód, dla którego ta karta ma aż tyle pamięci.
Potem się "poprawili" z 8GB modelem, który ma jeszcze mniejszą szynę, przez co wydajność w stosunku do wariantu 12GB spada o około 15%.
Teraz ponownie się "poprawiają" i wszystko poniżej 4070 będzie miało 8GB albo mniej. xD
Może AMD to przewidziało (konsole są na ich podzespołach) i dlatego daje więcej vramu
Nie nie przewidziało tylko do większości kart dają wolniejsze i tańsze pamięci GDDR6 nie GDDR6X
Dramat to jest trochę testów i testerów (może niektórych graczy też) jak wszystko zawsze na "ultra" musi być. Kiedyś często w grach były opcje, które "zabijały" praktycznie każdą kartę i logiczne było, że niektóre opcje przeznaczone są dla absolutnie topowych (a czasem "przyszłych") kart - a obecnie testuje się na "ultra" karty ze średniej półki - i szok, że trafiają się wąskie gardła w niektórych obszarach.
A to jeszcze nie są gry "next gen", te dopiero zaczną wychodzić w tym roku.
To niestety prawda. Można się czepiać optymalizacji, ale nawet perfekcyjne zarządzanie pamięcią czy odpowiednie strumieniowanie danych wielkich cudów nie zdziała, bo koniec końców tekstura w wysokiej rozdzielczości swoje ważyć musi, nawet pomimo kompresji. To zaś sprawia, że opisane w tekście problemy już niebawem przestaną być incydentalne i staną się o wiele bardziej powszechne, zwłaszcza gdy UE 5.0 wejdzie do masowego użycia i zniknie balast w postaci starych konsol. Nvidia dała ciała, bo sprzedaje ultra drogie GPU, które całkiem niedługo mogą wymagać przycinania ustawień w nowych grach. Normalnie można by machnąć na to ręką, ale nie w sytuacji, gdy wydało się na kartę graficzną np. ponad 5200 tysięcy złotych (tyle trzeba dać chociażby za sensowne modele RTX 4070ti, z 12 GB ram). Ot, skutki braku zdrowej konkurencji.
Za dużo rzeczy od jakiegoś czasu jest zwalane na barki VRAM.
Do tego jeszcze sporo danych dubluje się z zwykłym RAM.
Konsole kiedyś miały to ciekawie zoptymalizowane, bo nie dublowało się tyle informacji po kościach RAM.
A ja celowo ustawiam na średnie, może to kogoś zdziwi ale dla mnie ustawienia wysokie czy ultra są po prostu za ,,ostre,, i czuje dyskomfort gdy muszę się przyglądać tylu detalom i wyszukiwać czegoś wzrokiem na monitorze.
Ja daje na Low wszystko, bo wkurwia mnie np. trawa i cienie. Rozprasza mnie i kompletnie nic nie widzę. A kasa w portfelu.
Gry nie mogą mieć więcej tekstur wepchniętych do ramu, zagłębień/szpar w nich, nie może być zbyt wielu wierzchołków. Wtedy nic nie pójdzie po myśli Nvidii bo RT On szlak trafi nawet na 9090ti.
Stąd może nie pchają zbyt dużo ramu - bo "muszą gracze używać RT On kiedyś", ale kto wie, o co może chodzić. Raczej o proporcje tranzystorów do pamięci trzeba dobrze trzymać. Niezbyt można stawiać jeszcze na statyczno-dynamiczne rozwiązania.
Wolałbym zobaczyć alternatywę w nowych grach - dystans renderu/cieni zwiększony za tą samą wydajność vs RT On w grach, albo wyłączone pory dnia i całkiem statyczne światło, ewentualnie ruchome cienie liści (zazwyczaj naturalne cienie liści to też utrapienie dla RT On)
DLSS też wspomaga raczej redukcję potrzebnej pamięci i stawia bardziej na procesor. Dużo zależy od gameengine czy jest w stanie dynamicznie dobierać np. odległość cieni względem fps i tego co się dzieje na ekranie. SSD szybkie dużo nadrabiają braki w ramie, jeśli gameengine dobrze radzi sobie z Level Of Detail.
Jeszcze chwila i osoby zachłanne które chcą wszystkiego co najlepsze z gier mając przy okazji by była najlepsza płynność z minimum 60kl bo mają np za dużo w swoim życiu i nie zagrają np na
40 kl lub z mniejszą ilością ustawień.
Bedą może musieli zacząć wehikuł czasu budować by przenieść się np o 25 lat w przód i złożyć sobie tam sprzęt a potem wrócić do naszych czasów.
No chyba że przeniosą się na konsolę i tam co najwyżej będzie takiej osobie przeszkadzać jeśli jakaś gra będzie miała np tylko do 30-35 kl.
No tak, bo to przecież takie nierozsądne wymagać wysokiej wydajności od karty graficznej za bagatela 5000 złotych i więcej (bo na ten moment tak naprawdę nic poniżej RTX 4070ti, oraz jego odpowiedników z AMD, nie ma sensu)...
Przyczyna małej ilości VRAMu u nVidii: kryptościerwo i zachłanność nVidii.
Tytułem wstępu: nVidia miała w planach wersje z 2x większą ilością pamięci. I było to na tym portalu wspominane: https://www.gry-online.pl/hardware/geforce-rtx-3080-20-gb-i-rtx-3070-16-gb-potwierdzone-przez-gigaby/z01e81a
Jakiś czas temu na ebay trafiły w pełni sprawne prototypy 3080 20GB - i wtedy już nikt nie miał wątpliwości, że takie karty to nie tylko "projekt", ale dało się to zrealizować w praktyce.
Jednak potem wybuchł boom na kopanie kryptośmiecia. Cwaniury z nVidii szybko zauważyły, że górnicy biorą karty całymi kontenerami, a przy tym wcale nie trzeba im dużo vRAMu, 8GB według rozpiski ETH powinno wystarczyć do 2026 roku. I tak oto wersje z podwójną pamięcią zostały skasowane. Za to dobrze, aby ten RAM był szybki - dlatego tak się pchali w GDDR6X.
To było bardzo cyniczne posunięcie: wiedzieli, że boom kiedyś się skończy i rynek zaleje masa kart z koparek. Ale ponieważ mają mało VRAMu, szybko przestaną być wystarczające do nowych produkcji i gracze będą musieli kupować nowe generacje.
Błąd w szacunkach polegał na tym, że boom skończył się znacznie szybciej niż zakładano. Tj. zajęłoby to znacznie dłużej, ale ETH w końcu przeszedł na model PoS i uciął kopanie na kartach graficznych. I nVidia została z furą niesprzedanych kart. Albowiem tak szczerzyli mordy na miliardowe zyski, że wykupili moce produkcyjne w fabrykach chipów - i musieli je wykorzystać. Do tego doszedł boom na uczenie maszynowe.
To z powyższych powodów jesteśmy w obecnym miejscu, tj. z nieprawdopodobnie drogimi kartami nowej generacji i magazynami zawalonymi starą serią, która dopiero teraz, po ponad 2,5 roku od swojej premiery zaczyna pomalutku tanieć.
Tak, nic lepszego od 3060ti obecnie mi nie potrzeba. Gdzieforsy rtx4000 na pewno omijam.
Nie, wystarczy ci spokojnie na 3 lata jak nie dłużej i nie słuchaj ich bo nie wiedzą o czym mówią. Wejdź sobie na google i wpisz - Ankieta dotycząca sprzętu i oprogramowania - 80% ludzi ma 8Gb Vramu i mniej a 20% ma jeszcze ciągle 1, tak 1Gb Vramu. RTX 2060 do obecnej genracji gier na 2 lata ci wystarczy do grania w 1080 na wysokich/Ultra teksturach, RTX 2060 ma 6Gb Vramu. Jak by było tak jak większość zmanipulowanych tu pisze to by producenci gier z torbami poszli a nie bój się bo nie pójdą.
Zmieniłem kilka dni temu rtxa 3070 na RX 7900 xt i teraz widzę ile gry potrafią targać vramu. Taki tlou potrafi ponad 14gb wciągnąć . Szczerze powiem że każda nowa gra przekracza 12gb więc optymalnie jest teraz kupić kartę z 16gb vram. Nawet Apex legenda którego cisnę od lat przy ustawieniach ULTRA pobiera prawie 9gb .
ilość alokacji VRAM nie jest równoznaczna w faktycznym jej wykorzystaniem
Bzdury gadasz i komputerach nie masz zielonego pojęcia, wiesz co to jest alokacja RAMu czy Vramu? Nie wiesz i nie będę ci tłumaczył, RTX 2060 z 6Gb Vramu wystarczyłby ci do grania przez najbliższe 2 lata z teksturami wysokimi bez problemu. Nie wiesz o czym mówisz. NVIDIA dobrze wie jaki % graczy ma 8Gb Vramu i mniej i myślisz że 80% ludzi nie będzie mogło grać w gry bo ma 8Gb i mniej Vramu na kartach? Nie rozśmieszaj mnie. To byłby upadek branży gier. Wejdź sobie na STEAMA i zobacz. Wpisz w google tak - ankieta dotycząca sprzętu i oprogramowania - i sobie zobacz, 80% graczy ma cały czas 8Gb Vram lub mniej a 20% ma 1Gb Vramu, tak 1Gb Vramu dobrze słyszysz.
Moim zdaniem taka 3070 to powinna mieć minmunim 12 GB, skoro 3060 ma wersję 12GB. Nvidia leci typowo biznesowo, to jest wszystko pomyślane tak, żeby wymieniać kartę co 2-3 max lata a nie jak kiedyś co 5. I podobnie, kiedyś jak się nawet wymieniło po tych 2 latach kartę, to skok wydajności był na tyle duży, że czułeś opłacalność zakupu, teraz mamy jakieś 10-15 fps pomiędzy generacjami. Potem się dziwią że rynek PC przynosi straty. Lata temu grano głównie na PC i konsolach, teraz dużo konsumentów im odpłynęło przez mobile, więc próbują sobie to zrekompensować. Wypuszczają generację za generacją okrajając jak najbardziej się da w stosunku
spoiler start
cena/wkurw graczy
spoiler stop
i tak to leci. Jako posiadacz 3070 8GB na razie problemów z ilośćią Vramu nie zauważyłem, ale przy tempie wzrostu wymagań gier, za chwilę będę w minimalnych na mid-endowej karcie z poprzedniej generacji, która swoje kosztowała, trochę słabo.
No mogłaby mieć ale nie ma i nie tragizujmy już tak, sam od miesiąca dopiero mam RTX 3070 od kolegi za 700 zł, za swojego RTX 2060 tyle na OLX wziąłem, i po pierwsze jest to karta, w parze z dobrym procesora, raczej z high-end'u a po drugie do do 1080p wystarczy ci jeszcze spokojnie na 2-3 lata z teksturami na ULTRA. Może w jakichś kilku procentach gier za rok, dwa będziesz musiał zejść z teksturami o oczko w dół i dalej polecisz. I co z tego że zejdziesz z ULTRA na wysokie, różnica w wyglądzie prawie żadna a 1-2Gb Vramu zwolnisz. Każdy by chciał mieć więcej Vramu ale uwierz że i 6Gb Vramu na RTX 2060 pozwoli jeszcze ludziom parę latek cieszyć się grami i to tak w dobrym klatkażu jak na przyzwoitych ustawieniach graficznych.
A w tym samym momencie 32 GB ramu stoi puste.
Problemem nie są karty graficzne tylko marne porty z konsol i ich architektura która nadal oparta jest na współdzielonej pamięci operacyjnej.
Najpierw robi się wersje konsolową, a potem marny pecetowy port który nie korzysta z ramu tylko wszystko ma być wrzucone do vramu.
To chyba logiczne że tak to nie będzie działać.
Niestety taktyka zielonych działa. Sam od 7 lat używałem Strix 1070, która całkiem ładnie się kręciła i jest bardzo chłodna. Od 7 lat miałem 8GB VRAM, a wydajnościowo 1070 po OC (lub najbardziej bazowe 1070 Ti) wypada jak podstawowy model 3060 8GB. Co prawda 3070 i 3070 Ti są wyraźnie mocniejsze i mają szerszą szynę pamięci od 3060, ale kto widział po 7 latach wywalać tyle kasy na kartę z tą samą ilością VRAM? To jest jakaś kpina. Niestety dziala, bo większość zmieniających sprzęt poszła o 1-2 półki wyżej aby mieć te 12GB, albo kupili coś, co już ich zaczyna ograniczać nawet w nienajwyzszej rozdzielczości.
oj widze, że sprzedaż NVIDII cos slabo leci ,żeby sponsorowac takie artykuły..po co,.. ano po tożeby kupowac potworki za $$ z serii 4000
Mogliście się chociaż trochę postarać a tak mamy bezpośrednią kopie materiału hardware unboxed z wczoraj trochę słabo a na dodatek nawet screen z wyników testów jest skopiowany bezpośrednio od nich
Trochę żenada. Nie mogę się doczekać premiery 4060 z 8 GB gdzie się okaże że czasami z 3060 12 GB będzie przegrywać :D
Nie powiem, nawet zastanawiałem się nad porządnym PC ale przy takich przemierach to szkoda nerwów.
Naprawdę mnie wkurza obecny rynek. Nawet gdy wydam absurdalne 4 tysiące na GPU to i tak godzić się muszę na bardzo duże ustępstwa których po prostu nie powinno być w tym przedziale cenowym. Widzę idąc cenowo niżej wcale nie jest lepiej.
Nie opowiadajcie bzdur bo 8Gb Vram do grania w 1080p wystarcza i wystarczy w 2023, 2024 i jeszcze w 2025roku. To jest nakręcanie zysków firmą przez takie strony jak wasza, i wy robicie to świadomie. Mam gdzieś jakieś pojedyncze zwalone gry, które i tak mnie nie interesują, a jak bym chciał zagrać to zagram bez problemu obniżając jakoś tekstur. CoD WARZONE 2.0 w opcjach graficznych ma taką fajną funkcję która pokazuje zużycie Vram w zależności od poziomu jakości tekstur. Są 4 poziomy jakości tekstu, bardzo niski zużywa 1.9Gb, niski 2.2Gb, normalny 3Gb, wysoki 4.5Gb. Ja gram na niskim nie ze względu na to że nie mogę na wysokim tylko nie chcę bo wolę mieć więcej klatek po prostu. Różnica między wysokimi teksturami a niskimi realnie w wyglądzie owych jest nie wielka za to w zużyciu Vram ogromna, a znam wiele przykładów gier gdzie te różnice są jeszcze większe, tak większe w zużyciu Vram a mniejsze w jakości i wyglądzie tekstur. To pokazuje jaką takie artykuły robią ludziom sieczkę z mózgu, obłęd. Od marca 2019 do maja 2023 miałem RTX 2060 z 6Gb Vram i nie brakło mi go nigdy i nigdzie, i miałbym go dalej, gdyby nie kolega który uraczył mnie propozycją nie do odrzucenia proponując RTX 3070 w cenie 700 zł, na OLX w tym czasie najtańsze były po 1500zł. Tak że nie czytajcie tych bzdur bo prawie 66% ludzi, według danych STEAMa dalej gra w 1080p a z 10-12% w jeszcze niższych, tak, w jeszcze niższych a nie wyższych rozdzielczościach, i bez problemu, nawet taki RTX 2060 z 6Gb Vram do obecnej generacji gier w zupełności wam wystarczy, zapewniając wam płynną rozgrywkę jak nie w ultra to w wysokich ustawieniach tak tekstur jak i ogóle wszystkiego innego. RTX 2060 i te 6Gb Vram przy może czasem konieczności obniżeniu tekstur o jedno oczko w dół wystarczy wam na 2-3 lata lekko. Ten co pisał ten artykuł jest pewnie sponsorowany przez firmy które by chciały żebyśmy wydawali grube tysiące złotych na ich nowe karty.