Dawanie Last of Us jako przykład to jakieś nieporozumienie. Ta gra to techniczy potwór, bo jak wytłumaczyć, że gra u mnie lepiej działa przy ustawieniu wszystkich tekstur na High (a tekstur postaci nawet na Ultra!) i nie ma żadnych problemów mimo, że gra komunikuje, że alokuje sobie prawie 9GB VRAMu (na 3060Ti). Tekstury średnie mają za to wieczny problem i są rozmazane jak gówno + wieczne glicze grafiki. Niektóre ustawienia są też mocno zbugowane i gra na Ultra wygląda gorzej niż na High. To co się odwaliło przy premierze Arkham Knight to przy The Last of Bug był mały pikuś.
Hogwarts Legacy - kolejny przykład technicznego bubla, bo jak wytłumaczyć, że na premierę się nie dało a po kilku patchach gra działa dobrze.
Tyle w temacie.
Przyczyna małej ilości VRAMu u nVidii: kryptościerwo i zachłanność nVidii.
Tytułem wstępu: nVidia miała w planach wersje z 2x większą ilością pamięci. I było to na tym portalu wspominane: https://www.gry-online.pl/hardware/geforce-rtx-3080-20-gb-i-rtx-3070-16-gb-potwierdzone-przez-gigaby/z01e81a
Jakiś czas temu na ebay trafiły w pełni sprawne prototypy 3080 20GB - i wtedy już nikt nie miał wątpliwości, że takie karty to nie tylko "projekt", ale dało się to zrealizować w praktyce.
Jednak potem wybuchł boom na kopanie kryptośmiecia. Cwaniury z nVidii szybko zauważyły, że górnicy biorą karty całymi kontenerami, a przy tym wcale nie trzeba im dużo vRAMu, 8GB według rozpiski ETH powinno wystarczyć do 2026 roku. I tak oto wersje z podwójną pamięcią zostały skasowane. Za to dobrze, aby ten RAM był szybki - dlatego tak się pchali w GDDR6X.
To było bardzo cyniczne posunięcie: wiedzieli, że boom kiedyś się skończy i rynek zaleje masa kart z koparek. Ale ponieważ mają mało VRAMu, szybko przestaną być wystarczające do nowych produkcji i gracze będą musieli kupować nowe generacje.
Błąd w szacunkach polegał na tym, że boom skończył się znacznie szybciej niż zakładano. Tj. zajęłoby to znacznie dłużej, ale ETH w końcu przeszedł na model PoS i uciął kopanie na kartach graficznych. I nVidia została z furą niesprzedanych kart. Albowiem tak szczerzyli mordy na miliardowe zyski, że wykupili moce produkcyjne w fabrykach chipów - i musieli je wykorzystać. Do tego doszedł boom na uczenie maszynowe.
To z powyższych powodów jesteśmy w obecnym miejscu, tj. z nieprawdopodobnie drogimi kartami nowej generacji i magazynami zawalonymi starą serią, która dopiero teraz, po ponad 2,5 roku od swojej premiery zaczyna pomalutku tanieć.
A ja mam tylko 10gb :C
Wystarczy przesunać suwak tekstur poziom nizej. Róznice rzucająco sie na tyle w oczy rzuca sie dopiero na opcjach "średnich"
Poza tym to tylko pokazuje jak olano optymalizacje, na konsolach jest 16gb współdzielonej pamięci i jakoś to działa i wyglada a na PC masz 8GB na same tekstury i za mało. Przykład z RE4 to te tekstury te hight 0,5-8 to już chyba skalowanie sztuka dla sztuki bo różnic strzelam praktycznie nie widać.
CIekawe czy zacznie sie moda na mody z paczkami tekstur ale tym razem nie zwiększające a odchudzajace ale zarazem tak samo dobrymi teksturami.
Ja tam ze swojego RTX2060 jestem super zadowolony. Na razie w to co gram, chula sobie spokojnie w najwyższych możliwych ustawieniach. Gdy będzie trzeba, to zejdę z detalami w dół, uruchomię grę w oknie w rozdzielczosci mniejszej niż natywna i dalej będę cieszył się grami.
Między Ultra, a Wysokimi nie ma większych różnic. Często w grach Ubisotfu bawiłem się suwakami i patrzyłem na obrazku jak zmienia się grafika. Wiele opcji poleciało na średnie/wysokie bo kompletnie nie widziałem różnicy tylko leciutki lifting (o ile to dobre słowo) na korzyść wyższych ustawień.
Cienie można zawsze śmiało wrzucić na średnie i mamy zastrzyk fps, a ich wygląd jest lekko bladszy, na ultra mamy cienie ciemniejsze.
Pamiętam, że kiedyś do badziewnych kart dawali dużo vram, które przy tak słabych kartach nigdy nie dało się wykorzystać i reklamowali to jako grafika 2 giga.
Używanie gównianie zoptymalizowanych gier jako argumentów jest słabe. Mi tam re 2 i re 3 chodziły bez problemu na 1070 z 8GB. Re 2 to chyba nawet na 970 ogrywałem gdzie realnie szybkiej pamięci było 3GB - i śmigało to w 1080p na high.
Poza tym w większości gier różnica w teksturach extreme vs high jest żadna. Chodzi jedynie o redukcję buforowania - potencjalnie mniejszy stutter. Jeżeli gra jest dobrze zrobiona to nie ma to jednak znaczenia.
Spadek jakości zaczyna się dopiero przy medium, a czasem nawet dopiero low. Czy gracie na high 0.5 czy high 4.0 - zawsze tekstury będą ostre.
Rozdmuchany problem. Nawet 3070 mało której grze zapewni taką wydajność żeby opłacało się odpalać 1440p na extreme.
Dopiero jakiś czas temu wymieniłem starucha GF 650 na GF 1660 z 6GB vRAM i nadal mam w co grać. Na razie lepsze mi nie potrzebna (mam pilniejsze wydatki) i jakoś nie czuję się gorszy mimo, że tutejsza populacja będzie mnie chciała przekonać, że jest inaczej...
A to jeszcze nie są gry "next gen", te dopiero zaczną wychodzić w tym roku.
To niestety prawda. Można się czepiać optymalizacji, ale nawet perfekcyjne zarządzanie pamięcią czy odpowiednie strumieniowanie danych wielkich cudów nie zdziała, bo koniec końców tekstura w wysokiej rozdzielczości swoje ważyć musi, nawet pomimo kompresji. To zaś sprawia, że opisane w tekście problemy już niebawem przestaną być incydentalne i staną się o wiele bardziej powszechne, zwłaszcza gdy UE 5.0 wejdzie do masowego użycia i zniknie balast w postaci starych konsol. Nvidia dała ciała, bo sprzedaje ultra drogie GPU, które całkiem niedługo mogą wymagać przycinania ustawień w nowych grach. Normalnie można by machnąć na to ręką, ale nie w sytuacji, gdy wydało się na kartę graficzną np. ponad 5200 tysięcy złotych (tyle trzeba dać chociażby za sensowne modele RTX 4070ti, z 12 GB ram). Ot, skutki braku zdrowej konkurencji.
Moim zdaniem taka 3070 to powinna mieć minmunim 12 GB, skoro 3060 ma wersję 12GB. Nvidia leci typowo biznesowo, to jest wszystko pomyślane tak, żeby wymieniać kartę co 2-3 max lata a nie jak kiedyś co 5. I podobnie, kiedyś jak się nawet wymieniło po tych 2 latach kartę, to skok wydajności był na tyle duży, że czułeś opłacalność zakupu, teraz mamy jakieś 10-15 fps pomiędzy generacjami. Potem się dziwią że rynek PC przynosi straty. Lata temu grano głównie na PC i konsolach, teraz dużo konsumentów im odpłynęło przez mobile, więc próbują sobie to zrekompensować. Wypuszczają generację za generacją okrajając jak najbardziej się da w stosunku
spoiler start
cena/wkurw graczy
spoiler stop
i tak to leci. Jako posiadacz 3070 8GB na razie problemów z ilośćią Vramu nie zauważyłem, ale przy tempie wzrostu wymagań gier, za chwilę będę w minimalnych na mid-endowej karcie z poprzedniej generacji, która swoje kosztowała, trochę słabo.
Trochę żenada. Nie mogę się doczekać premiery 4060 z 8 GB gdzie się okaże że czasami z 3060 12 GB będzie przegrywać :D
Nie powiem, nawet zastanawiałem się nad porządnym PC ale przy takich przemierach to szkoda nerwów.
Raczej dramat gamedevu na odp... I interesy producentów GPU. Może by jeszcze jakieś nowe coiny podpompować, bo ponoć 4070 nie schodzi... (ale czy na pewno?)
Dramat to jest trochę testów i testerów (może niektórych graczy też) jak wszystko zawsze na "ultra" musi być. Kiedyś często w grach były opcje, które "zabijały" praktycznie każdą kartę i logiczne było, że niektóre opcje przeznaczone są dla absolutnie topowych (a czasem "przyszłych") kart - a obecnie testuje się na "ultra" karty ze średniej półki - i szok, że trafiają się wąskie gardła w niektórych obszarach.
Za dużo rzeczy od jakiegoś czasu jest zwalane na barki VRAM.
Do tego jeszcze sporo danych dubluje się z zwykłym RAM.
Konsole kiedyś miały to ciekawie zoptymalizowane, bo nie dublowało się tyle informacji po kościach RAM.
Mogliście się chociaż trochę postarać a tak mamy bezpośrednią kopie materiału hardware unboxed z wczoraj trochę słabo a na dodatek nawet screen z wyników testów jest skopiowany bezpośrednio od nich
Naprawdę mnie wkurza obecny rynek. Nawet gdy wydam absurdalne 4 tysiące na GPU to i tak godzić się muszę na bardzo duże ustępstwa których po prostu nie powinno być w tym przedziale cenowym. Widzę idąc cenowo niżej wcale nie jest lepiej.
Ech, pamiętam jak w okresie 2011 - 2013 miałem GTX 570 z 1GB VRAM i to było wtedy za mało do zmodowanego Skyrima ;)
Zależy kto w jaką rozdzielczość gra, W FHD to nie problem. Nie gram, i nie będę raczej nigdy grać na QHD i wyżej. No dobra, na QHD pewnie kiedyś tak.
Ogólnie z zasady najpierw schodzę na średnie detale, a potem na 30 klatek ale znowu wysokie. Nie schodzę na średnie i 30 FPS albo na niskie wcale. Unity był dla mnie wyjątkiem, i grało się źle. O ile sama grafika jako tako na niskich da się grać, ale tekstury są obrzydliwe.
I tak się zastało wszystko wystarczy zobaczyć wstecz lata 2001-2011 z 32Mb do 2GB vram to ogromny przeskok graficzny a przyrost co praktycznie 2 lata.
W latach 2012- 2022 praktycznie z 2Gb wzrosło zaledwie do 8Gb w wymaganiach.
Widać też było że rewolucji graficznych nie było tak dużych.
Na dzisiejsze czasy jeśli ktoś che kartę na 3-4 lata to bym kupował raczej 16Gb vram
Nie tak dawno pisałem że zamierzam kupić RX6700Xt ale ten ma 12Gb i raczej kupię 6800 z 16GB raczej i tak NVIDIA w tej cenie nie ma nic z 16Gb
Jednak NVIDIA nieźle wrobiła w kona posiadaczy RTX3070 to świetne karty mogły by się jeszcze nadawać z 2-3 lata na Ultra jednak 8Gb Vram to nieporozumienie.
RTX 3060 – 8/12 GB
RTX 3060 Ti – 8 GB
RTX 3070 – 8 GB
RTX 3070 Ti – 8 GB
RTX 3080 – 10/12 GB
NVIDIA dają VRAM w takiej ilości GB dla karty z wyższej półki, kiedy na sklepowej półce są dostępne karty RTX 3060, co mają aż 12 GB VRAM (taki jak mój) do wyboru. Po prostu EPIC FAIL. Lol!
Nie ma jak zrobić biedne graczy w konia, co nie znają się na rzeczy i wyciągnąć od nich jak najwięcej pieniędzy.
Może AMD to przewidziało (konsole są na ich podzespołach) i dlatego daje więcej vramu
A ja celowo ustawiam na średnie, może to kogoś zdziwi ale dla mnie ustawienia wysokie czy ultra są po prostu za ,,ostre,, i czuje dyskomfort gdy muszę się przyglądać tylu detalom i wyszukiwać czegoś wzrokiem na monitorze.
Zmieniłem kilka dni temu rtxa 3070 na RX 7900 xt i teraz widzę ile gry potrafią targać vramu. Taki tlou potrafi ponad 14gb wciągnąć . Szczerze powiem że każda nowa gra przekracza 12gb więc optymalnie jest teraz kupić kartę z 16gb vram. Nawet Apex legenda którego cisnę od lat przy ustawieniach ULTRA pobiera prawie 9gb .
A w tym samym momencie 32 GB ramu stoi puste.
Problemem nie są karty graficzne tylko marne porty z konsol i ich architektura która nadal oparta jest na współdzielonej pamięci operacyjnej.
Najpierw robi się wersje konsolową, a potem marny pecetowy port który nie korzysta z ramu tylko wszystko ma być wrzucone do vramu.
To chyba logiczne że tak to nie będzie działać.
Niestety taktyka zielonych działa. Sam od 7 lat używałem Strix 1070, która całkiem ładnie się kręciła i jest bardzo chłodna. Od 7 lat miałem 8GB VRAM, a wydajnościowo 1070 po OC (lub najbardziej bazowe 1070 Ti) wypada jak podstawowy model 3060 8GB. Co prawda 3070 i 3070 Ti są wyraźnie mocniejsze i mają szerszą szynę pamięci od 3060, ale kto widział po 7 latach wywalać tyle kasy na kartę z tą samą ilością VRAM? To jest jakaś kpina. Niestety dziala, bo większość zmieniających sprzęt poszła o 1-2 półki wyżej aby mieć te 12GB, albo kupili coś, co już ich zaczyna ograniczać nawet w nienajwyzszej rozdzielczości.
Nie opowiadajcie bzdur bo 8Gb Vram do grania w 1080p wystarcza i wystarczy w 2023, 2024 i jeszcze w 2025roku. To jest nakręcanie zysków firmą przez takie strony jak wasza, i wy robicie to świadomie. Mam gdzieś jakieś pojedyncze zwalone gry, które i tak mnie nie interesują, a jak bym chciał zagrać to zagram bez problemu obniżając jakoś tekstur. CoD WARZONE 2.0 w opcjach graficznych ma taką fajną funkcję która pokazuje zużycie Vram w zależności od poziomu jakości tekstur. Są 4 poziomy jakości tekstu, bardzo niski zużywa 1.9Gb, niski 2.2Gb, normalny 3Gb, wysoki 4.5Gb. Ja gram na niskim nie ze względu na to że nie mogę na wysokim tylko nie chcę bo wolę mieć więcej klatek po prostu. Różnica między wysokimi teksturami a niskimi realnie w wyglądzie owych jest nie wielka za to w zużyciu Vram ogromna, a znam wiele przykładów gier gdzie te różnice są jeszcze większe, tak większe w zużyciu Vram a mniejsze w jakości i wyglądzie tekstur. To pokazuje jaką takie artykuły robią ludziom sieczkę z mózgu, obłęd. Od marca 2019 do maja 2023 miałem RTX 2060 z 6Gb Vram i nie brakło mi go nigdy i nigdzie, i miałbym go dalej, gdyby nie kolega który uraczył mnie propozycją nie do odrzucenia proponując RTX 3070 w cenie 700 zł, na OLX w tym czasie najtańsze były po 1500zł. Tak że nie czytajcie tych bzdur bo prawie 66% ludzi, według danych STEAMa dalej gra w 1080p a z 10-12% w jeszcze niższych, tak, w jeszcze niższych a nie wyższych rozdzielczościach, i bez problemu, nawet taki RTX 2060 z 6Gb Vram do obecnej generacji gier w zupełności wam wystarczy, zapewniając wam płynną rozgrywkę jak nie w ultra to w wysokich ustawieniach tak tekstur jak i ogóle wszystkiego innego. RTX 2060 i te 6Gb Vram przy może czasem konieczności obniżeniu tekstur o jedno oczko w dół wystarczy wam na 2-3 lata lekko. Ten co pisał ten artykuł jest pewnie sponsorowany przez firmy które by chciały żebyśmy wydawali grube tysiące złotych na ich nowe karty.
Statystyki pokazują że gracze bardzo kochają Nvidię. Sukces serii 3000 i 4000 wynika chyba głównie z tego że gracze uwierzyli że są to świetne karty do grania ze śledzeniem promieni. Większość posiadaczy kart serii 3000 ma pewnie 10 GB lub mniej pamięci VRAM - w tym przypadku karta zielonych do grania z raytracingiem jest równie dobra co Radeony. Przynajmniej tak można sądzić o grach AAA które dopiero będą wychodzić.
Na początku roku składałem komputer. Dobrze, że wziąłem RTX 3060 12 GB, a nie wersje 8 GB.
Te karty maja za malo vramu na obecne standardy jesli wezmie sie pod uwage ile to ciagnie na high / ultra w nowszych grach. Przy podkrecaniu texture quality w re4 re to potrafi ciagnac i 10gb w wymagajacych momentach z rt on i to na karcie z high endu pokroju 3080 z 12gb. Jakbym chcial podwyzszyc jeszcze bardziej to i te 12gb nie wystarczylo by na te same 1080p. Wiec uwazam ze ta ilosc vramu w nowych kartach jest za mala!. Rtx 4050 powinien mieć 10gb, 4050ti 12gb, 4060 16gb, 4060ti 20gb , 4070 24gb, 4070ti 28gb, 4080 32gb, 4090 48gb. Te 16gb w nowym 4080 nie starczy badz starczy ledwo na suwaki mocno w prawo w 4k a tego sie oczekuje po nowych produktach ze do kolejnej generacji bedą mogly bez problemu posłużyć, a się okazuje low-mid-high tier może nie wystarczyć nawet na gry w 1080p. Pierdol się Nvidia za skąpstwo z vramem bo po co dobry rdzeń jeśli nie będziesz miał szansy wykorzystać w pełni jego potencjału.
Moim zdaniem 8gb vram dzisiaj to mało. Sam mam rx6600 z taką ilością pamięci i jest ok ale nie gram tak często na pc, więc tester ze mnie żaden. Ciekawa sytuacja, bo pamiętam, że już w 2015r wychodziły karty z 4gb vram, a to było 8 lat temu a gry co by nie mówić przez te lata podskoczyły graficznie a tekstury coraz bardziej żrą pamięć. W 2023r minimum to karta z 12gb vram i kropka.
Znacząco rozmywa to T(X)AA, przez co nie da się często normalnie patrzeć na to co jest w grze. Praktycznie każda nowa większa gra ma to włączone na najwyższych ustawieniach.
Zmniejszenie rozdzielczości to mały pikuś i problem schodkowanych krawędzi można sobie w pewien sposób poprawić przez MSAA w ustawieniach karty graficznej (jeżeli nie ma w grze).
co ty za glupoty piszesz? jak zmniejszysz rozdzielczosc to bedziesz mial tragiczny obraz, rozmyje ci nawet interfejs. chyba ze masz jakis internal resolution slider w grze ale to pewnie wykorzystuje TAA i tak. nowe gry maja lepiej zaimplementowany TAA i juz nie jest tak rozmazane, no i masz tez dostepna najlepsza forme TAA czyli DLSS. a jak nie uzywasz zadnego rodzaju TAA we wspolczesnych grach to masz masakryczny aliasing, wrecz obraz nie nadaje sie do niczego.
forcowanie MSAA w sterowniku dziala tylko w bardzo starych grach, w nowych nic nie robi. takze pewnie sobie aplikujesz placebo i do tego je tu chwalisz jakie jest fajne wprowadzajac innych w blad, lol. no coz, nie spodziewam sie niczego wiecej po typowym uzytkowniku gola.
Wy tak serio ??? Przecież już jest jedna sieciówka co przy FHD wymaga ponad 14GB VRAM'u ! Ile trzeba w 2023 roku ? No 16GB to jak kupujesz na dłuższy okres, a 12 jak na parę miesięcy i tyle w temacie.
Zarówno Hogwart jak i RE4 działają całkiem spoko na 4GB VRamu wiec nie wiem o co chodzi. Dramat współczesnych kart graficznych, chyba bardziej nieudolności deweloperów.
Gry nie mogą mieć więcej tekstur wepchniętych do ramu, zagłębień/szpar w nich, nie może być zbyt wielu wierzchołków. Wtedy nic nie pójdzie po myśli Nvidii bo RT On szlak trafi nawet na 9090ti.
Stąd może nie pchają zbyt dużo ramu - bo "muszą gracze używać RT On kiedyś", ale kto wie, o co może chodzić. Raczej o proporcje tranzystorów do pamięci trzeba dobrze trzymać. Niezbyt można stawiać jeszcze na statyczno-dynamiczne rozwiązania.
Wolałbym zobaczyć alternatywę w nowych grach - dystans renderu/cieni zwiększony za tą samą wydajność vs RT On w grach, albo wyłączone pory dnia i całkiem statyczne światło, ewentualnie ruchome cienie liści (zazwyczaj naturalne cienie liści to też utrapienie dla RT On)
DLSS też wspomaga raczej redukcję potrzebnej pamięci i stawia bardziej na procesor. Dużo zależy od gameengine czy jest w stanie dynamicznie dobierać np. odległość cieni względem fps i tego co się dzieje na ekranie. SSD szybkie dużo nadrabiają braki w ramie, jeśli gameengine dobrze radzi sobie z Level Of Detail.
Jeszcze chwila i osoby zachłanne które chcą wszystkiego co najlepsze z gier mając przy okazji by była najlepsza płynność z minimum 60kl bo mają np za dużo w swoim życiu i nie zagrają np na
40 kl lub z mniejszą ilością ustawień.
Bedą może musieli zacząć wehikuł czasu budować by przenieść się np o 25 lat w przód i złożyć sobie tam sprzęt a potem wrócić do naszych czasów.
No chyba że przeniosą się na konsolę i tam co najwyżej będzie takiej osobie przeszkadzać jeśli jakaś gra będzie miała np tylko do 30-35 kl.
oj widze, że sprzedaż NVIDII cos slabo leci ,żeby sponsorowac takie artykuły..po co,.. ano po tożeby kupowac potworki za $$ z serii 4000
"Zmniejszenie rozdzielczości jest, według mnie, ostatecznością – ustawienie niższej rozdziałki niż natywna dla danego monitora znacząco rozmyje obraz."
Znacząco rozmywa to T(X)AA, przez co nie da się często normalnie patrzeć na to co jest w grze. Praktycznie każda nowa większa gra ma to włączone na najwyższych ustawieniach.
Zmniejszenie rozdzielczości to mały pikuś i problem schodkowanych krawędzi można sobie w pewien sposób poprawić przez MSAA w ustawieniach karty graficznej (jeżeli nie ma w grze).
Nvidia 4060 > nowe gry AAA fullhd ustawienia normal 60+ klatek
Trochę starsze gry AAA oraz reszta fullhd ultra/wysokie ustawienia 60+ klatek lub 1440p 40/60+ klatek zależności od gry.
Nvidia 4070 Nvidia informuje, że jest to karta do 1440p wiec jest ok, nawet przy niższych ustawieniach, bo gry i tak dobrze wyglądają, nawet na normalnych ustawieniach.
4080/4090 > 4k ustawienia wszelakie :)
Poza ceną to jest ok i nie widzę tutaj problemu poza graczami, którzy sami sobie problemy szukają.