Też mi niewinna! Przecież to już od Cywilizacji IV wiadomo że mają taką politykę i że trzeba poczekać na minimum dwa duże dodatki.
Mój RTX 3080 TI daje radę w 4K w 30-60 FPS, jedyny problem z VRAM występuje w tym optymalizacyjnym potworku - Hogwarts Legacy, poza tym bardziej doskwiera słabość w pathracingu (Cyberpunk, Alan Wake 2).
Jeśli tak się nadaje do 4K to włączcie Cyberpunka albo Alan Wake z path tracingiem! ??
7900 XTX to przegrywa nawet z 3090 TI gdy gramy w najbardziej wymagające gry na maksymalnych ustawieniach (czyli także z ray tracingiem), a do tego na 3090 TI możemy włączyć DLSS w trybie jakość, gdzie gra nic nie traci na jakości obrazu, w przeciwieństwie do FSR.
Ja Ciebie rozumiem ziomuś, pamiętam jak mnie premiera Wiedźmina 3 zastała z GTXem 460M. I analogicznie jak ty teraz wychodziłem z założenia, za po co mi ustawienia większe niż low, po co mi rozdzielczość większa niż 720p...
No i jak ten świat bezsensownie wygląda na początku rozgrywki. Gdzie np. w jednej prowincji wszyscy mają poziom 5, a w innej 50, z tej drugiej największy słabeusz mógłby bez problemu podbić tą pierwszą, przecież taki konstrukt świata niema żadnego sensu, twórcy powinni całkiem odejść od tak durnego skalowania i różnicowania poziomów.
Gra bardzo fajna, ale ma jedną wielką wadę która znacznie pogarsza komfort rozgrywki, mianowicie totalnie beznadziejnie rozwiązane skalowanie poziomów. Od pewnego momentu awans na wyższy poziom tylko osłabia twoją postać wobec świata. NPC wszyscy jak jeden mąż (i żona) ten awansują, ale niestety twoje zbroje i bronie już nie, przez co z każdym poziomem stajesz się coraz słabszy a nie mocniejszy. Trzeba wydawać bajońskie sumy, gargantuiczne ilości surowców by ulepszyć broń i móc dalej utrzymać się na tym samym poziomie wobec otaczającego świata. Niema żadnego sensu wykonywać żadnych dodatkowych misji, trzeba unikać jak ognia wszelkich XP i jak się da opóźniać awanse (tak gdzieś od 50 poziomu), bez porównania cenniejsze są surowce i kasa na ulepszanie uzbrojenia.
Gra bardzo fajna, ale ma jedną wielką wadę która znacznie pogarsza komfort rozgrywki, mianowicie totalnie beznadziejnie rozwiązane skalowanie poziomów. Od pewnego momentu awans na wyższy poziom tylko osłabia twoją postać wobec świata. NPC wszyscy jak jeden mąż (i żona) ten awansują, ale niestety twoje zbroje i bronie już nie, przez co z każdym poziomem stajesz się coraz słabszy a nie mocniejszy. Trzeba wydawać bajońskie sumy, gargantuiczne ilości surowców by ulepszyć broń i móc dalej utrzymać się na tym samym poziomie wobec otaczającego świata.
Ludzie kupujcie te AMD, bo jak NVIDIA nie będzie miała konkurencji to będzie jeszcze bardziej odwalać z tymi chorymi cenami!
Ale to bardziej kwestia wysokiej wydajności RTXa 4080. RTX 4070 ma 12GB, ale jakby dać tam 16 to nic nie pomoże bo i tak w grach zatykać będzie niedostateczna liczba rdzeni a nie brak tych 4GB.
Raczej pojemność dysków SSD jest tu problemem. Żeby wykorzystać tę 64 GB VRAMu bez wyraźnego wzrostu wydajności GPU i przepustowości, to trzebaby implementować jakieś tekstury UHD które zajmowałyby w okolicach terabajta na dysku.
12 GB spokojnie starczy do 1440p, w nowych grach kupione dziś GPU prędzej będzie niedomagać z powodu niedostatecznej wydajności niż braku VRAM. Ja mam wciąż leciwego 3080 TI, gram w 4K i tylko w Hogwarts Legacy na maksymalnych ustawieniach gra dławi mi się z powodu irracjonalnych wymagań co do VRAMu, ale to jest 12GB w 4K.
Ja kiedyś w komentarzach na YouTube namawiałem ludzi by kupowali Radeony, tak żeby NVIDIA czuła mocniejszy oddech konkurencji na plecach, obniżyła ceny i żebym ja mógł taniej kupić RTXa, to mnie niektórzy skrytykowali za amoralną postawę, że świadomie wciskam ludziom szrot.
Mój tata kilka lat temu oddał na złom dwa w pełni sprawne komputery Meritum, w tym jeden unikatowy z przerobionym ROMem, a dziś takie chodzą na po kilka tysięcy.
Jak wszedłem w posiadanie Dune II to jeszcze nawet myszki nie miałem, więc początkowo grałem w tą grę tylko przy użyciu klawiatury, dziś nie do pomyślenia by tak grać w RTSy. ??
Niewydolny RT, o Path tracingu wogóle niema mowy, FSR odstające znacznie od DLSS, wciąż nie wiadomo jak im wyjdzie generator klatek. Karta zupełnie nieprzyszłościowa.
Jeśli ktoś był cały czas zwolennikiem Radeonów to spoko. Ale jeśli kogoś do zakupu Radeona przekonał właśnie Starfield to jest to wyjątkowo szkodliwe podejście i nagradzanie AMD za ich podłe brudne zagrywki. W Starfielda nie da się grać na Intelu, bo Bethesda i AMD celowy zdeoptymalizowali grę po te GPU. A od NVIDII AMD wypada lepiej tylko dlatego, że AMD zablokowała DLSS. Już nawet nie wspominając że ciężka patrologia jest nie umieszczenie RT w 2023, a tak się "dziwnie" złożyło że akurat RT dużo lepiej chodzi na RTXach i ARCah niż na RXach.
Tak więc nie kupujcie Radeonów specjalnie pod tą grę!