Recenzje GeForce RTX 3080 – czy AMD powinno zostać przy rowerach?
"czy AMD powinno zostać przy rowerach?"
Praca dziennikarza wymaga chociaż udawania że jest się neutralnym panie qjin, bo nikt nie ma ochoty czytać huraoptymistycznych laurek kogoś kto nawet nie próbuje relacjonować na chłodno ;)
980 vs 1080 było to samo duży przyrost wydajności żal mi posiadaczy RX 20xx nVidia zrobiła z nich beta testerów RT.
Konkurencja jest zawsze potrzebna.
Myślałem, że RDR2 w 4K na maksymalnych ustawieniach, wyciągnie minimum 60FPS. /:
980 vs 1080 było to samo duży przyrost wydajności żal mi posiadaczy RX 20xx nVidia zrobiła z nich beta testerów RT.
Nie rozumiem Twojej polemiki. Kazda nowa funkcja jest weryfikowana przez uzytkownikow. Jezeli jest kontynuowana w nowych kartach to znaczy, ze jest popyt. Ba RT ma byc tez na nowych konsolach. Ja karte z RT kupilem w zeszlym roku. Miedzy innymi RT przesadzil o zakupie kart Nvidi. Nic nie stracilem bo praktycznie wszystkie ceny na podzespoly poszly w gore. Byl moment, ze po pol roku sprzedajac swoja karte bym jeszcze zarobil. No i kazdy kto odpalil Shadow of The Tomb Raider w RT i z HDR podnosil szczeke z podlogi. Zwlaszcza poziomy dziejace sie w dzungli. Praca swiatla w tej grze to cos niesamowitego i naprawde robi wrazenie. Zwlaszcza jak sie wylaczy ten efekt to od razu rzuca sie to w oczy. To samo w Metro, Control. Oczywiscie moglem przycebulowac na 970 i dopiero teraz zmieniac. No, ale w tym czasie ogralem mnostwo tytulow, ktore na tej 970 by sie dusily i musialbym ostro schodzic z ustawieniami. Malo tego mam Oculusy i ogralem tez Half Life Alyx +inne gry na VR. Widzisz ty wymyslasz jakies pierdoly o testerach , a ja po prostu ogrywam gry, ktore Ty moze za pare lat zobaczysz z RT i w okularach VR.
TLDR, Nie czuje sie, ze cos stracilem bo kupilem gre/gpu z RT. Wrecz przeciwnie bo mialem mozliwosc na wlasne oczeta sprawdzic ta technologie.
PS. Moja karte 2xxx sprzedam i zakupie 3xxx super albo juz 4xxx.
nie zazdrość bo to nieładnie, kto kupił ten korzystał a kto nie kupił to lizał lody przez witrynę :)
Szczególnie ci, którzy kupili to pół roku temu. Wyszaleli się, a teraz desperacko próbują to sprzedać. A ci co nie kupili maja zaoszczędzone parę tysięcy.
Wiadomo, jak kogoś stać, na to by kupować każdą serię po kolei, no to fajne przeżycie, ograł sobie na fulu co tam wyszło po drodze i w zasadzie nie ma rozmowy. Gorzej z tymi, którzy to kupili z myślą o przyszłości, chociaż chyba ich dużo nie było, patrząc po statystykach Steam.
Zobaczymy co ten nowy Mistrz pokaże przy grach korzystających z Ureal Engine 5 w 4K
chwalenie się wydajnością w starszych silnikach mnie nie interesuje gdy zbliża się nowa generacja konsol i nowe bardziej wymagające gry, tym bardziej benchmarki pokazują że na przykład Bordelands 3 ten RTX nie jest w stanie utrzymać 60 FPS .
Jest to pewne że nowy silnik będzie miał jeszcze większe wymagania.
W piątek będą wymagania Cyberpunk 2077.
https://mobile.twitter.com/CyberpunkGame?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1306247387778875393%7Ctwgr%5Eshare_3&ref_url=https%3A%2F%2Fwww.ppe.pl%2Fnews%2F149873%2Fcyberpunk-2077-wymagania-sprzetowe-zostana-ujawnione-wkrotce-cd-projekt-red-zmienia-plany.html
Zobaczymy jak nowe karty sobie z nim poradzą.
UE5 ma mieć jakiś swój RT więc może to nie będzie aż tak zasobożerne.
Połącz kropki:
Unreal Engine należy do Epic Games.
Epic Games jest także twórcą Fortnite.
Ostatnio w Fortnite było wydarzenie, w którym bezpośrednio w grze pojawił się model nowej karty graficznej AMD.
Nie zdziwiłbym się, gdyby UE było specjalnie sabotowanie pod karty zielonych.
Jedyne do czego dobijesz po OC to limit mocy, wersje FE prawie się nie kręcą. Można osiągnąć max 5% dodatkowych średnich FPS ale 1% i 0.1% min lecą na łeb jak karta odbija się od limitu mocy.
U Hydro to nawet Control z włączonym Ray Tracingiem trzymał stałe 60 fpsów w 4K, co tam jakiś RDR2. Po prostu wszystko. Na 1080TI zresztą też. I na wszystkich innych (które kupował Hydro). Gdy Hydro odpala kalkulator to tam też...
Nie, nie powinno. Rowery "robi' wujowe.
"czy AMD powinno zostać przy rowerach?"
Praca dziennikarza wymaga chociaż udawania że jest się neutralnym panie qjin, bo nikt nie ma ochoty czytać huraoptymistycznych laurek kogoś kto nawet nie próbuje relacjonować na chłodno ;)
Takie docinki są efektem udanego marketingu nvidii i nakręcenia konsumentów na serię 3000. Oczywiście nie ukrywam, że wydajność/cena wypada całkiem korzystnie w tej generacji i gdyby nie to, że poluję na laptopa, może i bym się skusił na taką 3060 desktop.
Tak czy owak, takie sytuacje to nic nowego jeśli chodzi o ten dziwaczny stosunek GOL'a do amd, natomiast jeśli chodzi o firmy intel, nvidia zdarzyło się czasem, jak newsy z negatywnym wydźwiękiem o nich były odpowiednio przeredagowane, bądź też usuwane. Przykład z intelem (usunięty oryginał u góry i zmieniony na news u dołu) ------->
Wystarczy spojrzeć na oba nagłówki, by się domyśleć o co się rozchodzi.
Szczerze to po tych wszystkich zapowiedziach jestem zawiedziony. Po 8 latach przerwy zamierzałem wrócić do grania na pc. Myślałem o 1440p 144hz. I co zobaczyłem? Że na grach z poprzedniej generacji, 3080 ma problem zrobić 100+ fps, przy rdr2 ledwo dobija do 80. Gry na nową generację zaczną się wkrótce pojawiać coraz częściej. Zaraz się okaże, że będzie problem z 60 fpsami. Wstrzymam się co najmniej do premiery Cyberpunk 2077, zobaczymy jak tam z wydajnością.
Spoko. Kupisz nową konsolę to dostaniesz mocarne 30fpsów na start.
No RDR2 ma skopaną optymalizację, po obniżeniu ustawień z Ultra na High wymieszanym z Ultra gra dobija do 130FPS a jakość jest prawie taka sama. Mimo wszystko warto zaczekać - w okolicach premiery Cyberpunka na rynku GPU powinno być ciekawej - większość nowych kart od Nviidi i od AMD powinna być wtedy dostępna.
Hej, to zależy od rodzaju gry i celów developerów przy jej produkcji. Jeśli celem developerów jest głównie wysoka jakość, szczegółowość światów gry oraz np. otwartość i postawienie na single player, to automatycznie ogranicza wysoką liczbę FPS ponad to, co sobie obrano za cel początkowy.
Jeśli celem developerów jest wysoka liczba FPS i niski input lag (np. w kompetytywnych grach sieciowych) to wtedy z tym nie ma żadnych problemów żeby nawet uzyskiwać 300+ fps w nowych tytułach (co zostanie odpowiednio okupione gorszą szczegółowością map/światów i innymi technicznymi i projektowymi ograniczeniami).
Zawsze jest coś za coś. Nie można dostać czegoś z niczego. Możliwości obliczeniowe sprzętu są skończone i developerzy muszą je rozsądnie wykorzystywać.
Polecam poczytać sobie trochę o game designie w jakichś książkach (np. The Art of Game Design), wtedy można spojrzeć na całą sprawę okiem developera "od kuchni". Poczytać sobie o wszystkich tych założeniach i ograniczeniach, z którymi developerzy się muszą stykać na każdym etapie produkcji i które muszą respektować.
Większość gier jest projektowana pod konsolowe 30 i 60 fps. Komputery dają z siebie co mogą w takich projektach, ale nie należy oczekiwać od developerów, że zmienią swoje założenia projektowe tylko dlatego, że ktoś chce sobie pograć w 144Hz+ w np. openworldowego sandboxa bo takie ma wymagania i koniec. Jeśli masz takie wymagania, to polecam poczekać kolejne 10 lat. Być może wtedy pojawią się sprzęty, które uciągną to na co masz ochotę w fpsie w którym chcesz. Z tym, że wtedy możesz już zmienić monitor na np. 240Hz+ i Twoje wymagania mogą znowu wzrosnąć. Dostrzegasz błędne koło, w które sam się pakujesz?
Pozatym wyniki kart najczęściej podawane są w maksymalnych detalach (które z samego założenia i nawet po samej nazwie mają wyciągać ze sprzętu wszystko co się da bez kompromisów). Często obniżenie ustawień potrafi mocno zwiększyć wydajność. Bo niestety, jeśli masz wymagania, to są też koszty tych wymagań. W tym wypadku kosztem większej ilości FPS będzie niższa jakość grafiki. Coś za coś.
Kolejny troll po resecie konta? Powinni was banować po ip.
Dostanę 30 fps w 4k za 2.5k. Co wyobraź sobie słabo mnie urządza, dlatego przy odłożonych 10k spodziewałem się po zapowiedziach, że pogram sobie w 2k 60-100 fps na grach nowej generacji. Po testach gier z poprzedniej, zacząłem wątpić.
Oczywiście, że nie spodziewam się 144 fps w sandboxach nowej generacji. Ale jeśli karta nie miażdży gier z poprzedniej, gdzie ps4 miało 1,84 teraflopa a ps5 ma ich 10, to zaczynam się obawiać czy te gry będą 60+ fps. Dlatego też, zamierzam się wstrzymać z zakupem, zobaczyć jak wypadnie w testach cyberpunk, czy nvidia nie wypuści 3080 TI etc.
Po Twoich komentarzach widzę wciąż, że nie do końca rozumiesz prezentowane zagadnienia. Warto sobie poczytać o game designie. Jak to zrozumiesz, to może odkryjesz ciekawe zależności między sprzętem a grami i odejdzie Ci trochę trosk i czekania w tym procesie.
Tutaj -> https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-amd-3900-xt-vs-intel-10900k/27.html <- ciekawe zestawianie w nowych grafach w 4K. Jaki topowy proc AMD / Intel jest lepszy w grach.
I na konsoli za niecałe 2,5k zł ma być 4k i 120 fps ? Gdzie RTX 3080 w rdr2 ma 80 fps w 1440p. Jak każda nowa gra nie będzie korzystała z DLSS to cienko widzę te 4k60fps na ultra na 3080
Na konsolach masz inne ustawienia graficzne. Ustawienia graficzne mają bardzo duże znaczenie. W testach kart wszystko maksują gdzie się da, bez kompromisów. Ustawienia maksymalne w grach są projektowane tylko pod najszybsze karty na rynku w momencie tworzenia gry. Czasami nawet pod sprzęt przyszłości. Zadziwiające, jak szybko ludzie o tym zapominają.
Ano, przyjęło się że konsolowe ustawienia, to te średnie. Chociaż na początek generacji, to można liczyć że jakby obecne wysokie. Chyba, że znowu pójdą w detale, a płynność zostanie w tyle, wtedy witaj liczbo 30.
Producenci konsol zawsze sprzedawali konsolę poniżej kosztów produkcji i nadrabiali na sprzedaży certyfikatów do nich. Więc rzeczywisty koszt konsoli jest wyższy nic 2.5k zł.
I jak się domyślam wedle tych testów, KAŻDY dysponuje oczywiście AiO, każdy kto chce/kupił tego RTX-a.... A co z chłodzeniami powietrznymi procków? Dlaczego nikt nie zrobił chyba najważniejszego testu!? Przecież wiadomo było, od zapowiedzi tych kart, że będzie waliła gorącem w wentylatory na cooler cpu. Skoro karta nagrzewa się do tych 72-76 stopni, to procesor również będzie miał tyle, o ile nie więcej.
Nie ufam chłodzeniom wodnym, nie mam na to miejsca w obudowie (mam układ "komina" - 90 stopni) i nie mam zamiary dopłacać do interesu, skoro zapłaciłem już za arctic freezera 33 esports coś tam, a teraz za Noctue NDH15 tylko po to, żeby nowy RTX mógł działać prawidłowo w obudowie.
Skoro karta nagrzewa się do tych 72-76 stopni, to procesor również będzie miał tyle, o ile nie więcej.
To tak nie działa - powietrze przelatujące przez ten radiator nie ogrzeje się nagle do 70C. Myślę że temperatura procesora nie podniesie się więcej niż o 2-3C - o ile w ogóle coś się zmieni. Jak masz "klasyczne" chłodzenie GPU i dobry przepływ powietrza w obudowie to i tak większa część powietrza wyrzucanego przez GPU jest wciągana przez chłodzenie procesora albo ponownie wciągana przez GPU.
Testy będą, GamersNexus na pewno taki test zrobi, myślę że jutro albo pojutrze będzie film z takiego testu.
Z jednej strony karta jest fantastyczna z drugiej strony NV wykonała królewską zagrywkę i nikt tego nie widzi. 3080 to nadal nie jest karta do 4K, w wielu grach ledwo potrafi utrzymać 40+ fps, zresztą 3090 tu niewiele zmieni bo będzie 50+. Niemniej 3080 została pozbawiona złącza NVLink i przez to jest została tylko optymalną kartą do 1440p. Niestety wszyscy którzy marzyli o graniu w 4K przy 60+ lub i/więcej (120fps) muszą tym razem wysupłać 14000 PLN na zakup dwóch 3090. Mój zasilacz jak mu powiedziałem że dostanie parę dwóch 3090 to aż "zapłakał ze szczęścia", a CPU westchnęło "dobrze że idzie zima".
Jedyny sensowny komentarz.
3080 to nadal nie jest karta do 4K
Pełna zgoda
Generalnie ta generacja kart graficznych jest do skipnięcia.
Jak się zjedzie z detalami to będzie 60+ fpsów.
Blizej 4 tysiecy. Ceny na Founders sa niskie bo samych kart bedzie malo. Inni producenci juz mowia o wyzszych cenach.
"3080 to nadal nie jest karta do 4K, w wielu grach ledwo potrafi utrzymać 40+ fps" prosił bym o dokładniejsze dane, źródło tych informacji albo coś. Bo zaprzeczyłeś wszystkim testom powyżej tak trochę na sucho.
Chyba że miałeś na myśli to nie jest karta do 4K z RTX bez DLSS to mogę się zgodzić ale do samego 4K jak najbardziej ona się nadaje w mojej opinii i testy to potwierdzają.
A może to spisek twórców gier że robią za małą zoptymalizowane i za ładne gry żeby w 4k wyciągały powyżej tych magicznych 60-fps
Łatwiej i taniej zmienić software niż hardware bo inaczej byśmy już dawno mieli procesory szybsze niż 5 GHz
To jest jak najbardziej karta do 4K. Oczywiście będą gry, które będą optymalizacyjnymi crapami, które zarżną każdą konfigurację, ale będą też gry jak DOOM ethernal, które na tej karcie zapierniczają, aż miło patrzeć.
Nie wiem jak inne testy ale np. testy na PurePC pokazują zazwyczaj najgorszy możliwy scenariusz(miejsce testowe), wiec praktycznie zawsze gry będą miały więcej FPS. Sam jak odpalałem benchmarki u siebie w dowolnym miejscu gry to miałem zawsze więcej FPS niż podawane było w testach.
Druga sprawa to DLSS, które daje potężnego kopa.
Tak czy inaczej świetna karta. Teraz czekam na nowe procesory i o ile nie wyjdzie do tego czasu wersja 3080ti to ta karta zagości u mnie w nowym PC. Na razie do QHD (monitor)/4K (oled). Docelowo kupię nowy monitor jak tylko pojawi się coś ciekawego (4K,HDR, GSync, IPS) w rozsądnej cenie (<5 tyś).
stale zapominacie jaka rozdzielczość jest standardem. dopiero co przechodzimy z płynnego grania 1080p w 1440p. to że ekrany na rynku mają jakość 4k/8k nie znaczy że zabawka za 20k zł ma nam obecnie puścić gierke na tym 60-100 fps na chłodno.
co bardzo mnie cieszy, jak widzę średnią jakość gier a podniecenie 4k to aż żal.
co innego film, jak ktoś ma sokoli wzrok to 4k fajna sprawa na 70 cali
Skok wydajności nie jest tak duży, zważywszy na to, że ta karta żre 100W więcej od 2080 ...
To całe 6-7 gr więcej za godzinę
Chociaż przy 300W to 50 godzinna gra kosztuje ekstra 10zł czyli prawie 5% jej ceny
drugi aspekt to wyższa temperatura w budzie, [rosnące GPU] przez co CPU ma coraz ciężej o ile nie jest pod wodą
Ciekawy argument w ustach kogoś kto ma w sygnaturce Vega 64 8GB UV OC. Ile to 290+W w grach (https://www.tomshardware.com/reviews/amd-radeon-rx-vega-64,5173-17.html) ?
I tutaj nie ma problemu z ceną energii?
Nie żebym się czepiał, ale może właśnie dlatego w tej sygnaturce ma UV? :P
Vega po undervoltingu mocno zjeżdżała z poborem prądu. Z tych 290W w trubie turbo kilkoma kliknięciami robiono kilkadziesiąt mniej zyskując na dodatek lepszą wydajność.
Łącznie RTX 3080 jest szybsza od RTX 2080 Ti od ~3% (1440p) do ~43% (2160p) w zależności od gry.
A średnio wychodzi od ~21% (1440p) do ~32% (2160p).
Słabe OC na rdzneiu GA102-200 jest spowodowane jeszcze na ten moment słabym uzykiem rdzeni przez Samsunga. Najlepsze chipy GA102-300 (w tym selety bin 2) trafią do 3090, a te gorszego sortu, potem okrojone do odpowedniej liczby rdzeni do 3080. Na ten moment, to bin 0 z średnim potencjałem OC. Zobaczymy, jak to będzie z 3090 FE. Z czasem zapewne usyk większej ilości rdzeni z lepszym binem będzie lepsze i zwiększy się możliwość OC.
"Recenzje GeForce RTX 3080 – czy AMD powinno zostać przy rowerach?"
Ten tytuł przekroczył pewien poziom żenady...
PS. Jak by się ktoś chciał podniecać fanbojstwem to od jakichś 15 lat korzystam z duetu Intel+NV.
Tytuł byłby jak najbardziej na miejscu, gdyby było porównanie produktów od obu producentów i faktycznie jeden z nich by odstawał. Natomiast w obecnej sytuacji jest to po prostu smutne.
Tak, to smutne, że kiedy Nvidia prezentuje nowe karty graficzne, AMD pokazało nam swoje rowery. Stąd tytuł.
A kto powiedział, że premiery wszystkich producentów mają być w tym samym czasie? W przeszłości wielokrotnie premiery konkurentów mijały się o pół roku i nikt wtedy takich docinek nie stosował, ale wtedy dominowało słowo drukowane, więc poziom był nieco wyższy. Obecnie każdy z klawiaturą to "dziennikarz".
Jak tak patrzę na premierę serii 3000, jej problemów z dostępnością, rozbiciem w czasie "premier" poszczególnych modeli, aferkę CTD i robienie z konsumentów beta testerów to Nivida powinna się na poważnie zastanowić nad segmentem hulajnóg (na początek na takich na trzech kółkach żeby sobie krzywdy przy testowaniu nie zrobili) ponieważ w branży rowerowej AMD już ich wyprzedziło.
Szkoda, że "dziennikarzom" nie chciało się bardziej zgłębić tematu tych rowerów które w sumie są dość wysoko wycenione a jakością czy osprzętem prezentują się gorzej od rowerów które można nabyć w dyskoncie/markecie i to o jakieś 20% taniej.
Jakby się "dziennikarze" zagłębili w temat rowerów AMD, to by byli nazywani "dziennikarzami", a blood z radasem_b mówili o tym na jaki to poziom żenady "dziennikarze" nie weszli ;)
Pisanie co by powiedziało dwóch userów forum gdyby to już jest ekstremalnie wysoki poziom "dziennikarstwa". Wróżbita Maciej approves... I co tam w temacie świetniej premiery Nvidii? Można już coś nabyć poza obietnicami albo z kanału innego niż spekulanci z MSI? Bo AMD radzi sobie świetnie w nowym segmencie. Jak byś chciał nabyć od nich rower to przykro mi ale "Due to popular demand, this item is currently sold out." :)
pisanie co byście powiedzieli nie jest dziennikarstwem tylko pisanie z Wami na forum :)
"Due to popular demand, this item is currently sold out." - czyli Nvidia jest taka zła bo nie można kupić ich nowych kart graficznych (wszystkie się sprzedały), ale AMD jest super świetne bo nie można kupić ich rowerów (wszystkie się sprzedały) - doskonale naginasz fakty :)
No i właśnie wracamy do początku dyskusji. Nikt z nas dwóch nie napisał że jedna firma jest lepsza a druga gorsza. Jak widać obie mają podobne problemy. To wy swoim żałosnym tytułem dajecie do zrozumienia, że AMD nie nadaje się do niczego poza sprzedażą rowerów (bo przecież nawet ich samodzielnie nie produkuje). Polecam się zaznajomić z hasłem "bezstronność". W pracy dziennikarza to powinien być standard...
Zasugerowałeś, że premiera Nvidii jest beznadziejna, bo nie można ich kupić, ale pochwaliłeś AMD za dobre rowery, są dobre bo... nie można ich kupić. Twoje słowa nie moje. Gdzie tu logika?
A co do bezstronności, fajnie jakbyś zauważył, że w tytule zadane jest PYTANIE, a nie stwierdzenie, że AMD jest do d*** i ma robić rowery. Nie wszystko trzeba brać tak dosłownie i na poważnie
Ja chwaliłem AMD? Dobre sobie...
Szkoda, że "dziennikarzom" nie chciało się bardziej zgłębić tematu tych rowerów które w sumie są dość wysoko wycenione a jakością czy osprzętem prezentują się gorzej od rowerów które można nabyć w dyskoncie/markecie i to o jakieś 20% taniej.
Jak to można podciągnąć pod pochwałę to szacun za interpretację...
Proponuję również zapoznać się z następnym słowem na dziś jakim jest "kontekst". Jak będziesz analizował każdy post z osobna to faktycznie za wiele nie zrozumiesz i żadnej logiki nie znajdziesz.
I ja nic nie zasugerowałem odnośnie NV tylko stwierdziłem fakt. Premiera jest beznadziejna. No chyba że masz inne zdanie. Masz do tego prawo. Z argumentami jednak możesz mieć trochę gorzej.
To ja na koniec też zadam pytanie.
Czy gol powinien nadawać swoim artykułom tytuły klikbajtowe rodem z pudelka?
Tylko nie bierz tego tak dosłownie i na poważnie...
"Bo AMD radzi sobie świetnie w nowym segmencie. Jak byś chciał nabyć od nich rower to przykro mi ale "Due to popular demand, this item is currently sold out." - tutaj chodziło mi o to że zestawiasz fatalną premierę NV z super premierą AMD.
A co do tytułu, dla jednego pudelek, dla innego ciekawy KONTEKST w świetle tych "premier". Nie musisz się zgadzać, inna rzecz, że jeśli nasze tytuły uważasz za pudelkowe, to dawno na pudelku nie byłeś :)
Niektórym komentującym brakuje 60fts w 4K przy RDR2. Zastanawiam się czy w tym przypadku nie zawinił procesor użyty do testów, nie karta. Wszak generowanie otwartego świata po horyzont wymaga bardzo dużej mocy obliczeniowej, przypadek znany z Army.
Dlaczego ponownie widać, że wasz dział na Youtube z filmami jest wykonywany bardzo dobrze, ale teksty na stronie poziomem żenady właśnie dogoniły Maxa Kolonko i jego odpały.