"czy AMD powinno zostać przy rowerach?"
Praca dziennikarza wymaga chociaż udawania że jest się neutralnym panie qjin, bo nikt nie ma ochoty czytać huraoptymistycznych laurek kogoś kto nawet nie próbuje relacjonować na chłodno ;)
980 vs 1080 było to samo duży przyrost wydajności żal mi posiadaczy RX 20xx nVidia zrobiła z nich beta testerów RT.
Konkurencja jest zawsze potrzebna.
Myślałem, że RDR2 w 4K na maksymalnych ustawieniach, wyciągnie minimum 60FPS. /:
Zobaczymy co ten nowy Mistrz pokaże przy grach korzystających z Ureal Engine 5 w 4K
chwalenie się wydajnością w starszych silnikach mnie nie interesuje gdy zbliża się nowa generacja konsol i nowe bardziej wymagające gry, tym bardziej benchmarki pokazują że na przykład Bordelands 3 ten RTX nie jest w stanie utrzymać 60 FPS .
Jest to pewne że nowy silnik będzie miał jeszcze większe wymagania.
Skok wydajności nie jest tak duży, zważywszy na to, że ta karta żre 100W więcej od 2080 ...
"Recenzje GeForce RTX 3080 – czy AMD powinno zostać przy rowerach?"
Ten tytuł przekroczył pewien poziom żenady...
PS. Jak by się ktoś chciał podniecać fanbojstwem to od jakichś 15 lat korzystam z duetu Intel+NV.
Tutaj -> https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-amd-3900-xt-vs-intel-10900k/27.html <- ciekawe zestawianie w nowych grafach w 4K. Jaki topowy proc AMD / Intel jest lepszy w grach.
I jak się domyślam wedle tych testów, KAŻDY dysponuje oczywiście AiO, każdy kto chce/kupił tego RTX-a.... A co z chłodzeniami powietrznymi procków? Dlaczego nikt nie zrobił chyba najważniejszego testu!? Przecież wiadomo było, od zapowiedzi tych kart, że będzie waliła gorącem w wentylatory na cooler cpu. Skoro karta nagrzewa się do tych 72-76 stopni, to procesor również będzie miał tyle, o ile nie więcej.
Nie ufam chłodzeniom wodnym, nie mam na to miejsca w obudowie (mam układ "komina" - 90 stopni) i nie mam zamiary dopłacać do interesu, skoro zapłaciłem już za arctic freezera 33 esports coś tam, a teraz za Noctue NDH15 tylko po to, żeby nowy RTX mógł działać prawidłowo w obudowie.
Łącznie RTX 3080 jest szybsza od RTX 2080 Ti od ~3% (1440p) do ~43% (2160p) w zależności od gry.
A średnio wychodzi od ~21% (1440p) do ~32% (2160p).
Słabe OC na rdzneiu GA102-200 jest spowodowane jeszcze na ten moment słabym uzykiem rdzeni przez Samsunga. Najlepsze chipy GA102-300 (w tym selety bin 2) trafią do 3090, a te gorszego sortu, potem okrojone do odpowedniej liczby rdzeni do 3080. Na ten moment, to bin 0 z średnim potencjałem OC. Zobaczymy, jak to będzie z 3090 FE. Z czasem zapewne usyk większej ilości rdzeni z lepszym binem będzie lepsze i zwiększy się możliwość OC.
Niektórym komentującym brakuje 60fts w 4K przy RDR2. Zastanawiam się czy w tym przypadku nie zawinił procesor użyty do testów, nie karta. Wszak generowanie otwartego świata po horyzont wymaga bardzo dużej mocy obliczeniowej, przypadek znany z Army.
Nie, nie powinno. Rowery "robi' wujowe.
I na konsoli za niecałe 2,5k zł ma być 4k i 120 fps ? Gdzie RTX 3080 w rdr2 ma 80 fps w 1440p. Jak każda nowa gra nie będzie korzystała z DLSS to cienko widzę te 4k60fps na ultra na 3080
Dlaczego ponownie widać, że wasz dział na Youtube z filmami jest wykonywany bardzo dobrze, ale teksty na stronie poziomem żenady właśnie dogoniły Maxa Kolonko i jego odpały.
Szczerze to po tych wszystkich zapowiedziach jestem zawiedziony. Po 8 latach przerwy zamierzałem wrócić do grania na pc. Myślałem o 1440p 144hz. I co zobaczyłem? Że na grach z poprzedniej generacji, 3080 ma problem zrobić 100+ fps, przy rdr2 ledwo dobija do 80. Gry na nową generację zaczną się wkrótce pojawiać coraz częściej. Zaraz się okaże, że będzie problem z 60 fpsami. Wstrzymam się co najmniej do premiery Cyberpunk 2077, zobaczymy jak tam z wydajnością.
Z jednej strony karta jest fantastyczna z drugiej strony NV wykonała królewską zagrywkę i nikt tego nie widzi. 3080 to nadal nie jest karta do 4K, w wielu grach ledwo potrafi utrzymać 40+ fps, zresztą 3090 tu niewiele zmieni bo będzie 50+. Niemniej 3080 została pozbawiona złącza NVLink i przez to jest została tylko optymalną kartą do 1440p. Niestety wszyscy którzy marzyli o graniu w 4K przy 60+ lub i/więcej (120fps) muszą tym razem wysupłać 14000 PLN na zakup dwóch 3090. Mój zasilacz jak mu powiedziałem że dostanie parę dwóch 3090 to aż "zapłakał ze szczęścia", a CPU westchnęło "dobrze że idzie zima".