Nowe testy RTX 3080 pokazują sporą przewagę nad RTX 2080 Super
Ta karta to bedzie niezły hicior, już nie mogę sie doczekać, aż wpadnie w moje rączki i ją zwoduję, ach już czuje tą moc. Drrzyj Cyberpunku.
Wychodzi na to,że wszystkie RTX z serii 3000 będą kopać poprzedników, za taką samą cenę..wow. Ciekawi mnie kwestia awaryjności ;D Tak czy siak poczekam z rok.Nie stać mnie na nowy PCm przez tą głupią pandemię.
Kiedyś to było normalne, że dostawało się lepszą wydajność za tę samą cenę a teraz "wow"? Na tym polega postęp technologiczny. To chciwość firm skutkuje ciągłymi podwyżkami cen elektroniki praktycznie w każdej branży.
Kiedyś to nawet lepsza wydajność była czasem tańsza choć sprowokowane to było lepszą działalnością wtedy ATI na rynku. Pamiętam jak w 2006 kupiłem 7900GT za 1400 zeta aby w 2008 dać za ATI 4850 500 zł a karta była wyraźnie lepsza. W obecnych czasach tyle dobrze, że przydatność kart do spożycia jest wieloletnia
(przykład GTX 970). Jak już wspomniałem poniżej wtedy grafika zmieniała się na lepsze co kilka miesięcy a obecnie od 5 lat tylko retusz.
ale w 3080 jest 2.7x wiecej cuda i 2x rayów . XD więc to na dlss gra dopiero pokaże kopa . Przypomnę ze z z 280 tensorami 3090 robi kopa z 6 klatek na 56 w 8k :P przy zachowaniu jakości z włączonym ray tracingiem :P
Tuż napisałem, że więcej CUDA :D
Ja akurat do pracy tensory używam i na nich też DLSS działa.
Jednostki ray są do wyznaczania promieni nie DLSS. :P
Dziwnie odpowiadasz. napisałeś że mniej jednostek tensor. ja mówię że więcej, bo jest więcej ich teraz. nie mówię że cuda jest mniej . Ale też nie napisałem nic że raye pracują dla dlss xD. napisałem tylko że to skutkuje takim ogromyn przyrostem klatek przy użyciu ray i dlss. i używając tensorów i rayów. wiadomo raye są powodem czemu w 8k jest tylko 6 klatek na 3090 . a dlss jest teraz ogromną mocą skoro zwieksza z 6 na 58 klatek to jest przyrost 9x więcej mocy obl w normalnym przypadku i bez prawie 300 tensorów nie było by to możliwe
nie wierzysz to poszukaj w sieci specyfikacje.
RTX3080
tensor cores: 272
CUDA cores: 8704
RT cores : 68
mm2: 627x627?
RTX2080
tensor cores: 368
CUDA cores: 2944
RT cores : 46
mm2: 545x545
Jakie to są testy przed wypuszczeniem sprzętu na rynek, to każdy wie. Pożyjemy, zobaczymy.
Chyba te testy za bardzo nie robią wrażenia , bo właśnie są zależne i robione przed premierą. Jest fajnie ale bedzie jeszcze lepiej po premierze, jak testy wyjdą podobnie w grach
Nie jestem typem hazardzisty, więc daję temu pół roku. Niech się rynek ustabilizuje i wyskoczą ewentualne buble, ale na ten moment zacieram ręce na model 3080, a pytanie brzmi czy z końcówką "TI", czy bez niej.
Edit: pytanie do ogarniaczy tematu - czy przy okazji premier kart, ceny zasilaczy idą w górę?
Nie przypominam sobie takiej sytuacji podwyżek.
Przecież teraz kupuje się zasilacze 500-600W bo różnica w cenie jest mała, a te zasilacze ogarną te karty.
Na stronie Nvidii w specyfikacji nowych modeli są podane rekomendowane zasilacze. Do 3090 i 3090 jest 750W, a 650W dla 3070.
Piękna karta. Zapomnieliście dodać że wzrost prądu jest o 41% większy. Ale jak kogoś stać, to takimi głupotami głowę nie zawraca. Indyjska wersja jest już dostępna
A kogo to przy tej cenie wydajności. I wow - całe 10zl do rachunku... za 3 miesiące. Dla klientów wydajacych tyle na GPU, 10zl za 3 miechy robi taka różnice, że daaam :P
Po prostu pozostaje nam poczekać na wersje karty od MSI, Gigabyte, Zotac i takie tam. Któryś z nich zaoferuje lepsza chłodziarka i ... mniej pobór prądu. Czas pokaże.
Model Founders Edition to jednak model Founders Edition i nie opłaca się to kupić.
To nie będzie 10 zł w 3 miesiące tak się nie liczy pobór prądu. Widze że kompletnie nie robisz żadnych opłat. Jest Kalkulator zużycia energii elektrycznej. Są oczywiście zmienne od tego jak długo dziennie grasz jaka jest stawka za 1 kWh w danym regionie. Ale licząc średnio 6 h dziennie przy minimum 750W zasilaczu rachunek wzrośnie licząć kwartalnie. Ale powtórzę jak kogoś stać, to takimi głupotami głowę nie zawraca.
Do 3080 i wyżej rekomdenowany zasilacz to chyba 750 W
Ta generacja kart akurat mnie żywo interesuje gdyż nadszedł czas na wymianę GTX 970. Cieszę się że zbiegło się to z powrotem cen do względnej normalności. Moim zdaniem jest to efekt dwóch czynników - nowe konsole i prawdopodobnie sprzedaż serii RTX 2XXX nie była zadowalająca. Tamta podwyżka była testem rynku i niestety dla Nvidii uzależnieni od grania nie stanęli na wysokości zadania.
Jeszcze jedna taka sugestia odnośnie grafiki której jakość się zatrzymała jakieś 5 lat temu. Do roku 2015 postęp w grafice był widoczny gołym okiem podczas akcji w grze teraz wymyśla się jakieś odbicia itp, które są widoczne dopiero po wstrzymaniu akcji gry i żmudnym poszukiwaniu szczegółów. Nic nie mam aby coś takiego dodawali podbijali rozdzielczość i garstka fanatyków się znajdzie. Reszta będzie korzystała z rozwiązań pośrednich gdzie utrata jakości jest niewielka lub symboliczna. Sądzę, że zakupiona RTX 3070 sprawdzi się w FHD i ewentualnie 2K przez następne 5 lat. W sumie gdyby GTX 970 miał 2GB RAMu więcej jeszcze by starczył do FHD na wysokich a taki mam monitor i tylko jego uszkodzenie albo chęć zwiększenia przekątnej ekranu spowoduje przejście na 2k.
Ja się pytam, gdzie są fachowcy, którzy polecali 2080, 2080 Super i 2080 Ti, bo będą FUTUREPROOF. Było kilku takich agentów na GOLu, może teraz niech Ci znawcy podniosą rękę.
edit:
Zapomniałem wykpić hipokrytów co do zużycia prądu. AMD robi kartę 300W OMG ELEKTROWNIA, KARTA NIE MOŻE TYLE POBIERAĆ, NVIDIA robi kartę 400W CUSZ ZA MOC!!!!!
A co nagle 2080 przestaną działać razem z wejściem nowych kart?
blood kochany jak ktoś ma 2x2080ti to może wymienić tylko na 2x3090 bo prawdopodobnie 3090 będzie i tak mniej wydajna od dwóch 2080ti, a zauważ że karta 3090 kosztuje od 7.1 w górę, a dwie 2080ti będzie można kupić zaraz za 6000, sam ocen co jest bardziej opłacalne. To wszystko to marketing, a liczy się tak naprawdę dla większości cena/wydajność i tutaj najbardziej opłacalny będzie dla większości zakup używanej 2xxx.
blood - A rower AMD też już masz? Bo wiesz... dobra inwestycja!
Danuel - nie, nie przestaną, nie o to chodzi
A.l.e.X - dla Ciebie, a należysz do bardzo wąskiego grona, liczy się wydajność. Ludzie, którym zależy na współczynniki ceny do wydajności, nie kupili by 2080Ti. Ja się po prostu śmieję z naganiaczy z zeszłego roku, którzy polecali topowe karty nvidii, bo świetna wydajność RTX i przyszłościowe. Od długiego czasu ten rok zapowiadał się na większy ruch w GPU i polecanie ludziom mega drogich kart w zeszłym roku było niepoprawne, szczególnie że większość kupuje GPU raz na kilka lat.
Łosiu - ha ha. Będę pewnie zmieniał GPU, ale w odróżnieniu od niektórych redaktorów GOLa czekam na benchmarki.
To chyba dobrze że co jakiś czas jest nagły boom wydajności, zwłaszcza podczas nowej generacji konsol, a co co kilka miesięcy wydajność w tej samej cenie ma wzrastać o 50%? Wtedy dopiero byłby chaos i prawdziwym mitem byłoby wymiana sprzętu w PC co 2 lata jak to "skrajni fani" konsol uważają
O Boziu czyli twierdzenie że seria 2xxx to eksperyment z Raytracingiem plus właściciele to beta testerzy tej funkcji sprawdza się coraz bardziej, a myślałem że tego typu teksty to tylko teorie spiskowe.