Forum Gry Hobby Sprzęt Rozmawiamy Archiwum Regulamin

Futurebeat RTX 4080 będzie potrzebował 100W więcej niż 3080

09.06.2022 10:32
Dan2510777
1
Dan2510777
9
Konsul

Z tego względu ja dziękuję za całą, a może i następną, generację :)
Pół mega wata, dajcie spokój, to już jest przegięcie pały.

09.06.2022 10:43
Sasori666
2
odpowiedz
Sasori666
186
Korneliusz

Mam za mały pokój na taki pobór prądu.
Raz miałem kompa, który pobierał prawie 400W pod obciążeniem i po 20 minutach czułem, że jest wyraźnie cieplej.

09.06.2022 10:46
3
odpowiedz
2 odpowiedzi
Selen
89
Konsul

Gdyby chociaz wzrost wydajnosci byl rowniez min 25% w stosunku do poprzedniego modelu... Tak jak robia to z poborem pradu.

09.06.2022 10:54
Ard'aenye
3.1
5
Ard'aenye
64
Pretorianin

Że 25% względem 3080? To byłoby niezłe rozczarowanie jeśli różnica byłaby tak mała. Liczę na co najmniej 40%.

09.06.2022 11:25
3.2
Selen
89
Konsul

Hehehehehe, marzyciel :D No oby oby...

09.06.2022 10:59
👎
4
odpowiedz
3 odpowiedzi
hinson
128
Generał

I to ma być postęp technologiczny? Jak tak dalej pójdzie to za 10 lat, zasilacz w komputerze do grania będzie musiało mieć trójfazowe zlacze żeby można było myśleć o graniu!
Unia Europejska powinna zająć się wreszcie na poważnie poborem mocy części komputerowych i wprowadzić regulacje takie żeby takie karty graficzne nie miały prawa być w sprzedaży na terenie Całej Unii!
Skoro ograniczają moc poboru odkurzaczów to mogą ograniczyć pobór mocy procesorów i kart graficznych.

09.06.2022 12:01
SerwusX
😐
4.1
SerwusX
90
Marszałek

Premium VIP

O tak, więcej regulacji, regulujemy wszystko zamiast głosować portfelem.

09.06.2022 12:09
4.2
1
zanonimizowany637308
81
Konsul

to wymyśl i daj im nowa technologie albo sam stwórz takie karty czy urządzenia które będą zasuwać jak szalone a mało prądu pobierać.

Nvidi oraz AMD właśnie zaczęły pojawiać się problemy które z czasem może rozwiążą, póki co nie narzekać że więcej prądu z gniazdka karty pobierają, bo mam wrażenie że wszędzie osoby które narzekają to głowni najwyżsi inżynierowie którzy wiedzą lepiej od tych dwóch firm.

09.06.2022 18:24
😂
4.3
zanonimizowany1372612
2
Centurion

Diuran

Tak, bo sandbagging wcale nie istnieje, a Nvidia czy AMD dają zawsze swoje najlepsze technologie

09.06.2022 11:04
quark
5
3
odpowiedz
1 odpowiedź
quark
60
Generał

Dan2510777
Z tego względu ja dziękuję za całą, a może i następną, generację :)

A dlaczego masz odpuszczać, całą generację kart skoro wraz ze wzrostem poboru prądu pójdzie wzrost wydajności i karta będzie bardziej efektywna energetycznie?

Ludzie piszą, takie teksty, że nowe karty będą porażką, bo będą żarły kupę prądu ale chyba nie rozumieją, że nowa karta potrzebuje mniej prądu żeby wykonać te same obliczenia co stara czyli jest pod tym względem bardziej opłacalna.

300 W na nowej karcie da Ci więcej FPS niż 300 W w starej.

post wyedytowany przez quark 2022-06-09 11:09:53
09.06.2022 12:14
5.1
1
zanonimizowany1370352
6
Pretorianin

Następna generacje pewno skoczy również. Następniejsza pewno też. Nie widzę nic co by poprawiło wydajność kart zmniejszająć drastycznie pobór prądu, a przecież jak wydadzą tak samo wydajną generację to się ludzie oburzą XD więc.. szczekać będą dalej ;p

09.06.2022 11:27
Rumcykcyk
6
odpowiedz
2 odpowiedzi
Rumcykcyk
114
Głębinowiec

Dla mnie jest ważny pobór prądu i wydzielane ciepło.

09.06.2022 12:10
6.1
1
zanonimizowany637308
81
Konsul

to nie kupuj kart ż najwyższej półki tylko średniej lub nisko-średniej i tyle.

12.06.2022 17:25
Rumcykcyk
6.2
Rumcykcyk
114
Głębinowiec

Wolę karty z wyższej półki ale żeby miały te parametry. 3080 zrobiłem po lekkim UV i śmiga super i dodatkowo pobiera cały komputer 200W + jest -10 stopni.

09.06.2022 11:50
7
odpowiedz
noobmer
41
Generał

NV albo znowu odcina kupony i tylko podnosi pervat/wydajność albo trafili na ścianę.

09.06.2022 12:06
_Luke_
8
2
odpowiedz
1 odpowiedź
_Luke_
253
Death Incarnate

Zaraz do zuzycia pradu przez sama karte trzeba bedzie doliczac zuzycie pradu do klimatyzatora pomieszczenia, bo inaczej nie da sie wysiedziec.

09.06.2022 13:41
8.1
zanonimizowany637308
81
Konsul

to kup Konsole a jak konsola nie podchodzi to kup kartę ze średniej półki lub nisko-średniej. Teraz karty dają radę spokojnie fullhd/ 1440p 60klatek na najwyższych i nie trzeba super karty do tego

09.06.2022 12:30
9
odpowiedz
Jaya
55
Generał

Niezła sauna będzie. Dodać można jeszcze topowego Ryzena i będą się jajka gracza smażyć (choć Ryzen to dowód na to, że mała liczba watów nie przekłada się na mnie wydzielanego ciepła).

Powoli zaczynam kibicować AMD, bo narazie RTX średnio/słabo wypada. To chyba jeszcze nie moment, albo gry jeszcze nie potrafią efektywnie wykorzystać tego ficzera. Mało graczy lubi gry zamknięte w jednym pomieszczeniu.
Cienie są dużą szansą RTX, ale dużo producentów skupiło się na wszystkim, bo może z samymi cieniami symulowanymi tylko "1/4" karty będzie wykorzystywana.

16k jednostek to się głównie do renderu/blendera chyba przyda. Jeśli da radę wykorzystać w każdej grze - to nie ma sprawy. Mapowanie większej ilości często się przekładało na dłuższe adresy i wyszukiwanie. Gra będzie miała tak czy siak więcej FPS ale ciekawe jaka jest stratność wydajności względem reklamowanych "jednostek".

09.06.2022 12:51
10
odpowiedz
1 odpowiedź
pawel1812
55
Generał

Te wasze narzekania są bezsensowne. To tak jakbyście narzekali, że 3080 pobiera więcej prądu niż 3060... Problemem następnej generacji kart będzie przede wszystkim ich dostępność. Mam nadzieje, że Nvidia nie zrezygnuje z dalszej produkcji kart 30X0.
Rdzeń RTX40X0 ma być według przecieków gigantyczny, żeby sprostać wyzwaniu, które rzuciło AMD, a które będzie miało w swojej ofercie rozwiązanie oparte na Chipletach.
Jeden taki Chiplet ma mieć wydajność na poziomie dzisiejszych topowych kart (u AMD). Więc 2 takie Chiplety, będą miały prawie 100% większą wydajność. Bo połączenia chipletów są na tyle krótkie, że ma się to zachowywać jak 1 karta. A karty graficzne wraz ze zwiększaniem liczby rdzeni, bardzo ładnie się skalują.

Stąd Nvidia kombinuje, jak tutaj ugryźć temat, tworząc gigantyczne pojedyncze rdzenie, które będą drogie w produkcji i wyjdzie ich niewiele sprawnych. Stąd też te pobory mocy po 600Watów nie powinny was interesować, bo te karty pewnie i tak będą kosztować po 2500dolarów.

09.06.2022 17:14
10.1
tynwar
81
Senator

Nie lepiej po prostu zrobić produkcję tylko 40x0 zamiast jednocześnie produkować oba serie naraz? Produkcja tylko jednej serii dałaby 2x więcej 40x0 niż gdyby produkować obie serie.

09.06.2022 13:34
11
odpowiedz
1 odpowiedź
zanonimizowany1132483
40
Centurion

Nie wiem jak można usprawiedliwiać tak wysoki pobór prądu tym, że karta będzie wydajniejsza o 30%.. Ona powinna być wydajniejsza o 50%+ a przy tym maksymalnie pobierać więcej od poprzedniczki z 30w maksimum, tak jak kiedyś np. GTX 460 czy HD 4xxx lub HD 5xxx.

Idąc tym tokiem myślenia to następna generacja kart graficznych będzie pobierać 600w-700w tylko dlatego, że wydajność wzrośnie o te około 30%.. A dalej co? W 2026 karty pobierające 1000w? A gdzie reszta podzespołów? Bez 2000w zasilacza ani rusz? I jak to się ma z coraz droższą energią i coraz bardziej wałkującą się ''zieloną polityką'' wszędzie?
Dobrze, że chociaż AMD kombinuje jak utrzymać pobór poniżej tych 400w a zwiększyć wydajność o co najmniej 50% (przecieki mówią o nawet +80%)
Jeśli RX 7800 XT będzie o +30% wydajniejszy niż RX 6900 XT a przy tym nie pobierze więcej jak 300-350w to ja osobiście biorę - przesiadka z 3080.

post wyedytowany przez zanonimizowany1132483 2022-06-09 13:37:22
09.06.2022 13:43
11.1
zanonimizowany637308
81
Konsul

a niech pobiera i o 1000W więcej i kij w oko może przestaniecie
kupować/narzekać jak szaleni i zaczniecie myśleć że jednak nie jesteście inżynierami od nvidi czy amd.

09.06.2022 13:40
12
odpowiedz
2 odpowiedzi
Interior666
158
Generał

Czy ktoś się orientuje za ile pod domem można sobie postawić wiatrak do robienia prądu albo mała elektrownie atomową?

09.06.2022 14:07
_Luke_
12.1
_Luke_
253
Death Incarnate

Instalacja fotowoltaiczna o mocy do 10kW to jakies 50 tys. Tylko przy nowym sposobie rozliczania przestala sie oplacac.

09.06.2022 20:51
😂
12.2
Interior666
158
Generał

To po co to montować.

09.06.2022 14:22
13
odpowiedz
zanonimizowany1359977
9
Senator

Nvidia idzie w złą stronę, powinnismy oszczędzać energię, a nie zwiększać jej marnotrawstwo.
Moze zrobili to, zeby kopacze nie wykupili? Haha az tak naiwny nie jestem, kopacze to klient nr 1 Nvidii.
Zamiast dac troche tej technologii z quadro do mainstreamu, to wola podkręcać zegary i dokładać wiwcej tego samego.
Cena w górę, pobór prqdu w górę, zaden to rozwój. Taka metodologia armii czerwonej, lepiej dowalic 300 starych czołgów niz postawić na nowe technologie.
Dwa lata czekamy na jakis postęp i skok wydajności, a tu dupa, Nvidia daje starego kotleta, w ktorym zrobił dziurkę, wlozyl pol kilo taniego mielonego i sprzedaje jako nowe z wyższą ceną.

Nie mniej moze chociaz gracze beda mieli szanse kupic serie 4xxx gdyz seria 3xxx przepadła u kopaczy przekletych kryptowalut.

09.06.2022 14:29
😒
14
2
odpowiedz
zanonimizowany1370475
15
Pretorianin

Ble, ble, ble... Po co inwestować w co raz to droższy, co raz bardziej prądożerny sprzęt, skoro gry stają się co raz gorsze, robione na jedno kopyto, niedokończone z mnóstwem bugów i monetyzacją gdzie tylko się da.

Coś czuję, że w ciągu kilku lat rynek gier spotka kryzys podobny do tego z początku lat 80ych. Może to i dobrze.

09.06.2022 15:41
trzydziestolatek1990
15
odpowiedz
2 odpowiedzi
trzydziestolatek1990
21
Pretorianin

Pamiętam, że był pewien okres w branży elektronicznej, kiedy producenci masowo chwalili się tym, że ich produkt zjada mniej prądu i jest bardziej eko. Albo chociaż zjada tyle samo prądu co ubiegłoroczna wersja, ale działa lepiej, wydajniej. Było to w pewnym momencie nawet uciążliwe i czułem przesyt tym tematem.

Od tamtych lat ceny wszystkiego poszły gwałtownie w górę, w tym właśnie prądu. Co jest grane, że Zieloni, Niebiescy i Czerwoni, w mniejszym lub większym stopniu, zamienili growe komputery w małe piece grzewcze? Więcej: nie mają zamiaru przestać iść w tym niezdrowym kierunku.

Widać od dawna zależność między żywotnością sprzętu elektronicznego a jego temperaturą. Coś poszło nie tak, skoro moja 3070 Ti po zakupie potrafiła pobierać 280-310W. Po chwili dłubania co prawda zjada maksymalnie 210-240W, ale co ma zrobić przeciętny Kowalski, który wydał miesięczną pensję na taki sprzęt? To niezbyt fair, że mi teoretycznie posłuży ta karta rok a nawet dwa dłużej. Nawet nie wspomnę, że laik jak ja jest w stanie śmiało stwierdzić, że coraz gęściejsze upychanie wszystkiego na kartach graficznych, a nawet to krojenie samej płyty PCB bankowo nie wydłuża ich żywotności, a o chorych temperaturach pamięci GDDRX6 niewspółmiernie wysokich do przyrostu wydajności nie wspomnę.

Mam mieszane uczucia.

post wyedytowany przez trzydziestolatek1990 2022-06-09 15:45:47
09.06.2022 17:05
15.1
2
tynwar
81
Senator

"Co jest grane, że Zieloni, Niebiescy i Czerwoni, w mniejszym lub większym stopniu, zamienili growe komputery w małe piece grzewcze?" no jak to co? Po prostu postęp zwalnia i tyle, teraz próbują jakoś podbić wydajność. Nie da się utrzymać wiecznie postępu wydajnościowego, nie da się ulepszać non stop wiecznie. W końcu jest ściana albo szczyt. No nie, procesor za 10 lat nie będzie miał kilka thz. Oczywiście, że teraz może być taki procesor, ale nie miałby sensu. Rozmiar, cena, pobór prądu, emisja ciepła, chłodzenie już wykluczają coś takiego, a za 10 lat, może będzie nieco lepiej, ale tylko nieco. Jasne, dawniej były duże skoki, tyle tylko, że dawniej to w zasadzie niewiele było i to była jeszcze nowość absolutna i wiele można było poczynić. A teraz? To już jest standard, ale nie jest już jakąś nowością. To była nowość, która została solidnie wyeksploatowana, przebadana i ulepszona. Już jest granica, sprzęt ulepszany jest do granic możliwości, a dalej jest już podciąganie wydajności na siłę czyli kosztem czegoś np. poboru prądu, emisją ciepła itp.

16.06.2022 05:39
trzydziestolatek1990
15.2
trzydziestolatek1990
21
Pretorianin
Wideo

tynwar
Zwróciłeś moją uwagę na bardzo ciekawy aspekt, nawet trochę o tym poczytałem, a finalnie natrafiłem na materiał dotyczący telefonów - tam, analogicznie do Twoich słów, jednak chyba bardziej wyraziście widać te zależności, o których piszesz. Czyli pozostaje uzbroić się w cierpliwość i może upatrywać szansy w prężnym rozwoju wirtualnej rzeczywistości. https://www.youtube.com/watch?v=l2l45rfD7CI

09.06.2022 15:54
marcing805
16
odpowiedz
3 odpowiedzi
marcing805
186
PC MASTER RACE

A po co rezygnować z gier i nowych kary, jak można ograniczyć granie? A jak komuś tak bardzo zależy na tym aby zestaw PC do gier nie pożerał za dużo prądu, to wybierze, coś z tzw. „średniej półki”. Takie karty i tak kupują raczej bogacze i ich stać na opłacanie wysokich rachunków za prąd.

10.06.2022 19:13
16.1
zanonimizowany1373004
9
Generał

marcing805
Albo czekać na nowe generacji karty graficzne, gdzie będą pobierać dużo mniej prądu. Zawsze tak było i będzie.

Do tego czasu wystarczą nam karty RTX 3000, co pozwala ograć w wszystkie gry, co ukazały się do tej pory. Nie ma co narzekać.

10.06.2022 21:01
Wiedźmin
16.2
Wiedźmin
37
Senator

Komputery pobierają co raz więcej prądu i ta granica cały czas przesuwa się jak porównamy ostatnie kilka dekad rok po roku zarówno, jeśli chodzi o pobór mocy większości zestawów uśredniając i topowych tych z najwyższej półki. Zwłaszcza zużycie prądu przez co raz to nowsze akceleratory graficzne na przestrzeni 1996-2022 zrobiło największą różnice.

post wyedytowany przez Wiedźmin 2022-06-10 21:07:53
12.06.2022 12:58
16.3
zanonimizowany1373004
9
Generał

Wiedźmin
Nie zawsze jest tak. Pamiętasz kilku następne generacji CPU po i5-3570? Wtedy pobierają mniej prądu. GTX 660 pobiera max. 140 W niż GTX 1060 z 120 W, jeśli dobrze pamiętam.

Nawet Intel zapowiedziali, że za kilku następne generacji CPU będą się skupiać na mniejszy pobór prądu dzięki rozwoju technologii.

Stare komputery z czasów DOS i WinXP wtedy pobierali więcej prądu w stosunku do ilości mocy obliczeniowe. To zależy od technologii. Raz więcej, a raz mniej. Czas pokaże.

10.06.2022 20:19
17
odpowiedz
7 odpowiedzi
Halabarda Geralta
13
Pretorianin

Pół mega wata, dajcie spokój, - ale - o czym mówisz? Chyba Ci się megawaty z kilowatami pomyliły -) Przecież rtx 3080 w zaleceniach ma 750 watt power supply. Moja stara 2080Ti ma w zaleceniach PSU 800 watt.

10.06.2022 20:56
IGG
17.1
IGG
53
Hohner

Zalecany zasilacz to nie realny pobor pradu karty...zasilacz przecie musi ogarnac caly system.

3080 peakowo bez OC ma okolo 350W realnego poboru "z gniazdka" a to juz bardzo, BARDZO duzo. Jak seria 4000 ma miec prawie 500W to juz szkoda slow.

PSU 750W czy 800W nie znaczy, ze tyle z gniazdka ciagnie. Kup zwykly watomierz i popatrz sobie co i jak :)

post wyedytowany przez IGG 2022-06-10 20:57:33
10.06.2022 21:47
17.2
Halabarda Geralta
13
Pretorianin

Nie wiem o czym mówisz - zalecenia są zaleceniami producenta GPU i uwzględniają ogarnięcie całego systemu przecież, a nie tylko karty graficznej. Jakieś 12 lat temu miałem zasilacz 950 watt więc dzisiaj gdy widzę w wymaganiach 800 watt, to tylko się uśmiecham. Jeśli chcesz "jechać" tylko w granicach "realnego poboru" to nastawiasz się chyba na 2-3 lata pracy PSU przy 4080.

10.06.2022 22:46
IGG
17.3
IGG
53
Hohner

Mozesz sobie kupic i 1500W ale nie o to chodzi, chodzi o to ze 500W za sama karte graficzna to niedlugo ludzie pracujac beda zarabiac tylko na prad za komputer. Ostatnie podwyzki ceny pradu spowodowaly u mnie 2x zwiekszenie sie rachunkow za prad. Przy karcie ciagnacej 140-160W. Chcialem zmieniac na serie 4 jak wyjdzie ale podziekuje.

11.06.2022 00:00
17.4
Halabarda Geralta
13
Pretorianin

A to OK, źle w takim wypadku Ciebie zrozumiałem. Mnie to chyba na rachunkach za prąd oszukują, miałem GTX 280, mam RTX 2080ti i za prąd ciągle płacę tyle samo. Nawet w akwarium nie wymieniłem tradycyjnych świetlówek na LEDy (dlatego, że świetlówki lepiej rozpraszają mi światło w słupie wody). A z czego chciałeś zmieniać na serię 4xxx?

11.06.2022 13:37
IGG
17.5
IGG
53
Hohner

u mnie prad idzie do gory co pol roku :)
zmiana z 1080 miala byc ale podziekuje, moze pojde w 3070 i ile sie da undervolting...1080 tez mam na uv i z poboru 180W zszedlem na 120-130W.
Niby nic ale przy 10h dziennie grania w weekend juz sie robi cos. Swiatla w calym mieszkaniu tez juz sa na ledach, sprzety pokupowane z najmniejszym poborem pradu na jaki mnie bylo stac itd. No ale niestety jak sie ma kompa co zjada 300W podczas pracy a nagle sie zrobi komp co pobiera 600W to matematyka jest bezlitosna przynajmniej w Wawie przy Wawskich cenach pradu, ja tak to widze, po prostu przeliczam to na zlotowki :) no i troche na cieplo w mieszkaniu ;)

PS jest 13:30, dopiero wstalem z lozka, dzialaja jeszcze leki nasenne, jak cos pokrecilem to sorry :P

12.06.2022 14:39
17.6
zanonimizowany637308
81
Konsul
Wideo

https://www.youtube.com/watch?v=IGgafqmq7IE < ten link chyba każdemu trzeba było by wklejać aby zrozumieli żeby wykorzystać ponad 2000w z samego komputera to trzeba mieć naprawdę komputer na wypasie z kilkoma 3080ti. Wystarczy srebrny lub zloty zasilacz 750 do nvidia 380ti 32GB ram W kij mnóstwo dysków i jeszcze starczy na kolejna grafikę może półkę niższą ale starczy , a tutaj ludzie płaczą jak dzieci bo sama karta u nich w głowie będzie pobierała 1000W mehh.

post wyedytowany przez zanonimizowany637308 2022-06-12 14:42:44
12.06.2022 14:57
IGG
17.7
IGG
53
Hohner

Diuran

ja płacze bo taki pobor pradu przy wlaczonych grach po 10h dziennie bedzie powodowal masakryczne rachunki za prad. I nikt mi nie wmowi ze jest inaczej bo patrze na swoje rachunki gdy gram i gdy nie gram w danym miesiacu i mam watomierz i podczas grania moj komputer zjada 450-500W po OC procka i grafiki. Teraz wymiana grafiki na serie 4000 i juz watomierz pokaze 600-700W realnego poboru z gniazdka, plus monitor 70-80W w HDR + peryferia i dobijemy do 800W w koncu. Na godzine grania.
Ja to wszystko przeliczam na pieniadze po prostu. A nie na potrzebny zasilacz.
Mam Thermaltake 850W w goldzie (teraz to kazdy w goldzie, jak chcesz cos lepszego bierzesz platyne) wiec mam to w dupie ale za prad placic krocia nie lubie.

Futurebeat RTX 4080 będzie potrzebował 100W więcej niż 3080