RTX 4080 będzie potrzebował 100W więcej niż 3080
Z tego względu ja dziękuję za całą, a może i następną, generację :)
Pół mega wata, dajcie spokój, to już jest przegięcie pały.
Mam za mały pokój na taki pobór prądu.
Raz miałem kompa, który pobierał prawie 400W pod obciążeniem i po 20 minutach czułem, że jest wyraźnie cieplej.
Gdyby chociaz wzrost wydajnosci byl rowniez min 25% w stosunku do poprzedniego modelu... Tak jak robia to z poborem pradu.
I to ma być postęp technologiczny? Jak tak dalej pójdzie to za 10 lat, zasilacz w komputerze do grania będzie musiało mieć trójfazowe zlacze żeby można było myśleć o graniu!
Unia Europejska powinna zająć się wreszcie na poważnie poborem mocy części komputerowych i wprowadzić regulacje takie żeby takie karty graficzne nie miały prawa być w sprzedaży na terenie Całej Unii!
Skoro ograniczają moc poboru odkurzaczów to mogą ograniczyć pobór mocy procesorów i kart graficznych.
to wymyśl i daj im nowa technologie albo sam stwórz takie karty czy urządzenia które będą zasuwać jak szalone a mało prądu pobierać.
Nvidi oraz AMD właśnie zaczęły pojawiać się problemy które z czasem może rozwiążą, póki co nie narzekać że więcej prądu z gniazdka karty pobierają, bo mam wrażenie że wszędzie osoby które narzekają to głowni najwyżsi inżynierowie którzy wiedzą lepiej od tych dwóch firm.
Tak, bo sandbagging wcale nie istnieje, a Nvidia czy AMD dają zawsze swoje najlepsze technologie
Z tego względu ja dziękuję za całą, a może i następną, generację :)
A dlaczego masz odpuszczać, całą generację kart skoro wraz ze wzrostem poboru prądu pójdzie wzrost wydajności i karta będzie bardziej efektywna energetycznie?
Ludzie piszą, takie teksty, że nowe karty będą porażką, bo będą żarły kupę prądu ale chyba nie rozumieją, że nowa karta potrzebuje mniej prądu żeby wykonać te same obliczenia co stara czyli jest pod tym względem bardziej opłacalna.
300 W na nowej karcie da Ci więcej FPS niż 300 W w starej.
Następna generacje pewno skoczy również. Następniejsza pewno też. Nie widzę nic co by poprawiło wydajność kart zmniejszająć drastycznie pobór prądu, a przecież jak wydadzą tak samo wydajną generację to się ludzie oburzą XD więc.. szczekać będą dalej ;p
to nie kupuj kart ż najwyższej półki tylko średniej lub nisko-średniej i tyle.
NV albo znowu odcina kupony i tylko podnosi pervat/wydajność albo trafili na ścianę.
Zaraz do zuzycia pradu przez sama karte trzeba bedzie doliczac zuzycie pradu do klimatyzatora pomieszczenia, bo inaczej nie da sie wysiedziec.
to kup Konsole a jak konsola nie podchodzi to kup kartę ze średniej półki lub nisko-średniej. Teraz karty dają radę spokojnie fullhd/ 1440p 60klatek na najwyższych i nie trzeba super karty do tego
Niezła sauna będzie. Dodać można jeszcze topowego Ryzena i będą się jajka gracza smażyć (choć Ryzen to dowód na to, że mała liczba watów nie przekłada się na mnie wydzielanego ciepła).
Powoli zaczynam kibicować AMD, bo narazie RTX średnio/słabo wypada. To chyba jeszcze nie moment, albo gry jeszcze nie potrafią efektywnie wykorzystać tego ficzera. Mało graczy lubi gry zamknięte w jednym pomieszczeniu.
Cienie są dużą szansą RTX, ale dużo producentów skupiło się na wszystkim, bo może z samymi cieniami symulowanymi tylko "1/4" karty będzie wykorzystywana.
16k jednostek to się głównie do renderu/blendera chyba przyda. Jeśli da radę wykorzystać w każdej grze - to nie ma sprawy. Mapowanie większej ilości często się przekładało na dłuższe adresy i wyszukiwanie. Gra będzie miała tak czy siak więcej FPS ale ciekawe jaka jest stratność wydajności względem reklamowanych "jednostek".
Te wasze narzekania są bezsensowne. To tak jakbyście narzekali, że 3080 pobiera więcej prądu niż 3060... Problemem następnej generacji kart będzie przede wszystkim ich dostępność. Mam nadzieje, że Nvidia nie zrezygnuje z dalszej produkcji kart 30X0.
Rdzeń RTX40X0 ma być według przecieków gigantyczny, żeby sprostać wyzwaniu, które rzuciło AMD, a które będzie miało w swojej ofercie rozwiązanie oparte na Chipletach.
Jeden taki Chiplet ma mieć wydajność na poziomie dzisiejszych topowych kart (u AMD). Więc 2 takie Chiplety, będą miały prawie 100% większą wydajność. Bo połączenia chipletów są na tyle krótkie, że ma się to zachowywać jak 1 karta. A karty graficzne wraz ze zwiększaniem liczby rdzeni, bardzo ładnie się skalują.
Stąd Nvidia kombinuje, jak tutaj ugryźć temat, tworząc gigantyczne pojedyncze rdzenie, które będą drogie w produkcji i wyjdzie ich niewiele sprawnych. Stąd też te pobory mocy po 600Watów nie powinny was interesować, bo te karty pewnie i tak będą kosztować po 2500dolarów.
Nie lepiej po prostu zrobić produkcję tylko 40x0 zamiast jednocześnie produkować oba serie naraz? Produkcja tylko jednej serii dałaby 2x więcej 40x0 niż gdyby produkować obie serie.
Nie wiem jak można usprawiedliwiać tak wysoki pobór prądu tym, że karta będzie wydajniejsza o 30%.. Ona powinna być wydajniejsza o 50%+ a przy tym maksymalnie pobierać więcej od poprzedniczki z 30w maksimum, tak jak kiedyś np. GTX 460 czy HD 4xxx lub HD 5xxx.
Idąc tym tokiem myślenia to następna generacja kart graficznych będzie pobierać 600w-700w tylko dlatego, że wydajność wzrośnie o te około 30%.. A dalej co? W 2026 karty pobierające 1000w? A gdzie reszta podzespołów? Bez 2000w zasilacza ani rusz? I jak to się ma z coraz droższą energią i coraz bardziej wałkującą się ''zieloną polityką'' wszędzie?
Dobrze, że chociaż AMD kombinuje jak utrzymać pobór poniżej tych 400w a zwiększyć wydajność o co najmniej 50% (przecieki mówią o nawet +80%)
Jeśli RX 7800 XT będzie o +30% wydajniejszy niż RX 6900 XT a przy tym nie pobierze więcej jak 300-350w to ja osobiście biorę - przesiadka z 3080.
a niech pobiera i o 1000W więcej i kij w oko może przestaniecie
kupować/narzekać jak szaleni i zaczniecie myśleć że jednak nie jesteście inżynierami od nvidi czy amd.
Czy ktoś się orientuje za ile pod domem można sobie postawić wiatrak do robienia prądu albo mała elektrownie atomową?
Nvidia idzie w złą stronę, powinnismy oszczędzać energię, a nie zwiększać jej marnotrawstwo.
Moze zrobili to, zeby kopacze nie wykupili? Haha az tak naiwny nie jestem, kopacze to klient nr 1 Nvidii.
Zamiast dac troche tej technologii z quadro do mainstreamu, to wola podkręcać zegary i dokładać wiwcej tego samego.
Cena w górę, pobór prqdu w górę, zaden to rozwój. Taka metodologia armii czerwonej, lepiej dowalic 300 starych czołgów niz postawić na nowe technologie.
Dwa lata czekamy na jakis postęp i skok wydajności, a tu dupa, Nvidia daje starego kotleta, w ktorym zrobił dziurkę, wlozyl pol kilo taniego mielonego i sprzedaje jako nowe z wyższą ceną.
Nie mniej moze chociaz gracze beda mieli szanse kupic serie 4xxx gdyz seria 3xxx przepadła u kopaczy przekletych kryptowalut.
Ble, ble, ble... Po co inwestować w co raz to droższy, co raz bardziej prądożerny sprzęt, skoro gry stają się co raz gorsze, robione na jedno kopyto, niedokończone z mnóstwem bugów i monetyzacją gdzie tylko się da.
Coś czuję, że w ciągu kilku lat rynek gier spotka kryzys podobny do tego z początku lat 80ych. Może to i dobrze.
Pamiętam, że był pewien okres w branży elektronicznej, kiedy producenci masowo chwalili się tym, że ich produkt zjada mniej prądu i jest bardziej eko. Albo chociaż zjada tyle samo prądu co ubiegłoroczna wersja, ale działa lepiej, wydajniej. Było to w pewnym momencie nawet uciążliwe i czułem przesyt tym tematem.
Od tamtych lat ceny wszystkiego poszły gwałtownie w górę, w tym właśnie prądu. Co jest grane, że Zieloni, Niebiescy i Czerwoni, w mniejszym lub większym stopniu, zamienili growe komputery w małe piece grzewcze? Więcej: nie mają zamiaru przestać iść w tym niezdrowym kierunku.
Widać od dawna zależność między żywotnością sprzętu elektronicznego a jego temperaturą. Coś poszło nie tak, skoro moja 3070 Ti po zakupie potrafiła pobierać 280-310W. Po chwili dłubania co prawda zjada maksymalnie 210-240W, ale co ma zrobić przeciętny Kowalski, który wydał miesięczną pensję na taki sprzęt? To niezbyt fair, że mi teoretycznie posłuży ta karta rok a nawet dwa dłużej. Nawet nie wspomnę, że laik jak ja jest w stanie śmiało stwierdzić, że coraz gęściejsze upychanie wszystkiego na kartach graficznych, a nawet to krojenie samej płyty PCB bankowo nie wydłuża ich żywotności, a o chorych temperaturach pamięci GDDRX6 niewspółmiernie wysokich do przyrostu wydajności nie wspomnę.
Mam mieszane uczucia.
"Co jest grane, że Zieloni, Niebiescy i Czerwoni, w mniejszym lub większym stopniu, zamienili growe komputery w małe piece grzewcze?" no jak to co? Po prostu postęp zwalnia i tyle, teraz próbują jakoś podbić wydajność. Nie da się utrzymać wiecznie postępu wydajnościowego, nie da się ulepszać non stop wiecznie. W końcu jest ściana albo szczyt. No nie, procesor za 10 lat nie będzie miał kilka thz. Oczywiście, że teraz może być taki procesor, ale nie miałby sensu. Rozmiar, cena, pobór prądu, emisja ciepła, chłodzenie już wykluczają coś takiego, a za 10 lat, może będzie nieco lepiej, ale tylko nieco. Jasne, dawniej były duże skoki, tyle tylko, że dawniej to w zasadzie niewiele było i to była jeszcze nowość absolutna i wiele można było poczynić. A teraz? To już jest standard, ale nie jest już jakąś nowością. To była nowość, która została solidnie wyeksploatowana, przebadana i ulepszona. Już jest granica, sprzęt ulepszany jest do granic możliwości, a dalej jest już podciąganie wydajności na siłę czyli kosztem czegoś np. poboru prądu, emisją ciepła itp.
Zwróciłeś moją uwagę na bardzo ciekawy aspekt, nawet trochę o tym poczytałem, a finalnie natrafiłem na materiał dotyczący telefonów - tam, analogicznie do Twoich słów, jednak chyba bardziej wyraziście widać te zależności, o których piszesz. Czyli pozostaje uzbroić się w cierpliwość i może upatrywać szansy w prężnym rozwoju wirtualnej rzeczywistości. https://www.youtube.com/watch?v=l2l45rfD7CI
A po co rezygnować z gier i nowych kary, jak można ograniczyć granie? A jak komuś tak bardzo zależy na tym aby zestaw PC do gier nie pożerał za dużo prądu, to wybierze, coś z tzw. „średniej półki”. Takie karty i tak kupują raczej bogacze i ich stać na opłacanie wysokich rachunków za prąd.
Albo czekać na nowe generacji karty graficzne, gdzie będą pobierać dużo mniej prądu. Zawsze tak było i będzie.
Do tego czasu wystarczą nam karty RTX 3000, co pozwala ograć w wszystkie gry, co ukazały się do tej pory. Nie ma co narzekać.
Komputery pobierają co raz więcej prądu i ta granica cały czas przesuwa się jak porównamy ostatnie kilka dekad rok po roku zarówno, jeśli chodzi o pobór mocy większości zestawów uśredniając i topowych tych z najwyższej półki. Zwłaszcza zużycie prądu przez co raz to nowsze akceleratory graficzne na przestrzeni 1996-2022 zrobiło największą różnice.
Nie zawsze jest tak. Pamiętasz kilku następne generacji CPU po i5-3570? Wtedy pobierają mniej prądu. GTX 660 pobiera max. 140 W niż GTX 1060 z 120 W, jeśli dobrze pamiętam.
Nawet Intel zapowiedziali, że za kilku następne generacji CPU będą się skupiać na mniejszy pobór prądu dzięki rozwoju technologii.
Stare komputery z czasów DOS i WinXP wtedy pobierali więcej prądu w stosunku do ilości mocy obliczeniowe. To zależy od technologii. Raz więcej, a raz mniej. Czas pokaże.
Pół mega wata, dajcie spokój, - ale - o czym mówisz? Chyba Ci się megawaty z kilowatami pomyliły -) Przecież rtx 3080 w zaleceniach ma 750 watt power supply. Moja stara 2080Ti ma w zaleceniach PSU 800 watt.
Zalecany zasilacz to nie realny pobor pradu karty...zasilacz przecie musi ogarnac caly system.
3080 peakowo bez OC ma okolo 350W realnego poboru "z gniazdka" a to juz bardzo, BARDZO duzo. Jak seria 4000 ma miec prawie 500W to juz szkoda slow.
PSU 750W czy 800W nie znaczy, ze tyle z gniazdka ciagnie. Kup zwykly watomierz i popatrz sobie co i jak :)
Nie wiem o czym mówisz - zalecenia są zaleceniami producenta GPU i uwzględniają ogarnięcie całego systemu przecież, a nie tylko karty graficznej. Jakieś 12 lat temu miałem zasilacz 950 watt więc dzisiaj gdy widzę w wymaganiach 800 watt, to tylko się uśmiecham. Jeśli chcesz "jechać" tylko w granicach "realnego poboru" to nastawiasz się chyba na 2-3 lata pracy PSU przy 4080.
Mozesz sobie kupic i 1500W ale nie o to chodzi, chodzi o to ze 500W za sama karte graficzna to niedlugo ludzie pracujac beda zarabiac tylko na prad za komputer. Ostatnie podwyzki ceny pradu spowodowaly u mnie 2x zwiekszenie sie rachunkow za prad. Przy karcie ciagnacej 140-160W. Chcialem zmieniac na serie 4 jak wyjdzie ale podziekuje.
A to OK, źle w takim wypadku Ciebie zrozumiałem. Mnie to chyba na rachunkach za prąd oszukują, miałem GTX 280, mam RTX 2080ti i za prąd ciągle płacę tyle samo. Nawet w akwarium nie wymieniłem tradycyjnych świetlówek na LEDy (dlatego, że świetlówki lepiej rozpraszają mi światło w słupie wody). A z czego chciałeś zmieniać na serię 4xxx?
u mnie prad idzie do gory co pol roku :)
zmiana z 1080 miala byc ale podziekuje, moze pojde w 3070 i ile sie da undervolting...1080 tez mam na uv i z poboru 180W zszedlem na 120-130W.
Niby nic ale przy 10h dziennie grania w weekend juz sie robi cos. Swiatla w calym mieszkaniu tez juz sa na ledach, sprzety pokupowane z najmniejszym poborem pradu na jaki mnie bylo stac itd. No ale niestety jak sie ma kompa co zjada 300W podczas pracy a nagle sie zrobi komp co pobiera 600W to matematyka jest bezlitosna przynajmniej w Wawie przy Wawskich cenach pradu, ja tak to widze, po prostu przeliczam to na zlotowki :) no i troche na cieplo w mieszkaniu ;)
PS jest 13:30, dopiero wstalem z lozka, dzialaja jeszcze leki nasenne, jak cos pokrecilem to sorry :P
https://www.youtube.com/watch?v=IGgafqmq7IE < ten link chyba każdemu trzeba było by wklejać aby zrozumieli żeby wykorzystać ponad 2000w z samego komputera to trzeba mieć naprawdę komputer na wypasie z kilkoma 3080ti. Wystarczy srebrny lub zloty zasilacz 750 do nvidia 380ti 32GB ram W kij mnóstwo dysków i jeszcze starczy na kolejna grafikę może półkę niższą ale starczy , a tutaj ludzie płaczą jak dzieci bo sama karta u nich w głowie będzie pobierała 1000W mehh.
ja płacze bo taki pobor pradu przy wlaczonych grach po 10h dziennie bedzie powodowal masakryczne rachunki za prad. I nikt mi nie wmowi ze jest inaczej bo patrze na swoje rachunki gdy gram i gdy nie gram w danym miesiacu i mam watomierz i podczas grania moj komputer zjada 450-500W po OC procka i grafiki. Teraz wymiana grafiki na serie 4000 i juz watomierz pokaze 600-700W realnego poboru z gniazdka, plus monitor 70-80W w HDR + peryferia i dobijemy do 800W w koncu. Na godzine grania.
Ja to wszystko przeliczam na pieniadze po prostu. A nie na potrzebny zasilacz.
Mam Thermaltake 850W w goldzie (teraz to kazdy w goldzie, jak chcesz cos lepszego bierzesz platyne) wiec mam to w dupie ale za prad placic krocia nie lubie.