GeForce RTX 3090 będzie wymagać zasilacza 850 W i wtyczki 12-pin
Niedlugo pc beda zasilane w układzie trójfazowym tak jak piece elektryczne, betoniarki i spawarki. Wtyczka tez bedzie troche inna
Nie robi wrażenia? Ta karta ma pobierać więcej niż mój cały komputer, który nie jest jakiś tragiczny (i5-8400,16GB i GTX 1070Ti OC)
Zestaw z RTXem 2080 mieści się w 400W. Ja nie wiem co ta karta posiada takiego, że nagle potrzebuje tyle prądu.
2 lata temu to bym nawet powiedział wow. Teraz to jest norma. 850 W obecnie na nikim nie robi wrażenia. Następca będzie potrzebował jeszcze więcej wat. Ale wychodzę z założenia że jak cie stać na kartę to musi cie stać na opłaty za prąd. Przecież nie kupuje się przykładowo Bugatti Veyron tylko po to żeby stał w garażu.
Nie robi wrażenia? Ta karta ma pobierać więcej niż mój cały komputer, który nie jest jakiś tragiczny (i5-8400,16GB i GTX 1070Ti OC)
Zestaw z RTXem 2080 mieści się w 400W. Ja nie wiem co ta karta posiada takiego, że nagle potrzebuje tyle prądu.
Posiada konkurencję. NVIDIA wywindowała pobór prądu ze względu na to, co szykuje AMD. Nie chcąc stracić korony wydajności musieli postąpić w ten sposób. Do tego samego został zmuszony Intel.
Posiada konkurencję. NVIDIA wywindowała pobór prądu ze względu na to, co szykuje AMD.
Oby, oby... chociaż z drugiej strony nie widzi mi się przesiadka na AMD po tylu latach z 1060 a teraz 2060S. Jakoś gorzej wspominam 6950...
Ja nie wiem co ta karta posiada takiego, że nagle potrzebuje tyle prądu.
Posiada funkcję kaloryfera elektrycznego.
Ale ona nie będzie brała 800W, zawsze podają tak jakbyś kupił bubel zasilacz z czarnej listy elektrody, jednak to będzie karta do 4k tylko i więcej, więc cpu też będzie trzeba mieć topowego by ją napędzić, a to już spokojnie będzie ze 500 w + zapas, większosć i tak pewno zamontuje te 800 i więcej.
Posiada trochę więcej mocy i przez to wentylatory będą pobierały ogromne ilości prądu aby to schłodzić haha
Zestaw z RTXem 2080 mieści się w 400W - bzdury opowiadasz kolego, zobacz sobie w instrukcji, że rekomendowany minimalny zasilacz dla podstawowego kompa z rtx2080 to 600W (650W dla wersji Ti). PSU 400W to nawet do gtx 1080ti nie wystarczał.
Niedługo zapalonego gracza będzie można poznać po tym, że do jego domu prowadzi osobna linia z elektrowni.
Lub panele słoneczne. I tak da się tylko trzeba zainwestować żeby mieć korzyści. I nie mówię tu o willi czy domku jednorodzinnym, tylko o bloku na zadupiu gdzie psy szczekają wiadomo czym. Potrzebne są chęci biznesplan i pieniądze.
Przy takim poborze mocy w zimę to wszyscy sąsiedzi będą wyłączać ogrzewanie i otwierać okna, bo tyle ciepła to będzie produkować ;]
W złym kierunku to idzie, coś jak drzewiej Pentium 4 . . .
Myślałem ,że sobie kupię w przyszłym roku tego 3080, ale chyba nie.
A miało być tak pięknie.
Ehh co za bzdety..
12 -pinowy kabel jest certyfikowany do 600W.
Zasilacz 850W jest wymagany w przypadku kiedy pojedyncze urządzenie PCI-E będzie wymagało te 600W przez 12pinów.
Nigdzie nie ma podane że chodzi o GPU a tym bardziej RTX 3090. Nigdzie nie jest napisane że 3090 będzie maksymalnie wykorzystywać te dostępne 600W. Równie dobrze to może być 400W z 600W dostępnych. Nie zmyślajcie.
Przeczytałeś artykuł czy nagłowek? Jasno jak byk stoi ze 850W nie jest wymagany na sama karte tylko na cały PC wg zaleceń. Jasno jest też napisane ze maksymalny pobor mocy karty to 350W. Nie oznacza to też ze karta renderujac jakas gre tyle zużyje :) Ogólnie nie wiem czy na GOLu gorsi są ludzie komentujący bez czytania ze zrozumieniem i obeznania w technologi jako takiej...
Już dziś 1080 GTX wystarczy, produkuje tyle ciepła, że w lato nie idzie pograć w spokoju :/
U mnie GTX 1080 Ti Strix nie przekracza w najgorszym wypadku 73 stopni, w lato, gdy w pokoju mam 30 stopni. A karta prawie zawsze chodzi na 99%, z uwagi na monitor 144Hz. Może zmień pastę na rdzeniu?
Z fizyki wiadomo, że jak lepiej chłodzona, to więcej ciepła (efektywniej) oddaje do otoczenia.
AMD dało radę przy normalnej pracy wyciągnąć 100c+ stopni.
Domenom osób którzy nie są na bieżąco z rozwojem jest powtarzanie tych samych bredni o AMD.
Szybciej znaczy więcej, uwzględnianie czasu tu nie gra roli.
A jak uważasz, że gra, to możesz stosowne obliczenia poszukać w sieci, aby dalej trollować TDP. :]
Ktoś tu jest nie na bieżąco i nie załapał ironii w dowcipie. :P
https://www.techpowerup.com/258228/110-c-hotspot-temps-expected-and-within-spec-amd-on-rx-5700-series-thermals
ps. Piszac karta z TDP 350 W mialem na mysli jej pobor, a nie oznaczenie jakie stosuja producenci.
TDP nie określa poboru w Watach :P
To że tu i tu są Waty, to nie znaczy, że chodzi o to samo.
Linus może ci to wyjaśni, mi się nie chce.
https://www.youtube.com/watch?v=yDWO177BjZY
ps. Niepotrzebnie napisalem karta z TDP 300 W, bo mialem napisac, ze pobiera tyle energii, ale prostowalem to w poprzednim poscie.
Wychodzi na to że NVIDIA ma problem z procesem technologicznym nie jestem pewien jak będzie ale chyba 7nm RTX3000 względem RTX2000 12nm a tu okazuje się że karta będzie jeszcze bardziej prądożerna w sumie najmocniejsza karta mnie i tak nie interesuje ale mam obawy co do średnich kart.
A najśmieszniejsze(najsmutniejsze) w tym wszystkim jest to, że w zeszłym roku latały ploty, iż generacja Ampere będzie skokiem wydajności, a zarazem będzie się charakteryzować małym zapotrzebowaniem na energię . Cieszyłem się jak głupi .
W porównaniu może pomóc ograniczenie się do półki cenowej, jaka nas interesuje. Cen i wszystkich modeli jeszcze oficjalnie nie znamy (nie mówiąc o porównaniach wydajności i poboru prądu), więc nie ma co gdybać i tracić energii (że tak powiem) niepotrzebnie.
Karta jest tak mała że zamiast przyjęte 2x8 trzeba stosować jakieś śmieszne male 1x12 ?
Niedlugo pc beda zasilane w układzie trójfazowym tak jak piece elektryczne, betoniarki i spawarki. Wtyczka tez bedzie troche inna
Jedynie rozdzielnie wysokiego napięcia w ogródku.
Taki Transformator 110 15 kv wystarczy dla 15 skrzynek DGX A100.
I będą dzwonić do majstra, że potrzebują montażu fazy, a majster zapyta pod co "betoniarka, spawarka?" a ten, że nie, pod RTXa :-)
A na golu news, że wzrosła liczba zleceń na montaż fazy po premierze gpu nv xDDD
Cena, pobór prądu i takie tam...
Podsumowanie - zakup GeForce RTX 3090 jest zdecydowanie nieopłacalny.
Klient kupujący modele powyżej xx70 wie dokladnie do czego takie gpu i jakie będą koszty.
Warto zobaczyć ten test że zasilacz rekomendowany przez producenta gpu zawiera spory margines przy zasilacza dobrej klasy, co wyżej było wspomniane
https://whatnext.pl/poradnik-jaki-zasilacz-wybrac-do-nowych-kart-graficznych/
stary, nie zatrzymuj sie w tym miejscu, pojdzmy z analiza dalej i bedziemy miec wniosek: Granie jest zdecydowanie nieoplacalne!
serio? TITAN RTX kosztuje 13k, 3090 może kosztować 7-9k. Jak potrzebujesz 24 GB vRAM to jest bardzo opłacalny.
Chodzi o to, że jak chcecie grać tylko w gry, a nie złożone projekty, gdzie przykładowy 24 GB VRAM są niezbędne, to po co przepłacić. Bez RTX 3090 można grać w wszystkie gry, a są lepsze karty z korzystniejsze ceny.
Później czy prędzej NVIDIA tak wydadzą RTX 4xxx, RTX 5xxx i tak dalej. Ray tracking czy DirectX 12 to coś, czego pierwszy GTX Titan z serii 700 nie wspiera. Z RTX 3090 też będzie podobne, jak NVIDIA wymyśla nowe technologie. O AMD nie wspomnę. Jak ktoś aż tak chce przepłacić dla dodatkowe FPS w grach, to jego sprawa i strata.
Krótko mówiąc, Titan albo RTX 3090 jest sprzętem głównie dla profesjonalistów, a nie "przeciętne" graczy.
Za 7-9 tys. złotych możesz kupić PC z "słabsza" karta graficzna, który możesz pograć we wszystko nawet na 60 FPS High/Ultra i masz spokój przez wiele lat. Za tyle złotych kosztuje RTX 3090 według newsie...
Twórcy gier nie będą tworzyć gry dla RTX 3090, którzy tylko niewielu ludzi mogą pograć. Za wyjątkiem Star Citizen, który jeszcze do tej pory nie wyszedł i coś na siłę przedłużał.
To tylko moje wyłącznie opinie, jak ktoś chce znać moje zdanie.
P.S. Drackula, wiem, sarkazm. :)
ale czego nie rozumiem?
Wedle twojego rozumowania, jak znajomy kupowal Jaga za 80k to powinienem mu powiedziec, ze jest to zdecydowanie nieoplacalne i lepiej niech sobie kupi Fieste za 8k. No przeciez Fiesta tez do roboty dojedzie.
To tylko moja opinia. To zależy od tego, ile mocy gracz zechce wykorzystać, a ile mocy będzie zmarnowany.
Ale jak chcesz tylko grać, a nie brać udziału w złożone projekty, gdzie pożerają aż tyle mocy, to szkoda marnować pieniędzy i prądu. To kwestia ekonomia.
Po prostu pobór prądu RTX 3090 jest mocno zawyżone, jakby NVIDIA poszli na łatwiznę.
Wasze pieniędzy, wasze sprawy.
Pozostaje mieć nadzieję, że coś się poprawi pod tym względem w RTX 4000 (czy jak to się będzie nazywało).
Nie dość że karty ciągle drożeją to jeszcze zasilacz trzeba wymienić? Obudowę pewnie też.
To i tak jest tylko karta graficzna dla fanatyków i naiwniaków.
jak ktoś miał SLI lub tri/quada to miał od zawsze duży zasilacz ja np. mam 1500W.
Jak mówi nVidia WhitePaper User Guide do DGX A100.
To zasilenie jednego bloku wymaga 3kW
Idealne dla domowego serwera. :3
https://docs.nvidia.com/dgx/pdf/dgxa100-user-guide.pdf
Być może SpoconaZofia pracuje w elektrowni lub pomaga stawiać słupy energetyczne wysokich napięć i na nim nie robi to wrażenia. Biorąc pod uwagę fakt, że prąd wciąż drożeje, a wszędzie dookoła trąbią o ekologii to jest to trochę zaskoczenie.
Niektóre instalacje w budynkach mają pewne ograniczenia i jak tak dalej pójdzie to w czasie grania nie będzie można zrobić sobie herbaty, bo włączenie czajnika spowoduje przeciążenie i wywali bezpieczniki. O gotowaniu obiadu też zapomnij, będziesz musiał wybierać, albo grasz i siedzisz głodny , albo żresz bo żona będzie sie bała włączyć piekarnik by też nie wywaliło korków.
Przy zakupie auta za 200k bedziesz wymienial opony na takie uzywki za 50 PLN bo nowe za 500 to bedzie zbyt duzy wydatek?
Panele na balkonie sobie zalozysz :p
Niektóre instalacje w budynkach mają pewne ograniczenia i jak tak dalej pójdzie to w czasie grania nie będzie można zrobić sobie herbaty, bo włączenie czajnika spowoduje przeciążenie i wywali bezpieczniki. O gotowaniu obiadu też zapomnij, będziesz musiał wybierać, albo grasz i siedzisz głodny , albo żresz bo żona będzie sie bała włączyć piekarnik by też nie wywaliło korków.
To moze zamiast wydac 9k na karte grafiki, zainwestuj w poprawe sieci elektrycznej w domu?
To moze zamiast wydac 9k na kare grafiki, zainwerstuj w poprawe siecie elektrycznej w domu?
No właśnie są rzeczy ważne i ważniejsze. Osobiście z roku na rok stawiam na granie, wygodniejsze a nie droższe i toporniejsze (nie gloryfikuje tu konsol).
Panele to może i nie głupi pomysł. Być może Nvidia ma właśnie w planach wejść w przyszłości, w tę branżę :D
dzisiaj moja elektrownia zrobiła do 17:35 - 160.8kWh jeszcze dociągnie trochę do 19, a w całym sierpniu 1-24 - 3930,72kWh, więc zużycie przez komputer prądu to bym powiedział jakaś błahostka.
Dodają do tej karty przenośny reaktor albo turbinę wiatrową?
Proszę was Redakcjo, nie idźcie w tę stronę... Nie używajcie klikbajtowych tytułów i nie powielajcie fake newsów.
Polecam komentarz kolegi Emillo - on chyba jako jedyny tutaj zdaje się znać na rzeczy i poświęcił chwilę na zgłębienie tematu.
CZEKAM NA WERSJĘ ITX BEZ DODATKOWEGO ZASILANIA
No cóż tak by to rozjaśnić odnośnie opłat za "prąd". Zgodnie z taryfą G11 która jest najbardziej popularna za każde 24 godziny zasilania 850W karty RTX 3090 zapłacicie 12,58 PLN. Mając na uwadze że to TYLKO zasilacz w domu reszta wyłączona i siedzicie "po ciemku". To też trzeba brać pod uwagę. No ale jeżeli kogoś stać na RTX 3090 na premierę to takie opłaty za energię to chyba pikuś...
Bolek rozpisz to dokladniej bo jestem tak slaby z matmy ze nie lapie tego co napisales :(
napisał jaki byłby koszt energetyczny używania sprzętu obciążonego 850W (nie sądzę aby całość pobierała więcej niż 650-700W, ale niech będzie 100% obciążenia po stronie zasilacza)
G11 - taryfa domowa stała przy cenie (sprzedaż + dystrybucja) średnio 0.61 PLN brutto za 1kWh
0.85kW x 24 x 0.61 PLN = 12.44 PLN brutto za każde 24 godziny użycia komputera
dokładnie jak ALEX opisał to oczywiście pewne uproszczenie jest ale daje pewne rozeznanie. Tam jest 0,617 dlatego taki wynik.
Czyli niedługo, ja nie ma obory i dojarek z dodatkowymi mocami, to nie kupuj nowego pc.
A Ampere nie mialo sie przypadkiem charakteryzowac o polowe mniejszym od poprzednika poborem mocy, mniejszymi temperaturami i takie tam....?
Zasilacz mam taki od 10 lat, wtyczki i tak takiej nie ma w żadnym obecnie dostępnym na rynku zasilaczu, więc do karty na pewno będzie dokładana przejściówka, lub trzeba będzie doczepiać do siebie dwie szostki obok po dwa razy na identycznej zasadzie, jak się tworzy ósemkę (doczepia się dwójkę do szóstki, tutaj doczepimy szóstkę do szóstki i włożymy w jedno złącze. Na jedno wyjdzie. Czynność powtórzymy obok ;)), co też mam w zasilaczu. Żaden problem. Jest za to inny: nie stać mnie tylko na samą kartę :P
Przecież to nie jest kompatybilne
1. Wyglada ze wtyk 12pin jest mniejszy od 8 pin
2. Nie jest to zdublowana forma 6x2
3. 2x6 nie da takiej mocy co 2x8
https://www.dsogaming.com/wp-content/uploads/2020/08/NVIDIA-6-pin-8-pin-12-pin.jpg
o faktycznie - nie wygląda na kompatybilny. BTW - ale dlaczego w pkt. 3 piszesz o 2x8? to chyba 16 wtedy jest a nie 12 pin?
Bo hydro chciał wtyk 12pin który jest odpowiednikiem 2x8, zastąpić wtykami 2x6. Co daje 50% założonej mocy przez przewody
Jakie przewody idą do przejściówki 12pin ?
Tak czy inaczej będą przejściówki, bo nie ma czegoś takiego w nawet najdroższych zasilaczach w polskich sklepach, jak zasilacz z wtyczkami 12 pin ;)
Pewnie pojawią się takie z premierą kart :)
Ale miałeś wcześniej racje. Później wykminilem że chciałeś zbudować 12pin=2x8pin=4x6pin
Taki był plan, ale tak czy inaczej o czym my tu gadamy ? Nie prędko będzie mnie stać na taką kartę. PS5 i tyle w temacie.
Swoją drogą interesujące że 2x6 (150W) zastąpiono 2x8 (300W) i nagle okazuje się że 2x8 można znów zmienic w 12 pin (300W)
To wszystko przez bardzo stary i absurdalnie głupi standard ATX.
- wtyczka 6 PIN ma 3 przewody 12V, 2 GND i 1 PowerSense - czyli może używać max 2 par przewodów, według standardu max 75W czyli 3.125A
- wtyczka 8 PIN ma 3 przewody 12V, 3 GND i 2 PowerSense - czyli może używać max 3 par przewodów, według standardu max 150W czyli 4.167A
12 PIN Nvidii to 6 par 12V i GND w sumie dających max 600W, czyli natężenie 8.34A, bardzo dużo ponad dotychczasową normę, ale taki prąd każdy zasilacz powinien dać radę dostarczyć, bardzo podobne natężenie jest używane w złączach EPS 12V zasilających CPU. Nvidia po prostu upiekła 2 pieczenie na jednym ogniu: pozbyli się przestarzałego standardu i zaoszczędzili bardzo dużo miejsca na PCB (złącze 12PIN jest wielkości jednego złącza 8PIN)
A komu to potrzebne? Ktos gra na monitorze wiekszym niz 24 cale? Moze do grania z raytracingiem w 60 fps to bedzie dobre tylko. A w ciagu paru lat jak RT MOZE stanie sie standardem powstana mniejsze i lepsze karty. Ale z drugiej strony kto bogatemu zabroni.
Ja nie znam nikogo, kto gra na mniejszym ekranie niż 32 cale. Zazwyczaj jest to 55+ i mowie o pecetach ;) Na 24 falach to ja grałem... W roku 2004 :P W 2006 było to już 32 całe, w 2011 40, a potem szło już tylko w górę i obecnie jest to 100.
Super karta, powodzenia z rachunkami za prąd ;) Jeśli ceny prądu się nie zmienią, to nie długo będziecie pół wypłaty płacić za energię do zasilenia takiego kompa, walić już fakt dozbierania na taki sprzęt, samo jego utrzymanie. Przyszłość prądożorności nie jest różowa, co kolejne generacje będą bardziej łase na moc.
Powinniście napisać też, że wymagane jest 32 gb ram, bo nie można mieć mniej operacyjnej niż ma się vramu na karcie, gdyż wtedy gry wykorzystujące więcej vram będą freezować
Nie, nadal top gracze mają 16 gb ram
O ile rozbudowywali jeszcze kilkuletni sprzęt z 16 GB.
Kto teraz składa kompa za 10 tys do 1440p/4k z 2x8 ramu? Amatorzy.
Obecnie do 1080p bym wladowal 2x16. Przecież to 300 zl roznicy a spokój na lata
Tacy, dla których najważniejszy podzespol to GPU. Najpierw je kupują, a potem resztę. Dlatego choćby ja zawsze miałem silne karty graficzne, bo reszta w górach jest mało istotna. Mam 10 tysi na całego PC, to kupuje 3090 I cała resztę.
https://www.benchmark.pl/aktualnosci/specyfikacja-geforce-rtx-3090-rtx-3080-i-rtx-3070-na-te-karty.html
Gdyby kogoś interesowało to wyciekła specyfikacja kart 3070/80/90. Swoją drogą trochę mnie to dziwi że 3070 będzie miało tylko 8GB ale za to niskie TGP względem takiego 3080. Zakładając, że to prawda.
I co jest jeszcze ciekawe to niereferenty mają mieć po dwie wtyczki 8-pin
Chyba AMD faktycznie szykuje dobre karciochy, ze Nvidia takie cos serwuje. Oby
Z jednej strony jak ktoś kupuje kartę graficzna za 8 tys komputer za 15-20 to ma gdzies ile to prądu karta nastawiona dla profesjonalistów i hobbystów którzy streamuja zawodowo lub chcą mieć 120 fps lub VR
No i być może dobra opcja dla górników
Przeciętny gracz który gra w Fortnite lub gry AAA na monitorze za 300-800 pln nie warta
Czyli jak GTX 9090 zapragnie wiecej prunda do renderowania to na wsi bedzie przygasalo swiatlo?
Będzie 20 stopień zasilania.
A zieloni znowu wciskają te 8 i 10 GB, Minecraft na tym nie pójdzie.
Widziałem dziś plotkę, że wersja 3090 to 2.7k US :)
Powodzenia Nvidia.
Widzę, że nvidia ma zamiar świętować 10 rocznicę wydania kart z rodziny Fermi w wielkim stylu :)
W sumie zmiana złącza na +, mniejsza wtyczka będzie ładniej wyglądać i ułożenie kabli będzie łatwiejsze. Dobrze by było jakby wszyscy (AMD, Intel i partnerzy) też przeszli na to złącze w GPU.
Te 850W wygląda strasznie, ale to nie jest GPU dla każdego, wiec whatever... Ja celuje w RTX 3070 a ten ma ponoć zużywać 220W więc w miarę ok. Tak swoja drogą to wygląda jakby Nvidia podążała droga AMD - boją się konkurencji przez co ich GPU będą fabrycznie podkręcone na maxa. Każdy kto bawił się w podkręcanie wie że tak to wygląda - ostatnie kilka procent wydajności kosztuje kilkanaście a czasem kilkadziesiąt procent więcej prądu.