Niedlugo pc beda zasilane w układzie trójfazowym tak jak piece elektryczne, betoniarki i spawarki. Wtyczka tez bedzie troche inna
Nie robi wrażenia? Ta karta ma pobierać więcej niż mój cały komputer, który nie jest jakiś tragiczny (i5-8400,16GB i GTX 1070Ti OC)
Zestaw z RTXem 2080 mieści się w 400W. Ja nie wiem co ta karta posiada takiego, że nagle potrzebuje tyle prądu.
Niedługo zapalonego gracza będzie można poznać po tym, że do jego domu prowadzi osobna linia z elektrowni.
Ehh co za bzdety..
12 -pinowy kabel jest certyfikowany do 600W.
Zasilacz 850W jest wymagany w przypadku kiedy pojedyncze urządzenie PCI-E będzie wymagało te 600W przez 12pinów.
Nigdzie nie ma podane że chodzi o GPU a tym bardziej RTX 3090. Nigdzie nie jest napisane że 3090 będzie maksymalnie wykorzystywać te dostępne 600W. Równie dobrze to może być 400W z 600W dostępnych. Nie zmyślajcie.
Karta jest tak mała że zamiast przyjęte 2x8 trzeba stosować jakieś śmieszne male 1x12 ?
Cena, pobór prądu i takie tam...
Podsumowanie - zakup GeForce RTX 3090 jest zdecydowanie nieopłacalny.
Być może SpoconaZofia pracuje w elektrowni lub pomaga stawiać słupy energetyczne wysokich napięć i na nim nie robi to wrażenia. Biorąc pod uwagę fakt, że prąd wciąż drożeje, a wszędzie dookoła trąbią o ekologii to jest to trochę zaskoczenie.
Niektóre instalacje w budynkach mają pewne ograniczenia i jak tak dalej pójdzie to w czasie grania nie będzie można zrobić sobie herbaty, bo włączenie czajnika spowoduje przeciążenie i wywali bezpieczniki. O gotowaniu obiadu też zapomnij, będziesz musiał wybierać, albo grasz i siedzisz głodny , albo żresz bo żona będzie sie bała włączyć piekarnik by też nie wywaliło korków.
Dodają do tej karty przenośny reaktor albo turbinę wiatrową?
No cóż tak by to rozjaśnić odnośnie opłat za "prąd". Zgodnie z taryfą G11 która jest najbardziej popularna za każde 24 godziny zasilania 850W karty RTX 3090 zapłacicie 12,58 PLN. Mając na uwadze że to TYLKO zasilacz w domu reszta wyłączona i siedzicie "po ciemku". To też trzeba brać pod uwagę. No ale jeżeli kogoś stać na RTX 3090 na premierę to takie opłaty za energię to chyba pikuś...
Super karta, powodzenia z rachunkami za prąd ;) Jeśli ceny prądu się nie zmienią, to nie długo będziecie pół wypłaty płacić za energię do zasilenia takiego kompa, walić już fakt dozbierania na taki sprzęt, samo jego utrzymanie. Przyszłość prądożorności nie jest różowa, co kolejne generacje będą bardziej łase na moc.
W złym kierunku to idzie, coś jak drzewiej Pentium 4 . . .
Myślałem ,że sobie kupię w przyszłym roku tego 3080, ale chyba nie.
A miało być tak pięknie.
Wychodzi na to że NVIDIA ma problem z procesem technologicznym nie jestem pewien jak będzie ale chyba 7nm RTX3000 względem RTX2000 12nm a tu okazuje się że karta będzie jeszcze bardziej prądożerna w sumie najmocniejsza karta mnie i tak nie interesuje ale mam obawy co do średnich kart.
A najśmieszniejsze(najsmutniejsze) w tym wszystkim jest to, że w zeszłym roku latały ploty, iż generacja Ampere będzie skokiem wydajności, a zarazem będzie się charakteryzować małym zapotrzebowaniem na energię . Cieszyłem się jak głupi .
Pozostaje mieć nadzieję, że coś się poprawi pod tym względem w RTX 4000 (czy jak to się będzie nazywało).
To i tak jest tylko karta graficzna dla fanatyków i naiwniaków.
Proszę was Redakcjo, nie idźcie w tę stronę... Nie używajcie klikbajtowych tytułów i nie powielajcie fake newsów.
Polecam komentarz kolegi Emillo - on chyba jako jedyny tutaj zdaje się znać na rzeczy i poświęcił chwilę na zgłębienie tematu.
CZEKAM NA WERSJĘ ITX BEZ DODATKOWEGO ZASILANIA
Bolek rozpisz to dokladniej bo jestem tak slaby z matmy ze nie lapie tego co napisales :(
Czyli niedługo, ja nie ma obory i dojarek z dodatkowymi mocami, to nie kupuj nowego pc.
A Ampere nie mialo sie przypadkiem charakteryzowac o polowe mniejszym od poprzednika poborem mocy, mniejszymi temperaturami i takie tam....?
Swoją drogą interesujące że 2x6 (150W) zastąpiono 2x8 (300W) i nagle okazuje się że 2x8 można znów zmienic w 12 pin (300W)
A komu to potrzebne? Ktos gra na monitorze wiekszym niz 24 cale? Moze do grania z raytracingiem w 60 fps to bedzie dobre tylko. A w ciagu paru lat jak RT MOZE stanie sie standardem powstana mniejsze i lepsze karty. Ale z drugiej strony kto bogatemu zabroni.
Powinniście napisać też, że wymagane jest 32 gb ram, bo nie można mieć mniej operacyjnej niż ma się vramu na karcie, gdyż wtedy gry wykorzystujące więcej vram będą freezować
https://www.benchmark.pl/aktualnosci/specyfikacja-geforce-rtx-3090-rtx-3080-i-rtx-3070-na-te-karty.html
Gdyby kogoś interesowało to wyciekła specyfikacja kart 3070/80/90. Swoją drogą trochę mnie to dziwi że 3070 będzie miało tylko 8GB ale za to niskie TGP względem takiego 3080. Zakładając, że to prawda.
I co jest jeszcze ciekawe to niereferenty mają mieć po dwie wtyczki 8-pin
Chyba AMD faktycznie szykuje dobre karciochy, ze Nvidia takie cos serwuje. Oby
Z jednej strony jak ktoś kupuje kartę graficzna za 8 tys komputer za 15-20 to ma gdzies ile to prądu karta nastawiona dla profesjonalistów i hobbystów którzy streamuja zawodowo lub chcą mieć 120 fps lub VR
No i być może dobra opcja dla górników
Przeciętny gracz który gra w Fortnite lub gry AAA na monitorze za 300-800 pln nie warta
Czyli jak GTX 9090 zapragnie wiecej prunda do renderowania to na wsi bedzie przygasalo swiatlo?
A zieloni znowu wciskają te 8 i 10 GB, Minecraft na tym nie pójdzie.
Widziałem dziś plotkę, że wersja 3090 to 2.7k US :)
Powodzenia Nvidia.
Widzę, że nvidia ma zamiar świętować 10 rocznicę wydania kart z rodziny Fermi w wielkim stylu :)
W sumie zmiana złącza na +, mniejsza wtyczka będzie ładniej wyglądać i ułożenie kabli będzie łatwiejsze. Dobrze by było jakby wszyscy (AMD, Intel i partnerzy) też przeszli na to złącze w GPU.
Te 850W wygląda strasznie, ale to nie jest GPU dla każdego, wiec whatever... Ja celuje w RTX 3070 a ten ma ponoć zużywać 220W więc w miarę ok. Tak swoja drogą to wygląda jakby Nvidia podążała droga AMD - boją się konkurencji przez co ich GPU będą fabrycznie podkręcone na maxa. Każdy kto bawił się w podkręcanie wie że tak to wygląda - ostatnie kilka procent wydajności kosztuje kilkanaście a czasem kilkadziesiąt procent więcej prądu.
Nie dość że karty ciągle drożeją to jeszcze zasilacz trzeba wymienić? Obudowę pewnie też.
Zasilacz mam taki od 10 lat, wtyczki i tak takiej nie ma w żadnym obecnie dostępnym na rynku zasilaczu, więc do karty na pewno będzie dokładana przejściówka, lub trzeba będzie doczepiać do siebie dwie szostki obok po dwa razy na identycznej zasadzie, jak się tworzy ósemkę (doczepia się dwójkę do szóstki, tutaj doczepimy szóstkę do szóstki i włożymy w jedno złącze. Na jedno wyjdzie. Czynność powtórzymy obok ;)), co też mam w zasilaczu. Żaden problem. Jest za to inny: nie stać mnie tylko na samą kartę :P
jak ktoś miał SLI lub tri/quada to miał od zawsze duży zasilacz ja np. mam 1500W.
2 lata temu to bym nawet powiedział wow. Teraz to jest norma. 850 W obecnie na nikim nie robi wrażenia. Następca będzie potrzebował jeszcze więcej wat. Ale wychodzę z założenia że jak cie stać na kartę to musi cie stać na opłaty za prąd. Przecież nie kupuje się przykładowo Bugatti Veyron tylko po to żeby stał w garażu.