RTX 4080 będzie potrzebował 100 W więcej niż 3080
Pojawiły się kolejne doniesienia dotyczące układu RTX 4080. Potwierdzają one wcześniejsze wiadomości na temat prądożerności kart z generacji Ada Lovelace.

Źródło fot.: Unsplash / Jose G Ortega Castro
Informację o wysokim poborze energii karty graficznej GeForce RTX 4080 podał znany leakster kopite7kimi. Napisał on na Twitterze (via Hothardware), że układ ten będzie korzystał z płyty PG139-SKU360, a współczynnik TGP (Total Graphics Power) ustalony został na 420W.

Oznacza to, że wartość ta będzie wyższa o 100W niż w przypadku GeForce’a RTX 3080, którego TGP wynosiło 320W. Jednocześnie będzie to jedynie 30 W mniej od rzekomego TGP topowego GeForce'a RTX 4090.
Może Cię zainteresować:
- Nvidia pozazdrościła AMD słabej karty graficznej
- Co oznacza Ti w nazwach kart graficznych Nvidii
- Ranking kart graficznych Nvidia GeForce i AMD Radeon. Czerwiec 2022
Warto przypomnieć, że GeForce RTX 4080 bazować ma na rdzeniu AD103, który ma być słabszy od AD102, wykorzystywanego w RTX-ach 4090. Znikoma różnica w TGP pomiędzy tymi układami może sugerować, że różnice między rdzeniami będą niewielkie. Co jednak oznacza to w praktyce?
Przede wszystkim zbliżoną wydajność obu GPU. Ponadto spełnienie takiego scenariusza może spowodować, że firmy tworzące karty graficznych z obydwu serii będą mogły stosować te same chłodzenia dla obu modeli.
Co zaoferuje GeForce RTX 4080?
Na tę chwilę nie ma zbyt wielu oficjalnych informacji na temat tego układu. Wiemy jedynie, że ma on bazować na rdzeniu AD103, który ma zaoferować 10 752 rdzenie CUDA, a także 16 GB VRAM o prędkości 21 Gb/s na 256-bitowej szynie danych, co da przepustowość na poziomie 672 GB/s.
Karty graficzne Nvidii kupisz tutaj
Zdecydowanie mocniejszą propozycją ma być RTX 4090. Flagowy układ graficzny ma zawierać 16128 rdzeni CUDA oraz 24 GB pamięci GDDR6X o prędkości 24 Gb/s. Całość ma przełożyć się na przepustowość na poziomie 1 TB/s.
Czy jednak tak będzie przekonamy się w drugiej połowie 2022 roku. To właśnie wtedy, zgodnie z wcześniejszymi informacjami, mają na rynku zadebiutować karty graficzne z serii RTX 4000.
Więcej:PS6 będzie gorszy od Xboxa Magnusa; nowa generacja konsol przekroczy barierę 30 GB RAM
Komentarze czytelników
trzydziestolatek1990 Pretorianin

Zwróciłeś moją uwagę na bardzo ciekawy aspekt, nawet trochę o tym poczytałem, a finalnie natrafiłem na materiał dotyczący telefonów - tam, analogicznie do Twoich słów, jednak chyba bardziej wyraziście widać te zależności, o których piszesz. Czyli pozostaje uzbroić się w cierpliwość i może upatrywać szansy w prężnym rozwoju wirtualnej rzeczywistości. https://www.youtube.com/watch?v=l2l45rfD7CI
Rumcykcyk Legend

Wolę karty z wyższej półki ale żeby miały te parametry. 3080 zrobiłem po lekkim UV i śmiga super i dodatkowo pobiera cały komputer 200W + jest -10 stopni.
IGG Generał

ja płacze bo taki pobor pradu przy wlaczonych grach po 10h dziennie bedzie powodowal masakryczne rachunki za prad. I nikt mi nie wmowi ze jest inaczej bo patrze na swoje rachunki gdy gram i gdy nie gram w danym miesiacu i mam watomierz i podczas grania moj komputer zjada 450-500W po OC procka i grafiki. Teraz wymiana grafiki na serie 4000 i juz watomierz pokaze 600-700W realnego poboru z gniazdka, plus monitor 70-80W w HDR + peryferia i dobijemy do 800W w koncu. Na godzine grania.
Ja to wszystko przeliczam na pieniadze po prostu. A nie na potrzebny zasilacz.
Mam Thermaltake 850W w goldzie (teraz to kazdy w goldzie, jak chcesz cos lepszego bierzesz platyne) wiec mam to w dupie ale za prad placic krocia nie lubie.
zanonimizowany637308 Konsul
https://www.youtube.com/watch?v=IGgafqmq7IE < ten link chyba każdemu trzeba było by wklejać aby zrozumieli żeby wykorzystać ponad 2000w z samego komputera to trzeba mieć naprawdę komputer na wypasie z kilkoma 3080ti. Wystarczy srebrny lub zloty zasilacz 750 do nvidia 380ti 32GB ram W kij mnóstwo dysków i jeszcze starczy na kolejna grafikę może półkę niższą ale starczy , a tutaj ludzie płaczą jak dzieci bo sama karta u nich w głowie będzie pobierała 1000W mehh.
zanonimizowany1373004 Generał
Nie zawsze jest tak. Pamiętasz kilku następne generacji CPU po i5-3570? Wtedy pobierają mniej prądu. GTX 660 pobiera max. 140 W niż GTX 1060 z 120 W, jeśli dobrze pamiętam.
Nawet Intel zapowiedziali, że za kilku następne generacji CPU będą się skupiać na mniejszy pobór prądu dzięki rozwoju technologii.
Stare komputery z czasów DOS i WinXP wtedy pobierali więcej prądu w stosunku do ilości mocy obliczeniowe. To zależy od technologii. Raz więcej, a raz mniej. Czas pokaże.