RTX 4080 będzie potrzebował 100 W więcej niż 3080

Pojawiły się kolejne doniesienia dotyczące układu RTX 4080. Potwierdzają one wcześniejsze wiadomości na temat prądożerności kart z generacji Ada Lovelace.

futurebeat.pl

Marcin Nic

RTX 4080 będzie potrzebował 100 W więcej niż 3080.
RTX 4080 będzie potrzebował 100 W więcej niż 3080.

Źródło fot.: Unsplash / Jose G Ortega Castro

Informację o wysokim poborze energii karty graficznej GeForce RTX 4080 podał znany leakster kopite7kimi. Napisał on na Twitterze (via Hothardware), że układ ten będzie korzystał z płyty PG139-SKU360, a współczynnik TGP (Total Graphics Power) ustalony został na 420W.

RTX 4080 będzie potrzebował 100W więcej niż 3080 - ilustracja #1
kopite7kimi niejednokrotnie popisywał się dobrymi informacjami na temat kart graficznych Nvidii. Źródło: Twitter

Oznacza to, że wartość ta będzie wyższa o 100W niż w przypadku GeForce’a RTX 3080, którego TGP wynosiło 320W. Jednocześnie będzie to jedynie 30 W mniej od rzekomego TGP topowego GeForce'a RTX 4090.

Warto przypomnieć, że GeForce RTX 4080 bazować ma na rdzeniu AD103, który ma być słabszy od AD102, wykorzystywanego w RTX-ach 4090. Znikoma różnica w TGP pomiędzy tymi układami może sugerować, że różnice między rdzeniami będą niewielkie. Co jednak oznacza to w praktyce?

Przede wszystkim zbliżoną wydajność obu GPU. Ponadto spełnienie takiego scenariusza może spowodować, że firmy tworzące karty graficznych z obydwu serii będą mogły stosować te same chłodzenia dla obu modeli.

Co zaoferuje GeForce RTX 4080?

Na tę chwilę nie ma zbyt wielu oficjalnych informacji na temat tego układu. Wiemy jedynie, że ma on bazować na rdzeniu AD103, który ma zaoferować 10 752 rdzenie CUDA, a także 16 GB VRAM o prędkości 21 Gb/s na 256-bitowej szynie danych, co da przepustowość na poziomie 672 GB/s.

Karty graficzne Nvidii kupisz tutaj

Zdecydowanie mocniejszą propozycją ma być RTX 4090. Flagowy układ graficzny ma zawierać 16128 rdzeni CUDA oraz 24 GB pamięci GDDR6X o prędkości 24 Gb/s. Całość ma przełożyć się na przepustowość na poziomie 1 TB/s.

Czy jednak tak będzie przekonamy się w drugiej połowie 2022 roku. To właśnie wtedy, zgodnie z wcześniejszymi informacjami, mają na rynku zadebiutować karty graficzne z serii RTX 4000.

Podobało się?

8

Marcin Nic

Autor: Marcin Nic

Przygodę z pisaniem zaczął na nieistniejącym już Mobilnym Świecie. Następnie tułał się po różnych serwisach technologicznych. Chociaż nie jest typowym graczem, a na jego komputerze znajduje się tylko Football Manager, w końcu wylądował w GRYOnline.pl. Nie ma dnia, w którym nie oglądałby recenzji nowych smartfonów, dlatego początkowo pisał o wszelkiego rodzaju technologii. Z czasem jednak przeniósł swoje zainteresowania bardziej w kierunku kinematografii. Miłośnik NBA, który uważa, że Michael Jordan jest lepszy od LeBrona Jamesa, a koszykówka z lat 90-tych była przyjemniejsza dla oka.

Kalendarz Wiadomości

Nie
Pon
Wto
Śro
Czw
Pią
Sob

Komentarze czytelników

Dodaj komentarz
Forum Komputery
2022-06-16
05:39

trzydziestolatek1990 Pretorianin

trzydziestolatek1990

tynwar
Zwróciłeś moją uwagę na bardzo ciekawy aspekt, nawet trochę o tym poczytałem, a finalnie natrafiłem na materiał dotyczący telefonów - tam, analogicznie do Twoich słów, jednak chyba bardziej wyraziście widać te zależności, o których piszesz. Czyli pozostaje uzbroić się w cierpliwość i może upatrywać szansy w prężnym rozwoju wirtualnej rzeczywistości. https://www.youtube.com/watch?v=l2l45rfD7CI

Komentarz: trzydziestolatek1990
2022-06-12
17:25

Rumcykcyk Legend

Rumcykcyk

Wolę karty z wyższej półki ale żeby miały te parametry. 3080 zrobiłem po lekkim UV i śmiga super i dodatkowo pobiera cały komputer 200W + jest -10 stopni.

Komentarz: Rumcykcyk
2022-06-12
14:57

IGG Generał

IGG

Diuran

ja płacze bo taki pobor pradu przy wlaczonych grach po 10h dziennie bedzie powodowal masakryczne rachunki za prad. I nikt mi nie wmowi ze jest inaczej bo patrze na swoje rachunki gdy gram i gdy nie gram w danym miesiacu i mam watomierz i podczas grania moj komputer zjada 450-500W po OC procka i grafiki. Teraz wymiana grafiki na serie 4000 i juz watomierz pokaze 600-700W realnego poboru z gniazdka, plus monitor 70-80W w HDR + peryferia i dobijemy do 800W w koncu. Na godzine grania.
Ja to wszystko przeliczam na pieniadze po prostu. A nie na potrzebny zasilacz.
Mam Thermaltake 850W w goldzie (teraz to kazdy w goldzie, jak chcesz cos lepszego bierzesz platyne) wiec mam to w dupie ale za prad placic krocia nie lubie.

Komentarz: IGG
2022-06-12
14:39

zanonimizowany637308 Konsul

https://www.youtube.com/watch?v=IGgafqmq7IE < ten link chyba każdemu trzeba było by wklejać aby zrozumieli żeby wykorzystać ponad 2000w z samego komputera to trzeba mieć naprawdę komputer na wypasie z kilkoma 3080ti. Wystarczy srebrny lub zloty zasilacz 750 do nvidia 380ti 32GB ram W kij mnóstwo dysków i jeszcze starczy na kolejna grafikę może półkę niższą ale starczy , a tutaj ludzie płaczą jak dzieci bo sama karta u nich w głowie będzie pobierała 1000W mehh.

Komentarz: zanonimizowany637308
2022-06-12
12:58

zanonimizowany1373004 Generał

Wiedźmin
Nie zawsze jest tak. Pamiętasz kilku następne generacji CPU po i5-3570? Wtedy pobierają mniej prądu. GTX 660 pobiera max. 140 W niż GTX 1060 z 120 W, jeśli dobrze pamiętam.

Nawet Intel zapowiedziali, że za kilku następne generacji CPU będą się skupiać na mniejszy pobór prądu dzięki rozwoju technologii.

Stare komputery z czasów DOS i WinXP wtedy pobierali więcej prądu w stosunku do ilości mocy obliczeniowe. To zależy od technologii. Raz więcej, a raz mniej. Czas pokaże.

Komentarz: zanonimizowany1373004

GRYOnline.pl:

Facebook GRYOnline.pl Instagram GRYOnline.pl X GRYOnline.pl Discord GRYOnline.pl TikTok GRYOnline.pl Podcast GRYOnline.pl WhatsApp GRYOnline.pl LinkedIn GRYOnline.pl Forum GRYOnline.pl

tvgry.pl:

YouTube tvgry.pl TikTok tvgry.pl Instagram tvgry.pl Discord tvgry.pl Facebook tvgry.pl