110 stopni w komputerze? Według AMD to nie problem
zapomnieli wspomniec ze wysoka temperatura zabija zywotnosc elektroniki... no ale przeciez o to im chodzi, prawda? Jak tylko skonczy sie gwarancja, to gracze powinni kupowac nowy sprzet...
Sapphire Pulse RX 5700 XT kosztuje $10 więcej niż referent i temperatury spadają o 30-40 stopni. Nie widzę problemu, po prostu zainteresowani niech kupią kartę AIB. W cenie 10$ dodano również dual BIOS i resolution scaling działający niezależnie od gry.
NIGDY nie przestawię się z Intela i Geforce, na AMD i Radeony, chociaż od Athlona w 2006 roku zaczynałem....
To nie wiem czy nie zacząć się bać o mój laptop...
Jest gdzieś na redicie filmik jak latop z taką kartą explodował i kolesiowi poparzyło dołonie kości że jedyną opcią była amputacja.
Tak, był taki odcinek "opowieści niesamowitych"
Sapphire Pulse RX 5700 XT kosztuje $10 więcej niż referent i temperatury spadają o 30-40 stopni. Nie widzę problemu, po prostu zainteresowani niech kupią kartę AIB. W cenie 10$ dodano również dual BIOS i resolution scaling działający niezależnie od gry.
Nie wiem jak sytuacja wygląda teraz, ale dużo słyszałem dobrego o kartach AMD od Szafira, głównie w przypadku Vegi, ale z Navi powinno radzić sobie chyba równie dobrze.
Niestety 10$ dolarów w USA nie oznacza 40 zł w Polsce. Są już pierwsze oferty za pulsa i sklepy chcą 2200 zł za niego, co w porównaniu do 1850 zł za referenta daje prawie 400 zł przebitki
W UK ta roznica to ponad 50f wiec gdzie to 10$? Chyba tylko w USA...
Trzeba być debilem, żeby kupić produkt, który jeszcze nie został wydany. Wyjdzie kilkanaście różnych wersji AIB w przeciągu kilku następnych tygodni, to będzie można się bawić w porównywanie cen.
BTW Sapphire Pulse 5700 XT jest do dostania w czechach za 2000 zł.
Żaden mit - przez całą moją historię z PC miałem 3 procki od amd i 4 kraty graficzne - wszystkie się gotowały (oprócz procka AMD K6-2).
Gotowały? Wyjaśnij, co przez to rozumiesz. Mój "ultra ciepły" fx8350 jakoś nie mógł wskoczyć przez całe swoje życie powyżej ~60 stopni Celsjusza. Podobnie stary Radeon z chłodzeniem Sapphire - miał grzać jak głupi, a w praktyce nigdy nie wbił powyżej 65 stopni.
zapomnieli wspomniec ze wysoka temperatura zabija zywotnosc elektroniki... no ale przeciez o to im chodzi, prawda? Jak tylko skonczy sie gwarancja, to gracze powinni kupowac nowy sprzet...
Zależy to od procesu technologicznego elektroniki na jaką temperaturę jest on odporny. To nie te czasy co 15 - 20 lat temu co 60 stopni już było dla układu problematyczne.
Wiedziałem, że ten news spowoduje wylew cymbałów na tym forum, ale nie sądziłem, że aż taki xD
Co wam bardziej ogrzeje pokój? Zapałka o temperaturze 200 stopni czy kaloryfer o temperaturze 60 stopni? Odpowiem wam: kaloryfer.
I to samo jest z kartą w budzie z innymi podzespołami. Karta (konkretniej to chip) wam się nagrzeje do 110 stopni, ale to nie oznacza że wszystkie podzespoły nagle złapią taką temperaturę, bo nagrzeje się chip karty, a nie cała buda. Nie rozumiem waszego problemu. Już pomijam fakt, że te temperatury dotyczą referentów i autor newsa też za bardzo i tego nie ogarnia i tego o czym mówią devsi z AMD.
Bardziej od temperatury znaczenie ma tempo pozbywania się tej temperatury z obudowy, a to zależy od radiatorów i wentylacji. I nie tylko o stopnie chodzi, a GŁÓWNIE o pobór energii. Karta nie odda wam energii innym podzespołom, tylko temperaturę trzyma na sobie. No ludzie xD
Tylko ze ta zapalka kosztuje 2 tys. I nie wiadomo jeszcze ile w tym wszystkim prawdy, ze bedzie sie palić latami
GPU jest najczęściej pod ? - CPU (tu walczy sie o kazdy stopien) a gdzie leci gorące powietrze? W bok ?
Sprzęt AMD zawsze generował więcej ciepła od zielonych i nigdy to tym kartom nie zaszkodziło. Wiem, bo miałem RX-a 470 od Gigabyte i regularnie nagrzewał się do 75 stopni. Nic się z tą kartą nie działo, a w testach Liptona wychodziło, że to bardzo dobra temperatura. Polecam jego materiał na temat temperatur kart, bo jak czytam tutaj niektórych ludzi, to wcale się nie dziwię że nadal januszera ma opory przed prockami AMD.
I jaka prawda? Twórcy AMD wyjaśnili o co chodzi, a na r/AMD jakoś nikt nie opisywał problemu z temperaturami przy niereferentach. Referenty zielonych pokroju RTX 2080 też nagrzewały się do 90 stopni i nikt afery nie robił. Ile procki potrafią wytrzymać temperatury wysokiej? Każdy sprzęt i w zależności od firmy inaczej reaguje na temperatury.
Karta nie kosztuje 2000 zł, tylko 1580 w wersji 5700 i 1850 w wersji 5700 XT. Po drugie pierwsza recencja karty AIB, konkretnie Sapphire Pulse RX 5700 XT wskazuje na 30-40 stopni obniżenie temperatury, więc jak jesteś faktycznie zainteresowany, to za dodatkowe 50 zł możesz kupić taką wersję za tydzień i nie martwić się temperaturami. Coś jednak mnie się wydaje, że po prostu trollujesz, więc przynajmnie bądź tak dobry i przestać siać ferment i dezinformacje.
"Karta nie odda wam energii innym podzespołom, tylko temperaturę trzyma na sobie." - najpierw wyzywasz ludzi od cymbałów, a następnie piszesz coś takiego? Tak się składa, że karta graficzna i procesor mają zamontowane radiator (po twojemu kaloryfer) i wiatrak. To razem działa nie tylko jak sam kaloryfer, ale jak konwektor. Do tego trzeba się zastanowić jakie TDP ma ta karta graficzna. Procesory przekraczają 95W, grafika też spokojnie przekroczy, możliwe, że będzie to nawet 150 W.
Jak to się ma do mocy grzewczej? Jak masz konwektor 1000 W to nagrzeje twój pokój w 10 minut, tak jak taka karta grafiki w godzinę.
GPU jest najczęściej pod ? - CPU. a gdzie leci gorące powietrze? W bok ?
Jak ma lecieć? To wentylator masz ustawiony na CPU? xD Co ty gadasz?
Ciepło nie przenosi się na CPU, bo ta temperatura jest w jednym punkcie pomiarowym - na chipie. Kłania się przykład z zapałką i kaloryferem.
ak to się ma do mocy grzewczej? Jak masz konwektor 1000 W to nagrzeje twój pokój w 10 minut, tak jak taka karta grafiki w godzinę.
Czyli zapałka 200 stopni nagrzeje pokój lepiej od kaloryfera mającego 60 stopni?
Co za bzdury.
Tak się składa, że karta graficzna i procesor mają zamontowane radiator (po twojemu kaloryfer)
LoL, nie xD W ogóle nie rozumiesz tego przykładu. Pytanie jest o to, co szybciej nagrzeje pokój - zapałka o wyższej temperaturze czy większy kaloryfer o mniejszej temperaturze. Rozwiązanie tej jakże trudnej zagadki da ci odpowiedź, czy GPU będzie miało wpływ na temperaturę np. CPU albo mobo.
No ale w ogóle bierzesz pod uwagę to, że to nie jest zapałka? xDxDxDxdxD
Widać, że nie kumasz o co chodzi jak ten wyżej, pogadamy jak już zrozumiecie, ale z waszą wiedzą o sprzęcie to wątpię, że to się uda.
@Brzoza_AM Pod uwagę bierzesz tylko to, że ciepło jest wydzielane na małej powierzchni, ale całkowicie pomijasz to, jak ciepło rozchodzi się na karcie (bo przewodność cieplna jest dużo większa niż ma powietrze) oraz gdzie znajduje się ten rozgrzewający się element (blisko elektroniki, która jest wrażliwa na wysokie temperatury). Temperatura powyżej 90°C na karcie graficznej może uszkodzić elektronikę (i nie ważne, że dokładnie ten jeden element wytrzyma taką temperaturę, bo sąsiednie elementy mogą już nie wytrzymać).
No tak, zaokrąglenie 1900 na 2 klocki to trolowanie amd.
Śmiało zgłaszaj moderatorom - poddaje sie pod -1 lub kasacje konta
"Procesory przekraczają 95W, grafika też spokojnie przekroczy, możliwe, że będzie to nawet 150 W.
Jak to się ma do mocy grzewczej? Jak masz konwektor 1000 W to nagrzeje twój pokój w 10 minut, tak jak taka karta grafiki w godzinę."
Aż się specjalnie zarejestrowałem, żeby ten spektakl ignorancji wyjaśnić.
Zacznijmy od tego, że brak ci podstawowej wiedzy elektrycznej, a mianowicie MOCY ELEKTRYCZNEJ. Moc elektryczna, którą najprościej przeliczyć z mocy pozornej (przesuwając cosinus fi), liczy się tak: amper * napięcie = kva -> przesunięcie cos o = MOC WAT.
Jak prosto zauważyć, nieuku, GRZEJNIK ELEKTRYCZNY, który pobiera 1000W energii, pobiera ją przy 230 VOLTACH, to znaczy w najprostszym przeliczeniu - 1000/230 = 4.37 ampera.
Procesor, który pracuje przy napięciu 1.45V i pobiera 100W, daje nam w przeliczeniu 100/1.45 = 22.2 ampera.
Ampery właśnie to jest główny powód, dla którego kupuje się zasilacze 800W, nie dlatego, że procesor pobiera 100W tylko dlatego, że ZASILACZ musi przerobić sobie prąd z wysokiego napięcia na niskie, co mocno obciąża go prądowo (gdyby zamieniał w drugą stronę, problem byłby dużo mniejszy).
I teraz, coś bardzo istotnego, grzejnik to zwykła grzałka, gdzie tu wierny cytat z wikipedii: "Zwiększenie napięcia przyłożonego do grzałki powoduje więc wzrost wydzielonej mocy do kwadratu. ". Wniosek? Moc grzałki (i wszystkich grzejników) jest określana przez wysokość napięcia! Moc cieplną wydzielaną z procesora przeliczasz tylko i wyłącznie uwzględniając napięcie (do kwadratu) i rezystancję.
Mając już tą podstawę, trzeba równiez uwzględnić, że BARDZO ważna jest również powierzchnia grzewcza, przewodzenie termiczne, kubatura pomieszczenia, przepływ powietrza i cholernie dużo innych aspektów z fizyki termicznej (link: [link]
Jak przeczytasz wszystko, to dojdziesz do wniosku, że procesor 100W na zasilaczu przy 1.45V, daje jakieś 20 000 razy mniej energii cieplnej, niż 1000W grzejnik przy 230V.
Czyli, jeżeli taki grzejnik nagrzeje twoją kubaturę pokoju do 23 stopni (od zera) w 1 godzinę, to na 100% obciążony procesor zrobi to samo w 20 000 godzin.
Bum elektryka! ;))
Tu się ludźmi nie dogadasz jak chcesz mertorycznej rozmowy to inne forum polecam nie to.
niezla analogia.. ciekawe ile czasu zajelo ci ogarniecie tego kawalka artykulu..
polecam jakis kurs na czytanie ze zrozumieniem, a dopiero potem publiczne wypowiedzi..
w ogole nie rozumiesz o co chodzi a udzielasz reprymendy innym... typowe
Czemu marudzicie? Karta+czajnik+kaloryfer+patelnia.
Wyższe temperatury to nie tylko kwestia dokładniejszych pomiarów, lecz także postępu technologicznego
Nosz kur.. czytam to zdanie i nie ogarniam ich toku myślenia...
Wyższe temperatury to nie tylko kwestia dokładniejszych pomiarów, lecz także postępu technologicznego, który pozwala na gęstsze upakowanie tranzystorów w układach. Pomimo niższego napięcia pracy, gęściej upakowane układy bardziej nagrzewają się w poszczególnych punktach.
O popatrz ty, w tym samym zdaniu jest to wyjaśnione.
Cóż za dziwny zbieg okoliczności...
Przypominają mi się czasy Fermiego od Nvidii, kto miał referenty serii 400 ten wie o co chodzi.
Co się tyczy obecnego problemu: nie ma co się dziwić.
Referenty w dodatku AMD wciąż stawia na blowery czyli ta śmieszna turbinka więc pozostają tylko niereferenty, najlepszy prawdopodobnie będzie od Sapphire o ile sytuacja jest taka sama jak z Vegą.
A referenty do wodowania lub robić UV.
Temperatura z karty oddaje ciepło na całą obudowę podobnie jak procesor i ram, a nawet dysk twardy ale jak ktoś ma 10 wentylatorów to ciepło rozgoni. Największy problem będzie latem kiedy ktoś w pokoju będzie miał +30.
No sorry, ale każdy co jest w temacie wie, że jak elektronika tego typu długo pracuje w wysokiej temperaturze to po prostu ryzyko padnięcia jest dużo wyższe, w ciemno nie kupuję, ale jak w testach by wyszło, że to jest 110c to omijać szerokim łukiem.
Gadasz zwykłe bzdury. Karty AMD zawsze się bardziej grzały i wystarczyło obejrzeć test Liptona obalający właśnie mity o temperaturach GPU żeby to wiedzieć, bo każdy sprzęt ma osobną odporność na ciepło, a karty AMD mają bardzo wysoką odporność. Wiem, bo w przeciwieństwie od ludzi stąd ja tych kart używam. I wiem, ile są w stanie wytrzymać.
Za to wy będziecie dalej gadać farmazony i to jeszcze o referencyjnych modelach xD
80c w 100% stresie ---> zrozumiem chociaz denerwuje; Osobiscie lubie jak nie przekracza tych 75 w tescie FurMark.
90c ---> no ok, nie wyszedl projekt chlodzenia... bywa. O ile reszta bebechow i obudowa ogarnie to nie ma problemu;
100c ---> wywalam przez okno;
110c --------> obrazek.
XD mi przy 80 już w pokoju grzeje jak ja pie... I suche powietrze że włosy wypadaja XD
To mogliby sprzedawać razem z przejściówką, żeby móc grafikę opuścić za okno. Hahaha.
Mamy upał, a ten AMD ogrzewa mnie jeszcze bardziej. XD
Duża temperatura już od dawna nie jest problemem dla sprzętu ale biznes się kreci dlatego wszelkiej maści chłodzenia cieszą się popularnością mimo że sprzęt wcale tego nie potrzebuje.
Są też różne konstrukcje i miejsca pomiaru stad nie raz dziwne wyniki widzi się np. 80 stopni na CPU a radiator ledwo letni mimo zastosowania super nowoczesnych past itp.
Inną sprawą jest komfort w pomieszczeniu z grzałką jeśli faktycznie tak duże temperatury musi odprowadzić do otoczenia :P Nauczony doświadczeniem ja bym takiego czegoś nigdy nie kupił chyba że na samą zimę a potem sprzedać na lato sobie nie wyobrażam sprzętu z taką temperaturą w upały starałem się blokować moje GPU by 60ciu nie przekraczało nawet kosztem jakości grania ( lub wybierałem lekkie gry ) bo to by katastrofa była w pomieszczeniu.
Tylko że nikt nie kupuje referentów dla niskich temperatur. Za chwilę wejdą niereferenty które nie będą przekraczać 100 stopni a nawet 90-ciu.
AMD FX9590 + Radeon 5700 (wiem że bottleneck ale nie o osiągi tu chodzi) i ogrzewanie w zimę mamy z głowy!
Ale tylko w stress teście. Niemniej... Nie! Kurde, nie! Lat temu osiem zawierzyłem tego typu wypowiedziom i później marzłem zimą. Fakt faktem, trochę taki komputer ogrzeje pokój, ale nie da rady zastąpić ogrzewania. Natomiast latem, szczególnie w ciepłe dni, temperaturę podnosił aż miło xD
Jak zwykle wypowiadają się "specjaliści" GOLA którzy nie mają zielonego pojęcia o czym piszą. AMD mierzy 2 temperatury GPU junction (środek GPU) i edge (krawędź GPU), Nvidia mierzy tylko temperature edge, Nividia na 100% osiąga podobne temperatury, jest to całkiem normalne i nie powoduje żadnych uszkodzeń (jakim cudem marne 110 stopni miałoby uszkodzić krzem?)
Obawiam się, że nie przetłumaczysz. AMD zrobiło sensor dla czegoś co do tej pory nie było podawane i nagle problem.
@Legion 13 @blood
Chyba niektórzy musieli tylko tytuł artykułu przeczytać sądząc po niektórych komentarzach. Więc nie wiem jak Wy, ale mnie takie wypowiedzi "specjalistów" nie dziwią :)
Czyli co lepiej inwestować w procesor intela?
Nie, lepiej inwestować w procesor AMD i poczekać na karty AMD z autorskim chłodzeniem. Albo wziąć nVidię, wolna ręką, ja jestem za AMD. Ale procki - tylko od AMD, kupowanie Intela to głupota. Albo rozrzutność.