Witam, zastanawia mnie ciekawa sprawa, a mianowicie sytuacja wygląda paradoksalnie jeżeli producenci do GTS 450 jako minimum polecają zasilacz o mocy 400 W, natomiast do HD 6750 zasilacz 450 W. Paradoksalnie z tego powodu, że Geforce pobiera więcej prądu od wymienionego wyżej Radeona (106 vs. 86 W). Logicznie rzecz biorąc gdyby sytuacja była odwrotna, problem by nie istniał. Więc albo Nvidia zaniża albo AMD zawyża minimalne wymagania zasilaczy potrzebnych do obsługi ww. kart graficznych. Zastanowienie moje wynika z faktu, że lada chwila będę posiadaczem HD 6750 i dysponuję zasilaczem Aerocool VP-450.
a nie jest to przypadkiem moc potrzebna dla calego komputera? bez spacjalnego sprzetu nikt nie bedzie stanie stwierdzic ile jest wolnej mocy na zasilaczu wiec producenci podaja ogolna dla calego kompa, i tak na chlopski rozum wydaje sie, ze rozni producenci kart maja rozne podejscie do tego co jest wewnatrz takiego kpomputera wiec i sa rozne wartosci mocy zasilacza.
Nie patrz na to co piszą na stronach bo zgłupiejesz :P Patrz na testy.
Zarówno jedną jak i drugą kartę Twój zasilacz powinien spokojnie uciągnąć nawet po OC.
To że jest to moc potrzebna do całego komputera to ja doskonale wiem, zastanowił mnie jedynie fakt podawania słabszego zasilacza do bardziej prądożernej karty. Na różnych forach natknąłem się na stwierdzenie, że obecne karty Geforce bardziej niż konkurencja AMD obciążają procesory dwurdzeniowe, więc co za tym idzie logicznym byłoby posiadać do takiej karty procesor czterordzeniowy, który zapewne ma również ma większy apetyt na energię elektryczną.
Zalecana przez producenta moc zasilacza jest nieistotna. Producent nie przewidzi jakim sprzętem oprócz wiadomego modelu karty graficznej dysponuje użytkownik, podobnie różne zasilacze, najczęściej są w stanie oddać zupełnie inne ilości mocy niż mają napisane na pudełku.
Zawsze więc jest to parametr "pi razy drzwi", na który, choć trochę bardziej zaawansowany użytkownik nie zwraca uwagi, gdyż sam lepiej oszacuje jaki zasilacz mu będzie potrzebny.