Forum Gry Hobby Sprzęt Rozmawiamy Archiwum Regulamin

Forum: Nowy PC. Co zmienić/dodać

13.09.2016 10:52
Crod4312
1
Crod4312
150
Legend

Nowy PC. Co zmienić/dodać

Jak w temacie za tydzień zamawiam nowego PC'ta (obecny ma 9 lat) i chciałbym poznać wasze opinie na temat mojego wyboru. Tylko bez "Bierz Nvidie bo Radeon to gówno".

1.Płyta główna MSI H110M PRO-VD (wiem budżetowa ale powinna starczyć)
2.Procesor Intel Core i5-6500, 3.2GHz, 6MB, OEM
3.Chłodzenie CPU SilentiumPC Spartan 3 LT HE1012
4.Pamięć Kingston HyperX FURY 8GB (2x4GB) DDR4 2133MHz CL14
5.Zasilacz Thermaltake Smart SE Modular 530W
6.Dysk Western Digital Caviar Blue, 3.5'', 1TB
7.Obudowa SilentiumPC Regnum RG1W Pure Black
8.Napęd LG SuperMulti
9.Karta graficzna Asus Radeon RX 470 4GB GDDR5
10.Adapter AV LechPol DisplayPort na VGA Czarny

Pewnie najbardziej was zastanawia pkt.10 czyli adapter. Otóż mój monitor to Samsung SyncMaster S22B150 i posiada tylko wejście VGA (D-Sub) i ie podłącze do niego obecnych kart graficznych. Dlatego szukałem alternatywnych rozwiązań niż kupno nowego monitora, a z tego jestem piekielnie zadowolony i nie chcę go zmienić. Może ktoś z was używa podobnego typu urządzeń i jest mi w stanie powiedzieć czy to działa i nie ma z tym problemów. Obecnie też mam przejściówkę tylko z VGA do DVI-I (Radeon HD 4850) i nie ma żadnych problemów ale nie wiem jak to będzie w przypadku Display Port albo HDMI. Czekam na wasze komentarze i może pomoc.

Link do koszyka: https://www.morele.net/inventory/info/9uDWz/

post wyedytowany przez Crod4312 2016-09-13 11:19:01
13.09.2016 11:49
2
odpowiedz
1 odpowiedź
Likfidator
120
Senator

Po pierwsze, jeśli decydujesz się na Core i5 to bierz do tego min. GF 970 albo Radeona 480. Słabsze GPU będą mocno ten CPU ograniczać. Nawet 480 czy 970 będą go ograniczać, ale przynajmniej pozwolą na granie w 60 fps.

Druga sprawa, kup kartę co ma wyjście DVI, przecież większość kart je posiada. Wówczas przejściówka DVI->VGA będzie działać.

Jednak tak naprawdę poważnie zastanów się nad zmianą monitora. Absolutnie nie było nigdy dobrego monitora LCD co nie miałby przynajmniej DVI. Z tej przyczyny, że kabel VGA powyżej rozdzielczości 1280x1024 mocno degraduje jakość obrazu. Kilka razy zdarzyło mi się podłączać drugi komputer po VGA do różnych monitorów z DVI, HDMI czy Display Port i obraz był po VGA nieakceptowalny i to mimo używania bardzo porządnego kabla z osłonami.

Co do konkretnych konfiguracji sugeruj się: http://www.purepc.pl/zestawy_komputerowe/jaki_komputer_kupic_zestawy_komputerowe_na_wrzesien_2016
Tam masz bardzo dobrze wyważone konfiguracje, gdzie podzespoły (raczej) nie ograniczają siebie nawzajem.

Tylko bez "Bierz Nvidie bo Radeon to gówno".

A bierz co chcesz. Nawet lepiej, że weźmiesz radeona, bo dzięki temu AMD nie upadnie i ja będę mógł kupować w spokoju kolejne Geforce'y bo ktoś inny wspiera konkurencję.
Tak na poważne, to wybór Radeona to pakowanie się w tonę problemów. Ja wolałbym dopłacić 100 czy 200 zł za Geforce'a o podobnej wydajności, czy nawet używać starego, słabszego geforce'a niż brać nowego Radeona. Raz się tak na tej karcie sparzyłem, że więcej do ręki tego czegoś nie wezmę.

13.09.2016 12:00
2.1
zanonimizowany687448
20
Generał

Adapter z DVI-D na VGA działać nie będzie, a w nowych kartach DVI-I już nie dają.
RX 470 a RX 480 to prawie żadna różnica i to procesor może je ograniczać.

13.09.2016 11:54
3
odpowiedz
zanonimizowany687448
20
Generał

Wszystko ok, zmieniłbym tylko ram na 1x8GB, bo i tak zaraz będziesz musiał dokładać.
Pomyśl o dysku SSD, choćby 120GB na system. Różnica jest kolosalna.
Adapter powinien działać, korzystałem z podobnego z HDMI na VGA, działało bez zarzutu.

13.09.2016 12:20
Crod4312
4
odpowiedz
Crod4312
150
Legend

Na początku chciałem brać GTX 1060 6GB ale to wychodzi ponad 3300-3400zł, a to już trochę za dużo. Jakby jeszcze te GTX 970 staniały coś. Najtańsza 970 to koszt ok.1300zł (mowa tu o nowych), a za 1349 jest już GTX 1060 od MSI więc w 970 bym się już nie pchał, no chyba, że by staniała do 1000-1100zł. Na początku chciałem brać i5 6400 ale dużo się naczytałem, że Radeony mają narzut sterownika na procesor oraz lubią szybkie procki więc wziąłem ten lepszy. 1060 wersji 3GB nawet nie ma co rozważać bo jest to kompletnie nie opłacalne.
Co do monitora to dlatego zrobiłem kompa do 3k aby mieć te 500zł na monitor w razie czego
np. taki https://www.morele.net/monitor-aoc-i2269vwm-579266/
Czyli jak rozumiem w opakowaniu z kartą są dodawane jakieś przejściówki VGA->DVI-D?

Co do SSD to obecnie nie ma szans, może w niedalekiej przyszłości ale teraz za mały budżet.
Nad RAM'em ciągle się zastanawiam ale jak widzę różnicę w wydajności pomiędzy single, a dual chanel to wątpię aby to było dobre.

13.09.2016 12:30
5
odpowiedz
12dura
48
Senator

Płyta główna w tego co widzę ma tylko 2 sloty na RAM więc na pewno weź 8 GB w jednej kości.

Czemu niby GTX 1060 3GB jest nieopłacalny, kosztuje mniej więcej tyle samo co RX. Jak nie chcesz 3GB to weź 6GB i odpowiednio tańszy procesor dla wyrównania budżetu, wyjdzie Cię o wiele wydajniej niż wersja z radeonem i mocnym procem.

post wyedytowany przez 12dura 2016-09-13 12:34:26
13.09.2016 12:43
Crod4312
6
odpowiedz
6 odpowiedzi
Crod4312
150
Legend

Najtańsza i5 to koszt ponad 800 stów taniej i5 raczej się nie znajdzie. Musiał bym zmienić całą podstawkę pod AMD gdzie na pewno wyszło by taniej ale gorzej jeśli chodzi o wydajność i TDP. 3 GB vRAM'u to trochę mało tym bardziej, że gry zaczynają wymagać 4 i więcej więc musiał bym iść na kompromisy, a nie chce za rok zjeżdżać z teksturami na minimalne oraz obniżać rozdzielczość. GTX 1060 w wersji 6GB to kusząca oferta ale jest póki co po za moim zasięgiem bo najtańszy to 1319 od Gigabyte. Różnica cenowa między 3, a 6 GB to 300zł. Wbrew pozorom dla mnie to dużo. Trzech stów na procku nie zaoszczędzę. Co najwyżej 100zł. Ciężko odpowiednio to zbilansować aby było perfect, kiedy ma się ograniczony budżet. Możliwe też, że za rok tego Radka bym wymienił na lepszą kartę ale póki co ciężko znaleźć dobrą alternatywę w tej cenie. Jedynie to GTX 960 4GB ale w takie to bym się raczej nie pchał.

13.09.2016 13:01
6.1
12dura
48
Senator

Dałbyś radę uszczknąć tu i ówdzie po parę złotych i spróbować jednak kupić GTX 1060 6GB. Dysk możesz kupić 500GB zamiast 1TB jeśli możesz, chłodzenie CPU możesz sobie spokojnie darować, to stockowe jest wystarczające, a Skylake się tak nie grzeją, a 1060 6BG idzie dostać za około 1250zł.

http://allegro.pl/gigabyte-gtx-1060-windforce-6gb-gddr5-fv23-36m-gw-i6482697029.html

http://allegro.pl/gigabyte-gtx-1060-gaming-g1-6-gb-ddr-pl-gwarancja-i6489341508.html#thumb/1

13.09.2016 13:30
Crod4312
6.2
Crod4312
150
Legend

Z allegro wolę nie zamawiać. Złe doświadczenia. Ale z tymi dyskami to wymyśliłeś :) serii nie wpadł bym na to. Zobaczę co da się zrobić i dam znać.

13.09.2016 13:33
6.3
zanonimizowany687448
20
Generał

Toż różnica między 1TB a 500GB to 20-30zł. Nie warto na tym oszczędzać.

13.09.2016 13:35
Crod4312
6.4
Crod4312
150
Legend

Tak masz rację, za małą różnica w cenie :/ Ale ten dysk co mam plus dysk SSD Adata 120GB wychodzi 3200zł równo więc jest to do przyjęcia i chyba tak już zostawię.

Prawdopodobnie ostateczna wersja koszyka:
https://www.morele.net/inventory/info/Ys9NAo/

13.09.2016 13:46
6.5
zanonimizowany687448
20
Generał

SSD zmień raczej na to: https://www.morele.net/dysk-ssd-adata-premier-pro-sp920-128gb-sata3-asp920ss3-128gm-c-635787/
SP 550 to badziewie na kościach TLC.

13.09.2016 13:49
Crod4312
6.6
Crod4312
150
Legend

OK. Jest. Różnica w cenie jest mała więc jak najbardziej.

13.09.2016 12:47
7
odpowiedz
zanonimizowany687448
20
Generał

GTX 1060 3GB to pomyłka. Z GTX 970 się spóźniłeś, jakiś tydzień temu dało się je jeszcze dorwać w sklepach za ~1000zł, teraz większość wyprzedali i zostały tylko droższe.
DVI-D to interfejs cyfrowy, VGA analogowy. Zwykła przejściówka tu nie zadziała.
Co do dual channel, czasem to coś da, przeważnie niewiele. Możesz zostawić 2x4GB, tylko że niedługo będziesz musiał je sprzedawać i kupować 2x8GB. Imo nieopłacalne.

post wyedytowany przez zanonimizowany687448 2016-09-13 12:49:26
13.09.2016 12:55
Crod4312
8
odpowiedz
Crod4312
150
Legend

Z tą 970 to wiem bo kumpel dorwał od MSI za 1138zł no ale cóż...
Nie wiem czy to zwykła przejściówka. Pisze, że to adapter
https://www.morele.net/adapter-av-sandberg-adapter-displayport-vga-602277/
nie znam się na tym ale podejrzewam, że w tym prostopadłościennym pudełku zmienia sygnał z analoga na cyfrowy.
Co do ramu to racja i chyba jednak zmienię na 1x8GB.
Też czytałem na różnych forach, że ludzie bez problemu podłączają te adaptery i jadą z VGA na HDMI.

13.09.2016 12:59
9
odpowiedz
zanonimizowany687448
20
Generał

Tak, adaptery z HDMI/DP na VGA będą działać. Przejściówki z DVI>VGA niekoniecznie, bo wykorzystują DVI-I, które zawiera sygnał analogowy. W nowych kartach montują tylko wyjścia DVI-D, które zawiera tylko sygnał cyfrowy.
VGA mocno obniża jakość obrazu, nowy monitor z DVI/HDMI/DP może być lepszym wyjściem.

13.09.2016 13:01
10
odpowiedz
1 odpowiedź
Likfidator
120
Senator

Adapter z DVI-D na VGA działać nie będzie, a w nowych kartach DVI-I już nie dają.

Kwestia karty. Ja na swojej mam jeszcze kompletne DVI, co można poznać po złączu. Do DVI-D przejściówki DVI->VGA nawet nie włożysz, ten płaski bolec jest zbyt szeroki, by pasować. Do tego masz 4 dodatkowe piny w DVI z wyjściem analogowym. Seria GF 9xx jeszcze je posiada i to wciąż dobre karty.

Na początku chciałem brać i5 6400 ale dużo się naczytałem, że Radeony mają narzut sterownika na procesor oraz lubią szybkie procki więc wziąłem ten lepszy.

Wiesz jaki jest główny problem z Radeonami? One mają tragiczny narzut na CPU! Nawet jeśli w ogólnych benchmarkach czy testach dorównują Geforce'om z podobnej półki pod względem średniej ilości FPS, tak gra się na tych kartach bardzo niekomfortowo. Na Geforce nie będziesz miał żadnych dropów, jak trzymasz średnią 60 fps, to będziesz miał dropy do 55 w najgorszych chwilach, czy może w 0,01% czasu gry.

W przypadku Radeona przy średniej 60 fps masz co chwila dropy do 50 fps, a często dropy nawet do 15-25 fps, bo CPU nie wyrabia, a karta nie ma co robić.

Nvidia rozwiązała to po prostu w ten sposób, że od serii 9xx w swoich układach umieściła dedykowany CPU w architekturze ARM, który odciąża GPU.
Dlatego mając i5 i GF 970, nigdy nie zobaczysz obciążenia powyżej 80% na wszystkich rdzeniach. Podczas, gdy z Radeonem nawet i5 z solidnym OC dobija do 100% i powoduje dropy klatek.

Dopiero w DX12 czy Vulkanie Radeony jakoś sobie radzą, ale to na razie pieśń przyszłości. W przypadku Nvidii DX11 ma taką samą wydajność jak DX12 czy Vulkan, a przecież 99% gier to wciąż DX11.

Druga sprawa z radeonami jest taka, że ich producent ma w głębokim poważaniu standardy i specyfikacje. Lata temu pisałem program w OpenGL do magisterki. Na Geforce'ach działał idealnie. Na kartach intela działał idealnie. Na Radeonach generował najróżniejsze problemy. Żeby było śmieszniej, co sterownik to inne efekty.
Po prostu nie miał zaimplementowanego OpenGLa według specyfikacji.

W grach było to widoczne dokładnie w ten sposób. Dochodziło do tego, że żeby zagrać w różne gry, trzeba było mieć zestaw różnych sterowników, bo nowe psuły kompatybilność ze starszymi grami.
Teraz niby jest trochę lepiej, ale co wychodzi nowa gra, to jak są jakieś problemy to właśnie na Radeonach.

Szczerze mówiąć wolałbym wziąć GF 1060 3GB + i3 z nowych serii niż Radeona 480 + i5. Ten pierwszy zestaw sobie w grach lepiej poradzi, bo Geforce'y wymagają dużo mniej od CPU.

post wyedytowany przez Likfidator 2016-09-13 13:02:31
13.09.2016 13:15
10.1
zanonimizowany687448
20
Generał

W nowych Pascalach/Polarisach nie widziałem nigdzie DVI-I.
Co do dropów się nie zgodzę, o ile fpsy mogą być niższe, o tyle dropów do 15-25 klatek nie ma. Ba, kiedy procesor nie ogranicza, radeony trzymają stabilniejszy framerate niż geforce.
Warto dodać że co druga nadchodząca gra ma DX12, który narzut w większości eliminuje.

13.09.2016 13:02
IGG
11
odpowiedz
IGG
53
Hohner

8GB ramu to za mało, koniec kropka. Ram jest teraz tak tani, że kupno 16GB w 2 kościach nie powinno być większym problemem.

13.09.2016 13:19
Crod4312
12
odpowiedz
Crod4312
150
Legend

Szczerze mówiąć wolałbym wziąć GF 1060 3GB + i3 z nowych serii niż Radeona 480 + i5
*Radeona 470 :)

Hmm... dałeś mi do myślenia, ale raczej tego GF 1060 3GB nie wezmę. Pchanie się w i3 w obecnych czasach to samobójstwo. Tak jak mówiłem, możliwe, że za rok wymienię kartę na 1060/70 jak dorobię się parę zł, a wtedy praktycznie cała platforma będzie gotowa. RX 470 w testach na i5 6500 czy i5 4490k wypada dobrze, ale mogą być te dropy o których mówisz. W życiu miałem 2 GeForcy oraz 2 Radeony i nie przejechałem się na tej karcie. Obecnie mam Radeona HD 4850 (ta wiem bardzo stara) oraz AMD Athlon 64 X2 4200+ (2200MHz). Procesor bardzo stary (bodajże 2005r) ale daje radę w grach i nie zauważyłem strasznych dropów fps'ów. Może akurat ta linia kart była na tyle udana, że nie było tego problemu.

13.09.2016 14:07
13
odpowiedz
1 odpowiedź
Likfidator
120
Senator

Co do dropów się nie zgodzę, o ile fpsy mogą być niższe, o tyle dropów do 15-25 klatek nie ma. Ba, kiedy procesor nie ogranicza, radeony trzymają stabilniejszy framerate niż geforce.

Może jakieś konkrety. Co do mojej tezy to zobacz porównania np. Digital Foundry różnych gier GF vs Radeon. Ten ostatni ma bardzo niestabilny framerate. Przy okazji Fallouta 4 pokazywali jak bardzo Radeony obciążają CPU.
Z ostatnich gier porównaj np. Dooma, który na Radeonach był praktycznie niegrywalny przed dodaniem Vulkana.

Warto dodać że co druga nadchodząca gra ma DX12, który narzut w większości eliminuje.
Raczej 1 na 10 gier ma wsparcie dla DX12 albo Vulkana. Trudno tutaj o argument, przynajmniej jeszcze nie teraz.

Ogólnie nie jestem przeciwnikiem Radeonów, ale AMD ma bardzo złą politykę dla graczy. Dba jedynie o wyniki w benchmarkach syntetycznych, a reszta ich nie obchodzi. Kupując kartę Nvidii dostajesz w pakiecie wieloletnie wsparcie. Geforce'y 4xx są wciąż wspierane. GF od 6xxx do 2xx dostały jeszcze nowe sterowniki rok temu. W przypadku AMD z tego co pamiętam seria 5xxx już nie ma wsparcia.

Nvidia dba też o wsparcie poszczególnych gier. Twórcy gier mogą się do nich zgłosić i otrzymują za darmo wiele fajnych technologii, a przy bardziej oczekiwanych grach Nvidia nawet oddelegowuje swoich pracowników, by z programistami silnika optymalizowali grę. Co pozwala np. nanieść odpowiednie poprawki w sterowniku.

AMD wsparcia na tak dużą skalę nie udziela. Złośliwi powiedzą, że Nvidia blokuje wsparcie Radeonów, ale prawda jest taka, że AMD nawet nie kiwnie palcem, by dać twórcom gier takie narzędzia i wsparcie jak Nvidia.

Mało osób sobie zdaje sprawę, że to dzięki Nvidii porządna fizyka stała się standardem. Lata temu Havok i inne silniki były poza zasięgiem mniejszych deweloperów. Nvidia udostępniła jednak za darmo PhysX licząc na to, że twórcy będą dodawać dedykowane efekty dla GPU w swoich grach. Wyszło to średnio, ale PhysX został i jest nadal rozwijany.

W tej chwili jest to niekwestionowany standard obecny na wszystkich konsolach, smartfonach czy PC. Wszystko dzięki Nvidii.

Oczywiście można krytykować tę firmę, chociażby za windowanie cen kolejnych generacji GPU, ale prawda jest taka, że firma tyle musi, na ile konkurencja ją zmusi. Skoro jednak AMD zachowuje się tak jak zachowuje, byle tylko naciągnąć na kasę szukających oszczędności konsumentów. To jest jak jest.

post wyedytowany przez Likfidator 2016-09-13 14:07:59
13.09.2016 15:52
13.1
1
zanonimizowany687448
20
Generał

Patrzyłem na testy Digital Foundry, w większości przypadków spadki zaliczały też GTXy. Czasem mają nieco większe spadki, czasem mniejsze, ale nie było sytuacji w której Radeon ma 15klatek, a podobny GeForce w tym czasie 55. Fallouta 4 nie brałbym jako przykład, biorąc pod uwagę jak bardzo skopany jest jego silnik. Doom na początku faktycznie działał słabo, to raczej wina implementacji OpenGL, nieporównywalne z DX11. Na Vulkanie Rki dostały kosmicznego kopa, wyprzedziły/dorównały droższym kartom NV.

Z dużych gier AAA stosunek jest raczej inny. BF1, Cywilizacja VI, Watch Dogs 2, Deus ex, ME:Andromeda, Forza, Gearsy. Trochę tego jest. Vulkana prawie nikt nie stosuje, praktycznie jedyna gra to Doom. A szkoda bo jest o wiele lepszym API niż DX12.

AMD skupiło się na GCN, starsze karty dalej mają wsparcie, z tym że nie dostają konkretnej optymalizacji pod nowe tytuły.
Nvidia niby optymalizuje karty do serii 400(starsze też porzucili), ale te poprawki i tak niewiele wnoszą. Też skupiają się na najnowszych architekturach, stare odstawiając.

AMD swoje technologie upublicznia, chociaż z konkretnym wsparciem dalej jest słabo. Też wprowadziło sporo nowości, procesor 64bitowy, 2 rdzeniowy, czy asynchroniczne shadery w GCN. Gdyby nie forsowali nowego api(oczywiście robili to z własnych powodów), to Nvidia dalej zachwycałaby się beznadziejnym DX11.
Nvidia nie winduje jakoś specjalnie cen, są mniej więcej na tym samym poziomie, różnica to paręnaście/dziesiąt dolarów w jedną czy drugą stronę co generację. Złotówka spadła, to ceny wzrosły.

Nie to że bronię AMD, to korporacja jak każda inna dla której liczy się tylko pieniądz. Po prostu z niektórymi rzeczami moim zdaniem przesadzasz.

14.09.2016 00:59
Crod4312
14
odpowiedz
1 odpowiedź
Crod4312
150
Legend

Takie jeszcze pytanko bo nigdzie nie mogę znaleźć. Czy na boxowym chłodzeniu znajduje się już pasta termoprzewodząca?

14.09.2016 14:07
14.1
1
zanonimizowany687448
20
Generał

Tak, niezbyt powalająca, ale do zablokowanej i5-ki wystarczy.

Forum: Nowy PC. Co zmienić/dodać