Forum Gry Hobby Sprzęt Rozmawiamy Archiwum Regulamin

Poza grami Call of Duty Modern Warfare 2 - test wydajności

17.11.2009 11:48
1
goro55
27
Centurion

Super :-) Dobra sprawa :-D

17.11.2009 12:04
Wyrok
2
odpowiedz
Wyrok
36
Pretorianin

Fajne, przejrzyste i przydatne.

17.11.2009 12:05
3
odpowiedz
Alf
26
Pretorianin

Radeony coś słabo wypadająw nowym Call of Duty np: Radeon 4890 wydajnościowo na poziomie GTS 250 WTF?

17.11.2009 12:14
4
odpowiedz
leon691
59
Generał

chyba właśnie dobrze wypadają, szczególnie na słabszym procesorze 4890 do 1680x1050 bije wszystko od nvidii. Na i5 mniej więcej na poziomie gtx260, biorąc pod uwagę jak dobrze kręcą się 4890 to nie jest źle.

17.11.2009 12:19
Pl@ski
😐
5
odpowiedz
Pl@ski
49
Endżajner

LOL, kiedy w końcu przestaniecie się podniecać tą grą? Po jaką cholerę te testy w ogóle, przecież wiadome jest, że MW2 ze swoją przeciętną grafiką i przestarzałym silnikiem działa sprawnie na każdym przeciętnym pececie...

17.11.2009 12:23
Cappo
6
odpowiedz
Cappo
139
Senator

A gdzie 5870 ?

17.11.2009 12:23
7
odpowiedz
zanonimizowany97216
18
Chorąży

Pomimo "niezwykłej wydajności i świetnej ceny" jak zwykło się pisać o ATI ich grafiki zazwyczaj przegrywają z Geforcami. Nvidia - the way it's meant to be played jest obecne w co drugiej produkcji. Pewnie nie jest to nic wielkiego, ale widać, że Nvidii bardziej zależy na wspieraniu gier, niż ATI. W testach wydajnościowych radeony są szybsze, lepsze itp. ale poza benchmarkami nie jest to zbytnio widoczne. Oczywiście jest to tylko moja subiektywna opinia i może kiedyś Radeony będą miały tak samo dobre wsparcie jak karty Geforce.

17.11.2009 12:32
8
odpowiedz
leon691
59
Generał

może i im zależy ale przynajmniej do maja 2010 (planowana premiera Tesli, Fermi<do gier>ponoć jeszcze później) to ATI ma najwydajniejsze karty z dx11. Niestety z racji braku konkurencji rosną ceny.

17.11.2009 12:44
9
odpowiedz
zanonimizowany615328
7
Legionista

test taki sobie. komentarz redaktora odpowiedni do jakosci samego testu. tak ze 3/10 i to bardziej z przymrozeniem oka. po pierwsze cala platforma jest cienka (kto do groma kupuje 5300?) tak samo do ramu, platinumy? rili? plyta glowna p43 - kastrat, porazka. system 64bit pod 2gb ramu gdzie windows 7 sam wymaga 2gb ramu pod systemy 64bitowe - porazka. slowem zostales spalony na samym poczatku artykulu. cuz, jak ktos daje to nie narzekamy ;) same wyniki tez sa mocno podejrzane. po pierwsze sama wydajnosc HD58xx bije gtx290 co daje sie poznac w testach na innych forach. po drugie - nie ma najnmniejszej wzmianki o sterownikach uzytych do obu platform - a jestem pewien, ze opcje w sterownikach ATI ktore potrafia zmniejszych wydajnosc nawet o 20% nie zostaly wylaczone (wujek google na ratunek). poza tym, ech.. jedyna pozytywna cecha tego calego szachrajstwa jest mysl, ze nawet jak ktos nie ma pojecia o platformach do grania (jak nam przyzwoicie ten przyklad dal sam autor), ani zapalu do wycisniecia 10-15 fps "za darmo", moze sobie spokojnie pograc w najnowszy tytul za ok 400zl (radeony 4770 - geforce 9800GTX) ps. nie jestem fanboyem, cenie jakosc i oplacalnosc. wiem jak sobie samemu wybrac podzespoly i "co z czym dziala", nie trzeba miec do tego wlasnego sklepu, byc informatykiem czy mozgowcem. xxi wiek, wszystko da sie znalezc na internecie, nawet taka konfiguracje sprzetowa jaka nam odpowiada, przetestowana i sprawdzona pod kontem grania, no moze tylko nieco rzetelniej niz w powyzszym "tescie" :)
pozdrowka

17.11.2009 12:51
10
odpowiedz
zanonimizowany489780
88
Generał

Ho, ho to focus robi w GOLu konkurencję dla Egiełdy;)
Czyli wreszcie GOL ma fachowca od sprzętu i nie będzie musiał publikować mizernych testów z pcgameshardware;). Potraktujmy ten test jak początek, może doczekamy się większych i testów, i poświęconych nie poszczególnym grom a bardziej klasycznie: kartom grafiki.

Szeregowiec86 ->

Śmiem twierdzić że autor testu ma "nieco" większe pojęcie o tym co robi i pisze niż Ty, o czym zapewne zresztą będziesz miał okazję się przekonać.

leon691 ->

"biorąc pod uwagę jak dobrze kręcą się 4890 to nie jest źle", jak już bierzemy pod uwagę kręcenie to GF tak samo można kręcić, a często nawet bardziej niż Radeony...

17.11.2009 13:01
11
odpowiedz
Jagerek
9
Legionista

Ten sprzęt za 2K to chyba z monitorem liczone. :P W ostatnich wynikach podaliście dwa razy tą samą tabelkę!

17.11.2009 13:04
12
odpowiedz
zanonimizowany615328
7
Legionista

aha - ku scislosci, wszystko co wyciaga stale min 30fps, mozna smialo nazwac dobra maszyna do grania.

@soplic - miejmy nadzieje, ze sie nie przekonam, po tym artykule wystarczajaco dobrze mozna ocenic "specjaliste" do sprawy hardwareowych :) a dla egieldy moze co najwyzej zrobic konkurencje w komentarzach i ilosci tabelek.. stwierdzic oczywiscie mozesz, z tym ze jaki jest wynik twierdzenia to zalezy od zalozen, a ty zakladasz z gory, ze jego umiejetnosci przewyzszaja moje, co w dalszej czesci powinno zaowocowac sprzecznoscia i doprowadzic do prawidlowej odpowiedzi.

co do krecenia.. jak wyjdziesz z teoria ze 40nm kreci sie tak samo jak 65nm to pewnie rownie dobrze moglbys pojsc na wydzial fizyki i powiedziec smialo ze masz gdzies teorie wzglednosci :)

@jagerek - zgadzam sie :) chyba ze brano pod uwage pierwotna konfiguracje z 57xx na crossfire ;)

pozdrowka :)

17.11.2009 13:12
13
odpowiedz
zanonimizowany385918
88
Konsul

Czyli ja majac 45-60 fpsow na moim sprzecie w COD na fullhd to niezle jak na maszyne 3 letnia

17.11.2009 13:26
14
odpowiedz
Święty!
123
Konsul

Muszę przyznać in plus wszystkim CODom, że zewsze miały dobrze zoptymalizowany silnik przy całkiem ładnej grafice. U mnie MW2 chodzi bardzo ładnie przy ustawieniach "powyżej średnich", bez AA, gdzie przy identycznej konfiguracji tnie się Stalker: SoC (gra o parę lat starsza!).

17.11.2009 13:32
15
odpowiedz
leon691
59
Generał

Soplic-->ale ja nie chcę brać pod uwagę GF. Mnie interesuje akurat Radeon 4890, nie pisałem o pojedynku kart tylko o fakcie że po podkręceniu 4890 jeszcze troche przyspiesza i zapewnia lepszy framerate. Logiczne że inne karty też.

17.11.2009 13:37
16
odpowiedz
zanonimizowany489780
88
Generał

Szeregowiec86 ->

Nie znam Twojego dorobku w tej dziedzinie, sam autor testu i jego dorobek jest znany w tej części sieci która zajmuje się testami hardware, więc podtrzymuję informację o konkurencji (w przyszłości mam nadzieję) dla egiełdy, nie bezpodstawnie zresztą piszę o egiełdzie, gdybyś chwile się zastanowił wiedziałbyś dlaczego powołałem się na ten vortal.

Co ma do kręcenia 65 czy 40 nm, wyżyłowany GPU w 40nm będzie się gorzej kręcił niż mający zapas wykonany w 65. Po za tym nVidia produkuje swoje GPU w tej chwili w 55 (w 40 low endowe nm. Tak więc nic nie stoi na przeszkodzie żeby układ 65 nm kręcił się lepiej niż 40nm, podatność na kręcenie nie zależy zresztą tylko od procesu wytwarzania, po tym odkrywczym stwierdzeniu iż to czy mamy do czynienia z 40 czy 65 determinuje podatność na podkręcanie mogę ocenić stan Twojej wiedzy na temat sprzętu, dorobek focusa częściowo znam, podtrzymuję więc opinię a wręcz utwierdzam się w przekonaniu o wyższości jego kwalifikacji.

leon691 ->

OK, dlatego nie można pisać: karta A jest porównywalna z B, ale podkręcona ją pokona, bo tak samo można podkręcić kartę B i ich stosunek wydajności pozostanie ten sam ( pomijając już to że pewne karty kręcą się lepiej inne gorzej, swoją drogą do tej pory lepiej kręciły się karty nVidii) Też uważam 4890 za kartę szybszą od gtxa 260/216 (jest to konkurent gtx275), aczkolwiek nie jest tak w każdej grze.

17.11.2009 13:47
17
odpowiedz
zanonimizowany615328
7
Legionista

@soplic
nie zamierzam polemizowac, masz swoje racje, ktore sa widac najprawdziwsze i najtwojsze :) pozdrawiam

17.11.2009 13:52
18
odpowiedz
zanonimizowany489780
88
Generał

Szeregowiec86 ->

Czasem mam rację, czasem nie, nie jestem też adwokatem focusa, rozbawiło mnie tylko to iż potraktowałeś niemalże jak lamera jednego z najbardziej znanych i cenionych testerów sprzętu w tym kraju, niedawną podporę egiełdy zresztą, stąd moje do niej nawiązania;)

17.11.2009 13:53
😜
19
odpowiedz
zanonimizowany528985
5
Junior

Ciekawe to szkoda ze nie robicie tak do innych "hitów". U mnie sytuacja wygląda tak max AA max Anizo wszystkie detale tez włączone tektury na extra i rozdzielczość 1280x1024(monitor nie pozwala więcej ustawić). Sprzęt: athlon XP 3800+ x2, GeForce 8800 GT (od BFG) 2 GB ramu (3 kości każda innej firmy) i płyta Gigabyte K8TRITON. Powiem szczerze ze cod6 chodzi płynnie bez ścinek przy 35-60 fps.

17.11.2009 13:54
20
odpowiedz
KUSZCZAK1324
19
Chorąży

A mnie COD MW 2 chodzi na maXXA ;-P Mam GeForce 9800 GTX ;-)

17.11.2009 14:00
👍
21
odpowiedz
zanonimizowany637460
12
Generał

Szkoda ,że nie ma mojego 8600 GTS ciekawe jak by wypadł ale podejrzewam ,że wyciągnął by te 5kl/sek więcej niż 9500GT który jest słabszy nawet od GF8600 GT ddr3 te skromne 30kl/sek mi spokojnie wystarczy (mówię o 1280x1024 bez AA max ustawieniami bo wyższe rozdzielczości są mi nie potrzebne) Co do testu to uważam ,że redakcja spisała się na medal

17.11.2009 14:02
D:-->K@jon<--:D
22
odpowiedz
D:-->K@jon<--:D
115
Żubr z puszczy

a mi chodzi wolniej w rodzielczosci HD w porownaniu do poprzednika, wczesniej moglem grac z wlaczonym AA, a teraz musze mieć wylączone.

17.11.2009 14:04
😉
23
odpowiedz
zanonimizowany678464
3
Legionista

Mam własnie takie małe pytanie czy Modern Warfare 2 poszedł by na karcie Ati Radeon X1600.Będe wdzięczny

17.11.2009 14:06
24
odpowiedz
leon691
59
Generał

dzieci muszą się dowartościować. NIE, NIE CHODZI WAM NA MAXA! Tak sie wam tylko wydaje.

Soplic--> z tymi nm to faktycznie niewiara. Generalnie przy OC najcześciej przeszkadza niskie napięcie na rdzeniu, temp czy proces technologiczny ma mniejsze znaczenie. Często przy testach czytamy - "po niższym procesie technologicznym spodziewamy sie bla bla bla" a potem okazuje się że 55nm>40nm

17.11.2009 14:14
25
odpowiedz
zanonimizowany646591
9
Pretorianin

Na moim sprzęcie śmiga jak marzenie w rozdzielczości 1920x1200 [ Extra, AAx4 ]
Grafika: GF 9800GT 1024MB
Procek: AMD Athlon II X4 ~ OC 3.2GHz

~ ok. 50FPS'ów ( według Fraps'a )

17.11.2009 14:25
26
odpowiedz
zanonimizowany489780
88
Generał

Ta gra po prostu nie ma wielkich wymagań, ale to raczej oczywiste biorąc pod uwagę leciwość silnika. Zobaczymy jak na GOLu rozwinie się dział testów sprzętu, ukierunkowanych tylko na gry.

17.11.2009 14:30
😁
27
odpowiedz
zanonimizowany653201
25
Legend

Shader ----> błagam cię chłopcze nie pisz bzdur bo aż Żal.. oczywiście jak porównujesz GF i Radeon'a z innej półki to wiadomo ,że Radeon będzie lepszy w benchmarku ale jak porównujesz tą samą półkę cenową (konkurencyjne modele) to praktycznie zawsze lepsze są GF (np.GTX' 275 vs R4890 ten pierwszy jest znacznie lepszy) ,a i jeszcze jedno nie sugeruj się czasem 3DMarkiem 03,05 bo to tak samo jak byś testował nowe karty w starych grach ,a takie wyniki nie mają znaczenia Ogółem popatrz na 3D Mark Vantage to będziesz wiedział co jest teoretycznie wydajniejsze.Z racji tego ,że Nvidia "sponsoruje" producentów w grach czasem może być większa przewaga GF'a nawet tego z niższej półki... Tyle w temacie

----> http://www.benchmark.pl/zestawienie_gpu.html - poczytaj sobie(porównaj itp.) to może nie będziesz wypisywał bzdur...

Szeregowiec86 ---> kolejny "znafca" od siedmiu boleści

"same wyniki tez sa mocno podejrzane. po pierwsze sama wydajnosc HD58xx bije gtx290 co daje sie poznac w testach na innych forach."

Po pierwsze widać ,że nie masz pojęcia co piszesz po Drugie to wydajność HD 5870 (obecnie najmocniejszego modelu z serii hd58xx) jest słabsza od GTX'a 295 w większości wypadków lub czasem porównywalna Radeon być może będzie szybszy ale dopiero w grach dx11 (wiem wiem zaraz się rozpłaczesz ,że twoja ukochana firma nie ma obecnie najwydajniejszej karty) Po trzecie HD 5850 który jest konkurentem dla GTX'a 285 (tak wiem w tym wypadku Radek jest szybszy co nie oznacza ,że nie ma gier w których jest słabszy) też dostaje w dupe od GTX'a 295 więc nie wiem w którym momencie "sama" wydajność HD 58xx bije GTX'a "290" (zapomniałeś o 5 na końcu) Po czwarte w tym teście nie ma HD 5870 ani GTX'a 295 więc coś ci się przyśniło...

17.11.2009 15:08
28
odpowiedz
hight_power
35
Generał

Ja mam pytanie czy Geforce 9800GTX+ 1024MB jest lepszy od 9800GT 1024MB i o ile bo tutaj niema :| bede wdzieczny za odpowiedzi

17.11.2009 15:32
👍
29
odpowiedz
Bandi_90
84
Konsul

U mnie w rozdziałce 1920x1200 wszystko max + wygładzanie, zero ściny przez całą grę. Gdyby mi FRAPS działał to podałbym ilość FPS-ów. Wszystkie gry pc-towe powinny brać przykład Z MW2 - super gra. super grafika, śmieszne wymagania. Brawo :)

ps. Nick w necie: Bandi_PL ub Bandi_LKS

17.11.2009 15:56
30
odpowiedz
zanonimizowany528985
5
Junior

Bandi_90
Wszystkie gry pc-towe powinny brać przykład Z MW2

Gdyby tak się działo nie powstawały by nowe silniki graficzne my nie kupowalibyśmy nowego sprzętu i rynek padł by łeb na szyje...

Chłopaki z IW porostu zrobili mały bonus wiedzieli ze gra się sprzeda. Mogli udoskonalić silnik gry ale wtedy ludzie o słabym sprzęcie np takim gdzie MW 1 się przycinał nie kopiły by MW2. Wiec to był chwyt marketingowy :)

17.11.2009 16:04
31
odpowiedz
leon691
59
Generał

Lukas172--->ojej jaki złośnik
5870 to karta jednordzeniowa a gtx 295 to karta dwurdzeniowa, Radeon 5970 juz w ofercie zachodnich sklepów internetowych (nie płacz). W segmencie kart tańszych zdarza się że w niektórych tytułach nawet 4890 z firmowym OC bije gtx 285 (nie mówiąc już o 5850)

17.11.2009 16:13
32
odpowiedz
zanonimizowany489780
88
Generał

hight_power->

Tak, Twoja karta jest szybsza od 9800gt, 9800gtx+ to gts250 czyli podkręcony 8800gts 512, tak więc Twoja karta jest w testach, patrz po prostu na wyniki gts250.

17.11.2009 16:58
33
odpowiedz
tapir15
1
Junior

Mój sprzęt: Core 2 Duo E8400 3.00GHz, Asus P5Q Pro, 4GB Ram (3.25 na XP). Czy na tych ustawieniach mogę włączyć maksymalne wygładzanie, anizo przy rozdzielczości 1680x1050? Czy raczej to będzie niewskazane i będzie w jakiś sposób utrudniało rozgrywkę?

17.11.2009 17:03
34
odpowiedz
leon691
59
Generał

Nie bedzie ci chodzić w ogóle bo nie masz karty graficznej :)

17.11.2009 17:45
35
odpowiedz
zanonimizowany660134
4
Junior

leon691---> hahhhahhahhhh :))

17.11.2009 18:12
36
odpowiedz
NFSV fan
93
Generał

Lukas172_Nomad_ ----->

Może zdejmij z oczu klapki z napisem "Nvidia" i popatrz bardziej trzeźwo.

Porównując najszybsze karty z POJEDYCZNYM GPU MAMY:

Radeon HD 5870 vs GeForce GTX285 -------- zdecydowane zwycięstwo ATI
A co do kart z PODWÓJNYM GPU to do premiery HD 5970 został tylko jeden dzień a porównanie wtedy będzie takie:

Radeon HD 5970 vs GeForce GTX295
Zważywszy na to, że pojedynczy HD 5870 ma wydajność bardzo zbliżoną do podwójnego GTX 295 chyba nie trzeba być wróżką żeby przewidzieć kto jutro przejmie koronę wydajności.

ATI już teraz ma NAJSZYBSZE GPU, a od jutra będzie mieć także najszybszą kartę.
I to by było na tyle w kwestii starcia ATI vs NV na chwilę obecną.

Nvidia na top wrócić może najwcześniej po premierze FERMI, a ten się pokaże najwcześniej na początku 2010, albo i później.

17.11.2009 18:29
👍
37
odpowiedz
zanonimizowany637460
12
Generał

Świetny test

17.11.2009 18:31
😐
38
odpowiedz
zanonimizowany653201
25
Legend

NFSV fan - może to ty powinieneś zdjąć klapki z oczu z napisem ATI co nas obchodzi to ,że GTX to dwa GPU skoro jest sprzedawany podobnej cenie co HD 5870 i jest jego konkurentem więc nie możesz porównywać GTX'a 285 do HD 5870 !!! rozumiesz to ?? czy tak jak kiedyś będziesz porównywał HD 4890 po OC do referencyjnego GTX'a 285 ? Co do HD 5970 tak przez jakiś czas będzie najszybszą kartą ale widziałem nieoficjalne wyniki i karta ledwo ledwo przebijała GTX'a !

17.11.2009 18:58
39
odpowiedz
zanonimizowany97216
18
Chorąży

Lukas172_Nomad_ -> oczywiście ostatniego zdania z mojego postu już nie doczytałeś? Jest to moje zdanie i możesz się z nim nie zgadzać. W Batman Arkham Asylum ATI jakimś dziwnym trafem też miala niższe osiągi. Sam napisałeś, że cytuję: "z racji tego ,że Nvidia "sponsoruje" producentów w grach czasem może być większa przewaga GF'a nawet tego z niższej półki" To po co przepłacać? Nie chcę grafiki po to żeby miała stać i się kurzyć. Chcę bezproblemowo pograć od czasu do czasu w jakąś grę. I nie pisz do mnie "chłopcze", "wielki znaffco".

17.11.2009 18:59
40
odpowiedz
NFSV fan
93
Generał

Lukas172_Nomad_ ------>

Porównuję najszybszą kartę z jednym GPU Nvidii z najszybszą kartą z jednym GPU ATI, analogicznie najszybszą kartę z dwoma GPU Nvidii z najszybszą kartą z dwoma GPU ATI.

To porównanie nie ma na celu odpowiedzenie na pytanie "KTÓRĄ KARTĘ BARDZIEJ OPŁACA SIĘ KUPIĆ?"!!!!!

ono odpowiada na pytanie (na chwilę obecną rzecz jasna) "KTO MA NAJSZYBSZE GPU" oraz "KTO MA NAJSZYBSZĄ KARTĘ"

Na pierwsze pytanie odpowiedź jest jasna i jedna: ATI
Na pytanie drugie odpowiedź oficjalną poznamy jutro, ale na 99% także będzie oczywista: ATI

A jeszcze takie małe pytanie skoro już tak piszesz co z czym mogę porównywać - Z czym wg Ciebie mam porównać HD 5970? Bo boję się że niestety czego bym od Nvidii nie wziął to zieloni dostaną w d**ę więc tak pytam, bo z Twoją kreatywnością na pewno wynajdziesz jakiegoś asa w kolekcji kart Nvidii.

Ktoś już chyba udowadniał (nie wiem czy na GOL-u) wyższość nawet mainstreamowych kart Nvidii nad najnowszą serią 5xxx ATI posługując się przykładem.... Quake'a 3 :) Tobie taka argumentacja z pewnością nie jest obca. W Twoim stylu :)

17.11.2009 19:05
41
odpowiedz
leon691
59
Generał

w maju 2010 premiera tesli. Wersja Fermi do gier podobno później.
nfs fun -> pomyliło ci się faktycznie 5870 to nie ma byc konkurent gtx 285 tylko gtx 295, z gtx 285 spokojnie radzi sobie 5850.
Odnośnie cen - a czyja to niby wina że gtx295 i 5870 sa w podobnej cenie? Nvidii! Nie naciskają na ATI i jako alternatywe do szybkiej nowoczesnej karty z niskim poborem prądu dają dwujajową kanapke z wszystkimi wadami dwujajowych rozwiązań. Ati się rozbestwiło i winduje ceny, tak działa brak konkurencji.
Tutaj test najnowszego potwora od nvidii - http://pclab.pl/art39674.html

17.11.2009 21:01
42
odpowiedz
zanonimizowany464166
34
Chorąży

Ja ma kartę graficzną Radeon HD 4650 Procesor dwurdzeniowy i 2GB RAM i pykam w te gierke na średnich wymaganiach XD. Gra genialna i nie ma jej nic do zarzucenia.

17.11.2009 23:39
👎
43
odpowiedz
zanonimizowany515377
45
Pretorianin

Jaka wyższość kart Nvidii?? O czym Oni piszą? Widać też, że słabsze procesory, lepiej działają na kartach ATI, czyli Radeonach!

18.11.2009 07:54
44
odpowiedz
zanonimizowany619348
5
Junior

Smieszny jest ten wykres. Ja mam 8600 co prawda po OC:D ale zawsze athlon x2 4200 i przeszedlem cala gre w 4.5h;/ Gralem w 1440x900 Grafika na high bez aa 2 razy tylko mialem okolo 20 klatek raz w misji w moskwie w tym dymie i na lotnisku.a takto caly czas powyzej 30 klatek max 60. srednio kolo 35-40

18.11.2009 16:05
45
odpowiedz
zanonimizowany678464
3
Legionista

To jak mógł by ktoś odpowiedzieć na moje pytanie pod tytułem czy Modern Warfare 2 poszedł by na ATI readon X1600.Pytam bo nie chce kupować na ślepo

19.11.2009 11:28
46
odpowiedz
maniac047
35
Chorąży

No jakoś mi się nie widzi że wymagania się zmniejszyły, grałem w CoD World At War i gra wydawało się trochę płynniej chodziła, teraz też płynnie chodzi ale czasem lubi na chwilę się lekko przyciąć... Dodam że na moim sprzęcie chodzi na full detalach przy rozdzielczości 1680x1050,
a kompa mam takiego:
Amd Phenom x3 2.8 Ghz
2 GB Ram 1333 Mhz
Radeon HD 4870 512 MB

19.11.2009 12:59
👍
47
odpowiedz
tomasz.niechaj
7
nvision.pl

@ Szeregowiec86
Ponoć najważniejsze jest pierwsze wrażenie, więc: WITAJ! :)

Odniosę się do fragmentów Twojej wypowiedzi:
"po pierwsze cala platforma jest cienka (kto do groma kupuje 5300?) tak samo do ramu, platinumy? rili? plyta glowna p43 - kastrat, porazka."
Zamysł był prosty: mamy dwa komputery: jeden za 2000 złotych i jeden za 4000 złotych. Właśnie na takich zestawach będziemy testować WSZYSTKIE karty graficzne. Bardzo możliwe, że wejdzie jeszcze platforma extreme, czyli jakiś podkręcony core i5 / core i7, bo jednak sporo osób podkręca, ale to i tak mniejszość.

Co do kupowania E5300. Widać, masz niezbyt duże pojęcie na temat tego co się sprzedaje itd. Procesory typu E5200 / E5300 to najpopularniejszy segment wśród użytkowników domowych. Na 10 takich pentiumów sprzedaje się jeden core 2 duo, nie mówiąc o wyższych 4-rdzeniowcach. Po drugie - bardzo dużo osób już ma tej klasy sprzęt (czy z rodziny E5xxx czy z poprzedniej E2xxx). A to jak się okazuje ma duże znaczenie z punktu widzenia którą, kartę graficznę ewentualnie mam wybrać.

"system 64bit pod 2gb ramu gdzie windows 7 sam wymaga 2gb ramu pod systemy 64bitowe - porazka."
Po pierwsze - patrz wyżej. Jeśli wciśniesz 4 GB w zestaw za 2000 złotych to OK. Przy dzisiejszych cenach będzie to wyczyn. Po drugie system 64-bitowy sam w sobie nie zajmuje znacząco więcej w pamięci - raptem 100 MB. No ale jeśli wolisz nie wykorzystać możliwości jakie ma procesor zainstalowany w komputerze, to już Twoja sprawa.

"slowem zostales spalony na samym poczatku artykulu. cuz, jak ktos daje to nie narzekamy ;)"
Widać, masz jeszcze za małe doświadczenie - po pierwsze piszesz z błędami ortograficznymi, a po drugie jak dalej będziesz ciągnął ten wątek, to możemy się spotkać w sądzie. Niemniej z chęcią posłucham kto miałby mi zapłacić za wyniki. Może będziesz tym pierwszym, który wymyśli choćby trochę realną historię.

"po pierwsze sama wydajnosc HD58xx bije gtx290 co daje sie poznac w testach na innych forach."
1. Nie znam karty co się zwie gtx290
2. jeśli masz na myśli gtx'a 290, to się mylisz, ale z chęcią poznam Twoje "źródła"
3. jeśli miałeś na myśli GTX' 285, to owszem HD 58xx bije go, co zresztą widać w testach (tych moich również). Na potwierdzenie tego zobacz na te dwa artykuły (również moje):
http://www.purepc.pl/karty_graficzne/radeon_hd_5850_1gb_rewelacja_za_1000_zlotych
http://www.purepc.pl/karty_graficzne/test_radeon_hd_5870

"po drugie - nie ma najnmniejszej wzmianki o sterownikach uzytych do obu platform"
Fakt, o tym zapomniałem

"a jestem pewien, ze opcje w sterownikach ATI ktore potrafia zmniejszych wydajnosc nawet o 20% nie zostaly wylaczone (wujek google na ratunek)"
Z miłą chęcią poznam te opcje, które mają tak drastyczny wpływ na wydajność. Żebyś przypadkiem nie myślał, że się wykręcam i nie wiem to powiem tylko tyle, że wpływ na wydajność mają MIĘDZY INNYMI opcje ustawienia: catalyst ai, sterownika do zintegrowanego dźwięku, poziomu vsynca oraz metody właczenia anizo.

Pozdrawiam

19.11.2009 13:14
48
odpowiedz
tomasz.niechaj
7
nvision.pl

@ lukas_dion
Jakbyś popatrzył obiektywnie na wyniki, to byś zobaczył, że:

1. W przypadku mocnych grafik (takich za ponad 600 złotych), które pozwalają na grę z wygładzaniem krawędzi porównywalna cenowo karta nvidii jest szybsza od ati. Przykład: GTX 260 jest nie tylko szybszy od HD 4870, ale i od HD 4890. W przypadku takich grafik mówimy o raczej mocnych procesorach, więc trzeba patrzeć na wyniki z Core i5.

2. Słabsze grafiki z przedziału 400-600 złotych: również pozwalają na grę z wygładzaniem krawędzi w 1680x1050. W ich przypadku (również na Pentium Dual Core) nvidia lepiej wypada. GTS 250 przegrał dopiero z HD 4870, podczas gdy ten pierwszy kosztuje tyle co HD 4850.

3. W przypadku najsłabszych grafik, czyli zaczynając od 9600 GT / HD 4670 w dół rónież nvidia lepiej wypada. 9600 GT, który kosztuje około 275 złotych jest lepszy i to sporo od HD 4670, tańszego o zaledwie 15-20 złotych.

Ty zaś patrzysz na wykresy typu: grafika za 1000 złotych z procesorem za 220 złotych w rozdzielczości monitora za 400 złotych. Kto takie komputery kupuje?
Jeśli kogoś stać na grafikę za 600-1000 złotych to ma procka porównywalnego wydajnościowo do Core i5 (ewentualnie tańszego, ale podkręconego do podobnej wydajności). Ma też monitor minimum 1680x1050, a mając taką grafike gra z wygładzaniem krawędzi.

Analogicznie: posiadacz karty za 300 złotych i procesora za 200 złotych nie będzie raczej posiadał monitora umożliwiającego grę w 1920x1200. Co najwyżej będzie miał 1680x1050.

Pozdrawiam

19.11.2009 16:42
👍
49
odpowiedz
hight_power
35
Generał

[32]Soplic-> dzieki ^^

21.11.2009 00:07
50
odpowiedz
NFSV fan
93
Generał

@Focus :)

Testów GPU w MW2 jest aktualnie jak na lekarstwo więc trudno mi ten Twój z czymś porównywać, aczkolwiek dziwią mnie słabe wyniki kart ATI zwłaszcza w konfrontacji tych wyników z wynikami uzyskanymi przez Radeony i GeForce'y w poprzedniej odsłonie CoD która jakby wynikało z artykułu miała większe wymagania sprzętowe.

Zatem jeżeli engine jest ten sam, poprzednio wymagania były większe i wygrywała dana karta, to w nowej części te relacje nie powinny zostać odwrócone do góry nogami a tak się stało. Nie bardzo wiem czemu.

Weźmy ten test (Twojego autorstwa) wyniki w CoD MW (1)

http://www.e*****a.com.pl/?str=art&id=4400-12

W tym teście Radeon 4870 deklasuje wręcz GTX-a 280 i to niezależnie od rozdzielczości czy włączeniu bądź nie AA/Anizo. O GTX260 nawet nie ma co wspominać.

Jak mi zatem wyjaśnisz, że w nowej edycji która ma mniejsze wymagania sprzętowe przyspieszona wersja Radeona 4870 ma ogromne problemy z pokonaniem nawet nie GTX280 (ok GTX285, ale jego wydajność jest podobna do GTX280), ale nawet GTX-a 260?!

Mało tego GTX285 nie zdołał pokonać nawet najnowszy HD 5850, mimo że GTX-a 280 w MW1 wyprzedzał z ogromną przewagą HD 4870!!

Wybacz, niczego tu nie insynuuje ani nie zarzucam, ale jest to naprawdę dziwne..

Mogą być jakieś rozbieżności większe mniejsze. Ale żeby karty ATI które z tym enginem radziły sobie dużo lepiej niż karty Nvidii, nagle dostały niemocy i to ogromnej wręcz niemocy względem testu który przytoczyłem to jest nienormalne.

21.11.2009 11:36
😁
51
odpowiedz
zanonimizowany637460
12
Generał

z tym enginem radziły sobie dużo lepiej niż karty Nvidii

No tak zwłaszcza w COD 5 nie ma co

21.11.2009 13:20
52
odpowiedz
NFSV fan
93
Generał

Istotnie moje niedopatrzenie, pytanie powinno raczej brzmieć:

"Dlaczego w COD 5 Radeony radzą sobie tak słabo, skoro COD 4 radzą sobie tak dobrze". Marna wydajność w MW2 zdaje się wynikać z równie kiepskiej w COD 5.

Tyle, że COD 5 robiła inna ekipa niż COD 4 i MW2.

21.11.2009 19:37
😒
53
odpowiedz
flavorflav69
30
Konsul

kurde,aż wstyd się przyznać że najwyżej pójdzie na minimalnych detalach :(. ale już niedługo święta i nowy X360 :D

21.11.2009 19:52
54
odpowiedz
zanonimizowany653201
25
Legend

flavorflav69- jakiego masz pc'ta ??

22.11.2009 11:26
55
odpowiedz
zanonimizowany658051
14
Centurion

Ja mam radeona 3870 procka intela e4600 2.40gz
2 gb ramu i chodzi mi średnio powyżej 60 fps

22.11.2009 11:30
56
odpowiedz
zanonimizowany658051
14
Centurion

zapomniałem dodać że gram na rozdzielczości 1280 1024 0 AA, Anizo-16x

22.11.2009 17:35
😐
57
odpowiedz
tomasz.niechaj
7
nvision.pl

@ NFSV fan
na drugi raz więcej obiektywizmu proszę :)

Popatrz sobie w artykuł o Radeonie HD 4890 (również na egieldzie). Końcówka adresu to: 5265-4

Jak na dłoni widać, że GF GTX 260 (!!!) jest szybszy od wyjątkowo wysoko podkręconego HD 4890 (GTX również był kręcony, ale testowany Sapphire był pod względem OC bardzo wyjątkowy) - szczególnie z włączonym wygładzaniem krawędzi.

Widać też wyraźnie, że np. w teście "relentness" karty są porówntywalne podczas gdy w "vendetta" już karta nvidii jest szybsza. Nie mówiąc o teście "Black Cats", gdzie to właśnie Radeon bryluje. A przecież to ten sam silnik! Trzy miejsca tej samej gry (a więc tego samego silnika itd.) i trzy zupełnieinne relacje między dwiema kartami!

Widzisz więc, że o ile w COD 4 wychodziły takie a nie inne wyniki, to już w COD5 było inaczej, zaś w COD6 jest jeszcze inaczej. Idąc Twoim tokiem rozumowania, to wyniki powinny być identyczne jak w Call of Duty 1, bo to też ten sam silnik.

Niestety, ale nie odróżniasz czegoś takiego jak silnik graficzny od silnika mechanicznego (w sensie podstawy samej gry). Kilka przykładów:
1. Splinter Cell Chaos Theory bazował na stareńkim silniku Unreala, czego dowodem były między innymi mocno "kwadratowe" koła. Mimo to gra wykorzystywała DirectX 9.0c, podczas gdy sam silnik MECHANICZNY znał w najlepszym wypadku środowisko DX8.

2. Popatrz na wyniki uzyskane w grze Half Life 2 i później zobacz co się dzieje w Half Life 2 Episode Two czy Left 4 Dead. Ten pierwszy wykorzystywał tylko jeden rdzeń procesora i karty ATi rzeczywiście w nim dobrze wypadały, ale UWAGA - mowa tylko o serii X800. Wynikało to stąd, że w porównaniu z ówczesnymi GF'ami zapewniały wyższą wydajność wypełniania (GF'y z kolei były lepsze w cieniowaniu). Późniejsze edycje TEGO SAMEGO silnika bardziej obciążały jednosstki cieniujące w kartach graficznych i o ile nowszy Radeon (np. HD 2600 Pro) przegrywał z rodziną X800 w pierwszym half life 2, to już w nowszych wersjach wygrywał, ponieważ miał wyższą wydajność cieniowania.

3. Wiesz ile gier wykorzystuje silnik Unreala 3? Podam tylko kilka przykładów: Splinter Cell Double Agent, Ghost Recon Advanced Warfighter 1/2, Rainbow Six Vegas 1/2, Batman najnowszy, Clive Barkers: Jericho, Mirror's Edge.

Popatrz jak wygląda sam Unreal 3, a jak wygląda Mirror's Edge. W życiu byś nie powiedział że to ten sam silnik. Zależnie od gry okazuje się, że HD 4890 przegrywa nawet z GTS'em 250, albo GTX 285 plasuje się za HD 4870. A TO CAŁY CZAS JEDEN I TEN SAM SILNIK

4. Doom3. Na jego podstawie powstało całkiem dużo gier. M.in. Prey oraz najnowsze Enemy Territory. W tym pierwszym Radeon HD 4870 raczej nie był w stanie przegonić GTX'a 260 (tego pierwszego, nie 216), zaś w tym drugim udało się mu nawet pokonać GTX'a 280.

Silnik cały czas ewoluuje. Deweloper faszeruje go coraz większymi teksturami, coraz większą ilością światła oraz większą ilością elementów, które rzucają cień. Gdyby takie elementy ograniczał silnik, to nikt by go nie używał, ale że nie ogranicza to programiści faszerują grę coraz lepszą grafiką, a to ma wpływ na relacje między kartami.

Pozdrawiam

23.11.2009 00:37
58
odpowiedz
NFSV fan
93
Generał

Dziękuję że Ci się chciało tak szczegółowo odpisywać na posta który, jak teraz widzę nie był do końca przemyślany. Na dobrą sprawę wystarczyłoby gdybym popatrzył w wyniki w COD 5 i już bym nie napisał tego co napisałem, ale nie popatrzyłem... cóż....;/

Pozdrawiam również

23.11.2009 01:05
👍
59
odpowiedz
tomasz.niechaj
7
nvision.pl

no problem :)
Na mnie zarzuty o moją rzekomą stronniczość działają trochę jak płachta na byka ;)

Ale cieszę się, że już wszystko jest jasne. Jak coś to pytaj.

Pozdrawiam

Poza grami Call of Duty Modern Warfare 2 - test wydajności