Forum Gry Hobby Sprzęt Rozmawiamy Archiwum Regulamin

Technologie GeForce GTX 470 i 480 - pierwsze recenzje i benchmarki

27.03.2010 09:08
1
Drau
82
Legend

Kiepsko, taki czas oczekiwania na karte, a wydajnosc wieksza raptem o pare klatek na sekunde, doslownie [BF:BC2]... po prostu smiech na sali :)

27.03.2010 09:11
Barthez x
2
odpowiedz
Barthez x
201
vel barth89

Jedyne dobre z tego to, że może ceny Radków spadną i zacznie się konkurencja właściwa ;)

27.03.2010 09:15
kajtek603
3
odpowiedz
kajtek603
37
International Level

Wielki powrót GeForców :D

27.03.2010 09:18
4
odpowiedz
zanonimizowany626059
0
Centurion

GeForce to shit widać to elegancko :) drogie i hu**e xd heh

27.03.2010 09:19
legrooch
😁
5
odpowiedz
legrooch
231
MPO Squad Member

Super wydajne. Nie mają konkurencji. Jasne.....

27.03.2010 09:24
6
odpowiedz
zanonimizowany187303
65
Senator

Ewidentnie kuleje tu stosunek ceny do jakości. Poza tym karty się grzeją jak szalone, pobierają aż za dużo prądu i są głośne jak cholera. Kiepsko jednym słowem.

27.03.2010 09:26
BOLOYOO
7
odpowiedz
BOLOYOO
88
Generał

AMD/ATI de best ;)

27.03.2010 09:27
😱
8
odpowiedz
Krzachu
65
Pretorianin

Kurde! Ja tu myślałem, że zieloni zostawią konkurencje ładnych kilkanaście/kilkadziesiąt procent w tyle......śmiać się czy płakać?

27.03.2010 09:29
9
odpowiedz
Bajta
46
Pretorianin

Słabiutko, a miała być taka rewolucja. GTX 480 grzeje się do 100 nawet, hałasuje jak suszarka i ciągnie więcej prądu niż HD5970. HD5870 jest tylko ciupkę słabszy a o 500-600 złotych tańszy.

27.03.2010 09:31
10
odpowiedz
Dawid8910
88
Jestę Hejterę

W SLI są tylko dobre
Pojedynczo są niczym nowym. I za to chcą 2,500zł
Ale też by w SLI dali ATI i znowu ATI by zmiotła GTX
Zwykły odgrzewany kotlet od GTX295, dodali DX11 i inne zbędne pierdoły, bo i tak DX9 a DX11 to żadna różnica. A przepraszam, -20FPS ;]

27.03.2010 09:44
11
odpowiedz
zanonimizowany455462
39
Chorąży

też się zawiodłem, po trzech latach na zielonym wracam do obozu czerwonych.

27.03.2010 09:44
12
odpowiedz
Mati 88 !?
42
Blaugrana

Dawid chyba nie wiesz co to znaczy odgrzewany kotlet czytałeś choć specyfikacje tej karty? Wątpię.
Fakt karta nie zachwyca, jedynie b.dobra wydajność w dx11 co pozwala myśleć o przyszłości tej architektury która zapewne przez nvidie będzie stosowana przez kilka lat jak g80, jednak choćby ta karta była tańsza o 500zł i tak bym jej nie wziął ze względu na pobór mocy, głośność (http://www.hardocp.com/article/2010/03/26/nvidia_fermi_gtx_470_480_sli_review/7), a także temp (miałem 4850 ref i dziękuje już za takie grzejniki). Szkoda tylko, ze jeżeli nvidia nie zleci mocno z cena (o co będzie ciężko) to AMD nie ma powodów aby obniżyć swoje skoro karta jest porównywalna wydajnościowo, cichsza, chłodniejsza i mniej pobiera prądu, wiec wcale bym się nie zdziwił jak AMD by nawet podniosło ceny (do tego mam nadzieje nie dojdzie). Jedynie pozostaje liczyć w jakiś sposób na obniżki i zakupić hd5850.

27.03.2010 09:45
13
odpowiedz
Drau
82
Legend

a najlepsze jest to, ze Nvidia ma uzysk z wafla ponizej 50% sprawnych czipow :)
Zatem nie dosc, ze zaprojektowali ogromna kobyle, o wydajnosci znikomo lepszej, to jeszcze za kazdy czip placa praktycznie podwojnie :)

epic fail, imo :)

27.03.2010 10:05
14
odpowiedz
zanonimizowany358961
1
Junior

Jestem posiadaczem Ati 5870. Niby wszystko cacy ale szlag mnie trafia jak przychodzi mi grać z opcją PhysX. Świetne efekty fizyki (gram tylko na max ustawieniach - jak się nie da to nie gram w dany tytuł) ale ati nie radzi sobie z tym, dla tego z niecierpliwością czekam na GTX 480. Wydajność podobna tak jak piszecie i normalnie nie kupił bym GTX-a ale PhysX niestety należy wyłącznie do Nvidi :(

27.03.2010 10:08
eJay
15
odpowiedz
eJay
241
Quaritch

gameplay.pl

Wydajność byłaby nawet do przyjęcia gdyby nie pobór mocy - 480 to potwór żrący prąd jak smok dziewice. Do tego znacznie wyższa cena. Wynika z tego, że na razie nie opłaca się inwestować w NV.

27.03.2010 10:12
16
odpowiedz
Drau
82
Legend

@piotrowiczu [ Level: 0 - Junior ]: ale to wina Physx, w koncu robione jest pod Nv, poza tym to malo wydajny feat sam w sobie, od samego poczatku.

@eJay [ Level: 75 - Gladiator ]: do przyjecia? wydajnosc nowych kart nv nijak nie przekonuje do zakupu, zwlaszcza ze kosztuja wiecej, a sa ledwie pare klatek szybsze :) pobor pradu to zupelnie inna sprawa :)

27.03.2010 10:18
17
odpowiedz
zanonimizowany555472
48
Pretorianin

nvidia zacznie teraz wypuszczać karty jak EA serie sportowe.

27.03.2010 10:19
18
odpowiedz
zanonimizowany358961
1
Junior

Rozumiem cię Daru, ale jak oglądam na youtube filmiki z włączonym PhysX choćby w Batman Arkham Asylum to nie bardzo mam ochotę na grę bez tej opcji...

27.03.2010 10:21
PitbullHans
👍
19
odpowiedz
PitbullHans
93
Legend

Może teraz ludzie przejrzą na oczy, że nVidia przywykła do prowadzenia w walce z ATI i wydaje buble pod inną nazwą za kolosalne ceny.

27.03.2010 10:43
Dell` s
20
odpowiedz
Dell` s
62
d-_-b

http://pclab.pl/art41241.html
Fajna recka tych kart. ;]

27.03.2010 10:46
Selman
21
odpowiedz
Selman
169
Legend

nvidia skończyła się na g92 i basta

[20] albo ja czegoś nie rozumiem albo jest coś nie tak z pclab... w każdym prawie teście nivida przegrywa.. a oni i tak swoje że jest najlepszy itp. nonsens

27.03.2010 11:04
22
odpowiedz
zanonimizowany523693
23
Pretorianin

Kupując we wrześniu 2009 kartę gf295 myślałem z niepokojem, że następna generacja gf480 spowoduje, że pożałuję tego zakupu. Cieszę się, że jest inaczej. Poczekam raczej na dużo lepszą wersję gf100 - a sądząc z wyników dużo będą musieli poprawić. Co do chłodzenia to nie ma to dużego znaczenia gdyż praktycznie od czasów 8800GTS przekonałem się obecne karty graficzne sprawdzają się tylko z wodnym chłodzeniem - brak szumu, niskie temperatury pracy.

27.03.2010 11:05
Feess
23
odpowiedz
Feess
39
VILLAGE IDIOT

nVidia się nie postarała... Słabe te nowe karty
AMD górą!

27.03.2010 11:06
24
odpowiedz
TobiAlex
193
Legend

I tak wolę kupić ten shit, nawet gdyby miał mieć niższy fps niż karty ATI, ale przynajmniej mam gwarancję, że każda gra będzie chodzić bez problemu, bez potrzeby stosowania dziwnych fix'ów, patchy itp. itd.

27.03.2010 11:10
25
odpowiedz
Mati 88 !?
42
Blaugrana

Tylko uważaj abyś sobie nie usmażył tego geforca ich sterownikami. http://pclab.pl/art41019.html i skończcie już narzekać na stery ATi każdy popełnia błędy jak ATI tak i Nvidia. ATI od serii hd4xxx robi naprawdę porządne stery,a jedyna wpadka w grach o ost miesiącach to shift, który i tak teraz lepiej chodzi niż na nvidii.

Down: mów co chcesz na razie nvidia się nie popisała a o przyszłości nie ma co mówić, bo tego nikt nie wie co wyjdzie i jakie będzie. Na razie gier na dx11 jest mało i praktycznie nvidia wygrywa z naprawdę mocną przewagą tylko w Metro.
Co do zadomowienia się dx11 na dobre to już będziemy siedzieć na fermi 2 i HD6xxx

27.03.2010 11:11
😁
26
odpowiedz
zanonimizowany653201
25
Legend

Super wydajne. Nie mają konkurencji. Jasne....

Nie mają ale w DX11 i teselacji jak dx11 wejdzie w życie to już po czerwonych ;P

Dawid8910 ---> Sam jesteś odgrzewany kotlet odgrzewany kotletem możesz nazwać HD5xxx bo tam zmiany w stosunku do HD4xxx (Jak i nawet 2xxx) są nie wielkie ;) Fermi jest całkowicie nowym GPU NVIDIA zrobiła go z myślą o przyszłości (Dx11) i trzeba przyznać stworzyła go naprawdę inteligentnie

PitbullHans --> Jak tylko dx11 dobrze zadomowi się na rynku i większość gier będzie go obsługiwała to wówczas low-endowy Fermi pokona tego w średniej półce aż strach pomyśleć co wtedy będą mówili posiadacze Radeon'ów

27.03.2010 11:15
Kałasz
😃
27
odpowiedz
Kałasz
133
Pretorianin

I o to mi chodziło. Chce kupić nowy komputer z którąś z tych kart bo mam i DX 11 i PhysX. Poza tym bardziej lubię kolor zielony firmy ;)

27.03.2010 11:19
28
odpowiedz
zanonimizowany489780
88
Generał

Karta nie na dzisiaj, nieco szybsza w dx9, dx10 od 5870, ale w dx11 przy teselacji przewaga jest olbrzymia, problem w tym że zanim ta wydajność się przyda (tzn. pojawi się duża ilość gier pod dx11) wyjdzie zapewne kolejna generacja kart.

27.03.2010 11:19
29
odpowiedz
Alien.pl
34
Generał

Oj NVidia słabo przedzie. Najpierw Intel dał im kopniaka w dupę i nie przedłużył licencji na produkcję chipów do płyt głównych zgodnych z X86. Potem kłopoty techniczne z FERMI, i w końcu się okazuje że nowa architektura wnosi tylko DX11, który konkurencja ma już od ponad pół roku, owszem nieco wydajniejszy, ale zanim pojawia się gry only DX11, to ATI będzie miało w tej samej cenienie (lub nawet taniej) karty HD6xxx które GTXy będą zjadały na śniadanie. A nowe GTX nie powalają w starszych gierkach DX10, które są jednak nadal popularne.
Miejmy tylko nadzieje że wierni fani NV udźwigną ją jeszcze na powierzchni wody, bo monopol ATI po upadku NV nie był by nikomu na rękę.
Jedyne co jest niepokojące to gry only NV (sponsorowane), co powoduje że na rynku robi się taka sytuacja niesmaczna. Tutaj gracze powinni się trochę ponad podziałami połączyć i zacząć gnoić takich producentów.

27.03.2010 11:26
30
odpowiedz
Xaros89
34
Chorąży

Moim zdaniem złe gry użyte do testu. Powinno być np. Metro 2033. Pomimo mniejszej wydajności od ATI w tych testach jestem przekonany, że w waszych domach będzie się lepiej sprawować. Stery od ATI nadal kuleją jak dziadzia potrącony przez autobus. Gdzie dx11, teselacja, PhysX? Płacić za ATI 1000zł więcej by mieć te +10 klatek? Hah...
Zobaczcie jak karty ATI lecą na ryj w dx11 i tes:
http://www.benchmark.pl/testy_i_recenzje/Testy_DirectX_11_SDK-2785/strona/8810.html

27.03.2010 11:27
31
odpowiedz
Drau
82
Legend

@Lukas172_Nomad_ [ Level: 5 - CRYTEK ] > Jak tylko dx11 dobrze zadomowi się na rynku i większość gier będzie go obsługiwała to wówczas low-endowy Fermi pokona tego w średniej półce aż strach pomyśleć co wtedy będą mówili posiadacze Radeon'ów

Marzenia piekna rzecz, ale czy dx11 w ogole zadomowi sie w grach, to dopiero sie okaze. I to nie nazajutrz, a w nastepnych paru latach.
Mozna sie oszukiwac, czekac i wmawiac sobie, ale coz.. dzisiejszych wynikow to nijak nie zmienia.

27.03.2010 11:31
32
odpowiedz
Mati 88 !?
42
Blaugrana

Xaros tak to od dzisiaj gramy w benchmarki. Co mi z tego, że w benchmarkach karta spisuje się lepiej skoro w grach które teraz wychodzą nie powala wydajnością do swojej ceny jak i konkurenta.

27.03.2010 11:36
Adrianziomal
👍
33
odpowiedz
Adrianziomal
46
Samael

Poczekajmy na "odchudzone" wersje ;P

27.03.2010 11:43
34
odpowiedz
Alien.pl
34
Generał

TAk GTX SLIM FAST to bedzie to.
Xaros tylko benchmark, a gra to trochę dwie różne rzeczy. Benchmark to właściwie takie demo -animacja i można by tu zrobić trochę analogie do C64, są na niego nawet dema w 3D, ale co z tego jak nie ma gier. Ogólnie benchmarki to nic innego jak reklamowy bełkot, mający przyciągnać do danego produktu naiwniaków z kapuchą.

27.03.2010 11:47
eJay
35
odpowiedz
eJay
241
Quaritch

gameplay.pl

Jak tylko dx11 dobrze zadomowi się na rynku i większość gier będzie go obsługiwała to wówczas low-endowy Fermi pokona tego w średniej półce aż strach pomyśleć co wtedy będą mówili posiadacze Radeon'ów

Jakby babcia miałą wąsy to by.... Tymczasem nie dość, że DX10 okazał się tylko przechodnym projektem to jeszcze obecnie na DX11 jest tylko 5 gier, z czego tylko jedna nie obsługuje alternatywnie DX9. Więc nie zapędzałbym się aż tak w przyszłość.

27.03.2010 11:47
Lothers
36
odpowiedz
Lothers
191
Senator

No cóż, z testów wynika, że to niezła wtopa. Najlepsze w stosunku cena/jakość jak dotąd karty nVidii to 6600GT, 8800GT i GTX260 jak dla mnie.

27.03.2010 11:58
37
odpowiedz
johndoe997
17
Legionista
Wideo

Pax East 2010 : najnowszy gameplay z mafia 2 (xbox 360) http://www.youtube.com/watch?v=kYghi5Yc9tA

27.03.2010 12:03
38
odpowiedz
TobiAlex
193
Legend

Hmm, jak to ludzie ciekawie patrzą tylko na słupki a nie czytają. Ot choćby pierwszy lepszy przykład tu:

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/30321-nvidia-geforce-gtx-470-review-13.html

Wszyscy zapewne, a szczególnie czerwoni, podniecają się średnim wynikiem (Avg). Fakt, pod tym względem może zieloni przegrywają. Ale co mi po tym, gdy średni wynik będę miał 100 fps a minimalny 10 fps??? Proponuję więc spojrzeć na niebieski pasek i zobaczyć wynik min. fps!

Kolejna sprawa - sterowniki. Karty serii 5xxx są na rynku od jakiegoś czasu i pojawiła się już nie jedna wersja nowych sterowników. Poczekajmy teraz aż nVidia dopracuje swoje stery tak?

27.03.2010 12:04
39
odpowiedz
zanonimizowany412862
20
Centurion

Hah, mogę tylko powiedzieć: a nie mówiłem? Pozdrawiam fanów nV którzy przy premierze HD 5000 twierdzili że karty są słabe i Fermi zmiecie je z powierzchni ziemi...

27.03.2010 12:20
40
odpowiedz
Alien.pl
34
Generał

A dla mnie to i tak jest jedne Hu... ważne że gry mi działają. Powiedzmy sobie szczerze co od Crysisa się zmieniło w grach. NIC. całe FERMI, DX11 i teslacja (tak notabene to nic innego jak tru-form po NVidowsku, który ATI miał 10 lat temu).
Właściwie dla mnie to mydlenie oczu już tylko jest niż jakiś rozwój gier, które owszem mają ładną grafikę, ale niestety cała reszta kuleje i to bardzo.

27.03.2010 12:28
41
odpowiedz
Mati 88 !?
42
Blaugrana

TobiAlex a myślisz, że nvidia dała do testów słabe sterowniki? Właśnie od testów dużo zależy czy znajdzie się nabywca czy nie wiec wątpię aby nvidia dala słabe sterowniki (choć nie wątpię, że jeszcze jakiś potencjał w sobie kryje ale na pewno nie powalający). I skończcie już narzekać na sterowniki ATI, bo to już nudne i stare, zresztą dałem już link do odpowiedniego arta.

Down: Akurat ATi miało powód "hamować" za pomocą sterowników wydajność czekając na premierę fermi. Owszem jak napisałem, gf na pewno ma jeszcze potencjał w sterownikach ale na pewno nvidia chciała wydać na premierę jak najlepsze stery aby w testach wypadać jak najlepiej względem konkurenta wiec nie spodziewałbym się potem jakiegoś "ogromnego" skoku wydajności. Choć kryształowej kuli nie mam i nie wiem co będzie za miesiąc, może akurat Ty masz racje i fermi się zbliży w niektórych tytułach,a w niektórych jeszcze odskoczy. bardzo bym tego chciał, bo na razie wyniki Fermi niezbyt powinny spowodować spadek cen ATI a na to liczę.

27.03.2010 12:32
42
odpowiedz
TobiAlex
193
Legend

Mati 88 !? a zobacz jak poprawiła się wydajność kart ATI serii 5xxx od dnia premiery do dziś, za pomocą "tylko" nowszych sterów! I zdziwiłbyś się ile za pomocą sterów można zyskać.

27.03.2010 12:38
43
odpowiedz
zanonimizowany653201
25
Legend

TobiAlex --> Takie przypadki też zdarzają się na GTX4xx co do reszty to w 100% się zgadzam :)

27.03.2010 13:02
44
odpowiedz
zanonimizowany653201
25
Legend

TobiAlex --> Z tego co wiem NV specjalnie opóźniła premierę Fermi o 2tygodnie po to by ulepszyć sterowniki był o tym news

27.03.2010 13:08
D:-->K@jon<--:D
😊
45
odpowiedz
D:-->K@jon<--:D
115
Żubr z puszczy

Nie pozostaje nic innego jak życzyć nvidi jak najgorszych wynikow w roznych testach, a takze jak najgorszych opinii zwyklych uzytkownikow na forach :) Nagroda za wydumany marketingowy bełkot serwowany nam od kilku miesięcy.

27.03.2010 13:10
HETRIX22
46
odpowiedz
HETRIX22
196
PLEBS

pfff Nvidia ma problemy finansowe (albo miała) z tąd te kosmiczne ceny. W tym momencie bardziej opłaca się kupować radeony puki nvidia nie stanie na nogi i będzie sprzedawać za rozsądne ceny

27.03.2010 13:14
D:-->K@jon<--:D
47
odpowiedz
D:-->K@jon<--:D
115
Żubr z puszczy

HETRIX22---> To nie jest wina kłopotów finansowych, a tego, ze był problem z produkcją w fabrykach TSMC.

27.03.2010 13:43
48
odpowiedz
Alien.pl
34
Generał

Cóż powinni zmienić dostawcę kości, jak TSMC sobie nie radzi, to SAMSUNG jest całkiem niezłym liderem miniaturyzacji w końcu oni pierwsi mieli kości 1GB.

27.03.2010 13:53
49
odpowiedz
zanonimizowany653201
25
Legend

HETRIX22 --> Wysokie ceny są dlatego ,że Fermi ma aż 3miliony tranzystorów jak wiadomo nikt nie chce sprzedawać karty z ceną nie adekwatną do produkcji bo był by to strzał w stopę

BTW.Jak by było możliwe sprzedawanie tych kart po niższej cenie NV by tak zrobiła :) proste i oczywiste

27.03.2010 14:13
😁
50
odpowiedz
zanonimizowany720210
6
Chorąży

Co za małostkowość nie podać, że na benchmarku i pclabie są testy. Cóż wasza Nvision.pl do testów nie dostała i jedyne co wyprodukowała z siebie to na głównej stronie artykuł-flejm.

27.03.2010 14:22
51
odpowiedz
zanonimizowany539006
0
Konsul

Jak to jest z tymi SLI ?

Karty z dwoma procesorami jak 295 rozumiem że działają już w trybie SLI ? A Gdyby tak dołożyć drugą taką kartę albo jeszcze wie ? To możliwe w ogóle ? Zastanawiam się bo Tri Sli gdzieś w trawie piszczy od dawna więc czy można mieć 3 karty 295 czyli 6 wątków GPU ?!

27.03.2010 14:29
52
odpowiedz
zanonimizowany669088
49
Generał

Myślę, że skoro kart jest tylko kilkanaście tysięcy, to Nvidia może przywalić nawet 2000 dolców i zejdą, bo jest ich mało i na tą chwilę są "limitowane". Zieloni zarobią więcej, masowy klient zaczeka na większą ilość i niższą cenę.

27.03.2010 14:37
53
odpowiedz
Emisariusz
20
Generał

A ja mam takie pytanie mam radka 5750 i tak wiem nie jest to najmocniejsza karta :P Ale teraz sie zastanawiam co zrobic czy dodac druga taka sama ? Czy olac to ewentualnie sprzedac i kupic mocnego radka ? Jesli mialbym kupic druga to jak jeszcze ciut stanieje tak do ok 400zl.

27.03.2010 14:42
54
odpowiedz
Drau
82
Legend

@sto2003 [ Level: 24 - Konsul ]:
SLI to polaczone dwie karty jednoprocesorowe
Three Way SLI to polaczone trzy karty jednoprocesorowe.
Four Way SLI, to polaczone dwie karty dwuprocesorowe.

Innych kombinacji SLI poki co nie ma.

27.03.2010 15:00
😊
55
odpowiedz
zanonimizowany59755
77
Legend

Niech żyją tanie radeony !

27.03.2010 15:13
56
odpowiedz
Mati 88 !?
42
Blaugrana

"cóż powinni zmienić dostawcę kości, jak TSMC sobie nie radzi, to SAMSUNG jest całkiem niezłym liderem miniaturyzacji w końcu oni pierwsi mieli kości 1GB.:

Z tego co mi wiadomo to tscm zajmuje się produkcja procesorów a nie pamięci i jest jedyna wiec nie ma alternatywy.

27.03.2010 15:28
dolek_17
57
odpowiedz
dolek_17
127
pawian_akrobata

nie jest to jakaś porażająca przewaga GF na radkiem.... a z tego co w cda czytałem bedą po ok. 2000 wiec jak juz bede zmieniał karte to raczej na cos z serii 5xxx od ATI

27.03.2010 15:32
58
odpowiedz
zanonimizowany704472
11
Chorąży

cytat: @Caine "Niech żyją tanie radeony !"

Ta zwłaszcza je sterowniki które nie potrafią wyjść z stadium beta po 1/2 roku od dnia premiery ostatniej generacji kart graficznych....

Średni FPS w AION u ATI od 4830 do 5970 jest taki sam i wynosi przeciętnie 10 FPS i tak już prawie dwa lata.... Ciekawe dlaczego Nvidia ma już to dawno poprawione.... A profil dla Aion pod SLI już dawno włączony w sterowniki....

27.03.2010 15:52
59
odpowiedz
zanonimizowany26519
118
Generał

Ja jestem za nV i w rpzyszlym blaszaku wygladuje gtx 470 lub 480 , ze wzgledu na dx11,opencl i ilosc tesselatorow , ktore przydadza sie do modzenia :] . Nigdy nie bylem wielkim fanem ati ,moze dlatego ,ze zawsze musialem z nimi kombinowac aby wsio dzialalo jak powinno (w szczegolnosci sterowniki). "The way its meant to be played" nadal jest mocnym haslem na rynku gier PC .

27.03.2010 15:57
60
odpowiedz
zanonimizowany637460
12
Generał

Mati 88 !? --> Jeszcze jest GF należące do AMD/ATI

Niech żyją tanie radeony !

Przecież nie będzie obniżek...

pioner18 --> taa nie ma to jak krytykować kartę której się nigdy nie miało... ;;)

27.03.2010 15:57
😐
61
odpowiedz
zanonimizowany37078
100
Generał

Ta premiera to straszny fail, nikt zdrowy na umyśle nie zaakceptuje katy która warczy jak ruski rozklekotany traktor, nagrzewa się do temperatury umożliwiającej gotowanie na niej herbaty i pobiera więcej prądu niż karty dwuprocesorowe.

Po prostu EPIC FAIL

27.03.2010 15:58
D:-->K@jon<--:D
😈
62
odpowiedz
D:-->K@jon<--:D
115
Żubr z puszczy

Mr_Hyde---> Teraz będziesz musial kombinować jak swoją kochaną karte wyciszyc :]

27.03.2010 16:15
Morgul Maugoth
63
odpowiedz
Morgul Maugoth
165
Konsul

No troche kaszana ta karta, jedyne w czym pokazuje pazury to dx11 (ale gdy juz beda wykorzystujace to sensownie gry, to bedzie kolejna generacja kart) Nie dziwie sie ze opoznili premiere o pol roku. Trzeba przyznac ze to niekwestionowany rekordzista jezeli chodzi o halas, temperatury i pobor pradu (90wat wiecej od 5870 robi wrazenie). Ogolnie to fermi II, czy jak to tam kiedys nazwa bedzie bardzo dobra karta, widac ze obecnie przeroslo ich to co chcieli skonstruowac. Szkoda tylko, ze w takim ukladzie ceny kart AMD(ati) nie spadna :( Problemy ze sterownikami amd(ati) mozna wlozyc miedzy bajki, tudziez legendy staropolskie.. moze kiedys tak bylo, zanim zielony smok AMD pozarl male czerwone Ati. ;)

27.03.2010 16:21
😃
64
odpowiedz
zanonimizowany59755
77
Legend

a założymy się ?

27.03.2010 16:31
SebaOnePL
65
odpowiedz
SebaOnePL
100
Konsul

Wg mnie kolejna wpadka Nv. Miała być rewolucja a jest grzejnik.
Ja kupiłem 1,5 roku temu Radeona 4850 512 MB za 500 PLN i mam do tego E5300@3,3 Ghz, teoretycznie nic super ale w Bad Company 2 w 1680x1050 na wysokich detalach wszystko działa mi płynnie, w inne gry w które gram sytuacja podobna więc osobiście nie widzę żadnego sensu pakować 2000 PLN w grzejnik od Nv. Za 2k kupiłbym spokojnie PS3 + kartę Ati i grał we wszystko co chce. Nv już dawno podziękowałem i to był dobry krok.

27.03.2010 17:14
👎
66
odpowiedz
pio19923
60
Pretorianin

Stalker to wg mnie troche dziwny benchmark, ale jesli mowi prawde to Nvidia dala ladna wtope. GTX 470 slabszy od starenkiego 295? Chyba nastala ponownie era Radeonow...

27.03.2010 17:32
67
odpowiedz
Miki758
34
Chorąży

Radeon 5970 wymiata jak widać...GF sie nie postarało...Radki zaczynają rządzić rynkiem i dobrze:D nie dosć ze tańsze to jeszcze lepsze...1.5 roku temu kupiłem HD 4850 1gb do tego 4gb ram i Amd 4x2.3 i wszystko jak narazie na maxie śmiga..

27.03.2010 17:39
😍
68
odpowiedz
zanonimizowany637460
12
Generał

Niektórzy chyba w tym (pio19923) nie wiedzą ,że GTX295 jest sklejką ;)

27.03.2010 18:26
Chriso25
69
odpowiedz
Chriso25
151
Generał

Z tego co wyczytalem na pclabie, to karty Nvidii sa bardziej przyszlosciowe, zaimpletowano kilka nowinek ktorej konkurencji brakuje i widac ze dopiero w Directx 11 potrafia pokazac pazury. Jednak prawda jest taka, ze obecnie bardziej sie oplaca kupic ktoregos z Radeonow, ze wzgledu ze sa tansze, ciche i mniej sie grzeja. Mimo ze wysoka cena to na karty Nvidii i tak znajda sie chetni, zwlaszcza ze na poczatku bedzie ich malo w sklepach, wiec Nvidia i tak wyjdzie na swoje, reszta pewnie bedzie musiala poczekac do jesieni az ceny spadna.

Powiedzmy sobie tez szczeze, Diretx 11 okaze sie taka sama klapa jak wersja 10, a wszystko przez konsole, ktore juz calkowicie zablokowaly rozwoj grafiki w grach i dalej bedzie tak samo jak dzisiaj, 80% gier bedzie pod Directx 9 a w reszte zaimpletuja kolka nowszych rozwiazan w ktorych i tak nie bedzie widac duzej roznicy.

SebaOnePL, Miki758 ---> Prawie dwa lata temu, tez kupilem swojego Gtxa 260 i wszytko mi smiga bez problemow w Full HD, jedynie gdzie musze obnizac detale to gry slabo zoptymalizowane jak GTA IV, czy Saints Row 2.

27.03.2010 18:47
👎
70
odpowiedz
zanonimizowany665627
40
Generał

Powiedzmy sobie tez szczeze, Diretx 11 okaze sie taka sama klapa jak wersja 10, a wszystko przez konsole, ktore juz calkowicie zablokowaly rozwoj grafiki w grach i dalej bedzie tak samo jak dzisiaj, 80% gier bedzie pod Directx 9 a w reszte zaimpletuja kolka nowszych rozwiazan w ktorych i tak nie bedzie widac duzej roznicy

Ahaa. Jak się okazało, że Just Cause 2 nie oferuje wsparcia dla xp to jaki lament był na golu. Tak samo jak ujawniono wymagania dla metro 2033. I wy mówicie że konsole hamują rozwój? A jak ktoś chce iśc na przód to wtedy jet be "bo 85% ludzi siedzi jeszcze na xp".
Żałośni jesteście...

27.03.2010 20:02
71
odpowiedz
grzegorz2010
42
Pretorianin

Ja kupiłem kilka dni temu Radeona 5870 i miałem wątpliwości czy aby dobrze zrobiłem do niedługo premiera GF480. Teraz widzę, że tak bo w życiu nie zapłaciłbym 500zł więcej za dodatkowe 5fps.

27.03.2010 20:14
72
odpowiedz
zanonimizowany686307
46
Pretorianin

za 500 dolarow to mozna sobie i ps3 i x360 kupic, albo konsole i tv, albo konsole i sporo dobrych gier

27.03.2010 20:52
73
odpowiedz
zanonimizowany635322
25
Chorąży

Ehehehehehehe.
Kosztuje tyle co najtańsza wersja iPada. To jest dopiero fail, ale ze strony Apple.

27.03.2010 20:52
74
odpowiedz
zanonimizowany704472
11
Chorąży

@SplinterFisher16

Ta, mocno zagalopowałeś się, nie mogę się doczekać na nowe NV by ten Crap jakim jest ATI wywalić do kosza gdzie jemu dawno miejsce....

27.03.2010 20:57
75
odpowiedz
zanonimizowany653201
25
Legend

pioner18 ---> Jak wolisz kupować chłam który pobiera masę prądów i jest zupełnie nie opłacalny na tle konkurenta to twoja strata :)

Co do wątku to trzeba sobie jasno powiedzieć nikt tych kart nie kupi ! no dobra fanboye pokroju Cyrix'a co najwyżej

27.03.2010 21:05
moro.
😁
76
odpowiedz
moro.
113
Konsul

Rozumiem być fanbojem danej platformy, fanbojem danej gry, ale żeby być fanbojem KARTY GRAFICZNEJ ?! Co do k*@!$ ?!

27.03.2010 22:40
Rafiraf2
77
odpowiedz
Rafiraf2
87
ALPHA ASSASSIN

Jakbym miał dużo kasy to bym se taką kupił. Z racji dużo większego zaufania do GeForców, niżli Radeonów, których kilka miałem, ale nawet w CS smoke grenade obniżający fps o 400% doświadczałem.

27.03.2010 22:49
Sprite
78
odpowiedz
Sprite
32
Pretorianin

Fail roku...

Tyle szumu... tyle zapowiedzi... budowanie napięcia... premiery pudełek... zapowiedzi daty zapowiedzenia premiery... i po pól roku prezentacje karty wydajnościowo porównywalnej do 40% tańszego HD5870...

Przecież różnice między HD5870 i GTXem są takie jak między HD4890 i GTX275!!

Tylko w jednej grze, na dodatek specjalnie pisanej pod tą kartę, fermi zdobywa zdecydowaną przewagę...

Zresztą- dlaczego wszyscy porównują GTX480 do HD5870? Przecież cenowo jest on konkurentem dla HD5970! (z którym de facto jednoznacznie przegrywa) .

Jak tylko dx11 dobrze zadomowi się na rynku i większość gier będzie go obsługiwała to wówczas low-endowy Fermi pokona tego w średniej półce aż strach pomyśleć co wtedy będą mówili posiadacze Radeon'ów

Bardziej kretyńskiego argumentu nie słyszałem...
Kiedy to będzie? za pół roku? za rok? I karta która wyjdzie wtedy, zmiecie midi-enda mającego premierę teraz, tak? A co w tym chwalebnego? Przecież zawsze tak było, niezależnie od koloru- czy czerwoni, czy zieloni...
Jak DX11 się zadomowi na rynku, to AMD będzie miało serię HD6xxx

Sprzęt elektroniczny kupuje się na teraz, bo jest to najszybciej rozwijający się sektor rynku. Zanim teslacja na dobre zadomowi się w grach, to ten GTX480 nie będzie się do nich nadawał...

W obecnych grach, GTX480, przy cenie i poborze prądu na poziomie radka HD5970 jest porównywalny do HD5870, co można jednoznacznie nazwać porażką nVidii.

27.03.2010 22:52
😍
79
odpowiedz
zanonimizowany718242
5
Pretorianin

Jak dla mnie... słabizna...

27.03.2010 23:24
$i3ki3rka
80
odpowiedz
$i3ki3rka
36
Pretorianin

przynajmniej ten 470 im sie udal :) leb w leb z 5850 i do tego ciut tanszy :) ale ten 480 to troche zal :/ dokladac 400 zlotych z 5 do 6 fps to lekka przesada :/

27.03.2010 23:37
81
odpowiedz
Krzych Ayanami
107
Konsul

Przeczytałem test na pclabie i lipa moim zdaniem.
Wydajnościowo nie jest najlepiej - a za tą cenę być powinno.
I to zarówno w nowych grach, jak i starych.

Jak jeszcze czytam, że sama karta hałasuje tak, że nie da się grać w słuchawkach, grzeje tak, że można sobie zrobić na niej jajko na twardo i żre prąd nawet w stanie spoczynku...
Nie tędy droga.

28.03.2010 01:43
82
odpowiedz
zanonimizowany704472
11
Chorąży

@Lukas172_Nomad_

Ten zielony chlam ma przynajmniej doparcowane strowniki, czego nie powiesz o ATI, wolę mieć 100 FPS na NV 470 w Aion zamiast 10 na 5870....
I tak jest kazda inną grą - optymalizacje wprowadzane pod kątem nowych pozycji u Nvidia są już w wersjach beta u Ati się zjawiają dopiero po 1/2 roku sprzedaży tytula....

Czerwony crap to crap.... zieloni żądzą xD

Driver Support głupcze... A prąd to mam w nosie, liczą się FPS....

28.03.2010 03:30
D:-->K@jon<--:D
😁
83
odpowiedz
D:-->K@jon<--:D
115
Żubr z puszczy

pioner---> Przestań pieprzyć głupoty, bo widać, że tą karte to tylko na komputroniku widziałeś. Prąd tez nie wydaje mi sie, żebyś miał w nosie bo i tak za wszystko płacą twoi starzy :]

28.03.2010 07:02
😜
84
odpowiedz
Zgred
219
WREDNY

Informacja o nowych kartach GF ściągnęła tu kupę fanboy-ów ATI. Mimo wszystko jest to NAJSZYBSZA JEDNOUKŁADOWA karta grafiki na rynku i dlatego właśnie powinna być porównywana do 5870 (nie patrzcie młotki na cenę, tylko na konstrukcję). Poczekamy trochę na konstrukcje z niereferencyjnym chłodzeniem i będziemy kupowali.

28.03.2010 08:51
85
odpowiedz
DEFEDos
140
Generał

>>>...z niereferencyjnym chłodzeniem i będziemy kupowali.

jak nie masz co z pieniędzmi robić to kupuj :]

Ja prawie zawsze miałem GF. Raz miałem ATI 9200 pro i się na nim srogo zawiodłem - ale jak bym miał dzisiaj kupić kartę to w życiu bym nie kupił GF :/. Chyba że bym miał tyle "kapuchy" że nie wiedział bym co z nią robić (ale nie mam :]). A jak ktoś pisze że i tak lepszy jest GF to ja nie wiem czy ten ktoś jest głupi czy takiego udaje ??
Ja na szczęście nie zamierzam wymieniać kompa w najbliższym czasie więc poczekam może sytuacja z kartami NV się zmieni w najbliższym czasie.
Co do konsol to fakt faktem że się opłaca - tylko na konsoli to ja nie pogram w wiele gier (np. takiego SC 2) albo pogram np. w MW 2 na padzie - porażka :/.

28.03.2010 11:04
86
odpowiedz
mad0
30
Centurion

Patrzac na temperatury pracy i pobor pradu a % zysk w stosunku do ATI to NV nie dorasta do piet ATI.

28.03.2010 11:42
87
odpowiedz
voltar78
38
Centurion

"Z dotychczasowych testów wynika, że 480 jest obecnie najpotężniejszą jednoprocesorowa kartą na rynku (choć przewaga nad konkurencją nie jest duża)."

Zza prezentowanych testów wynika że nowa karta nvidii jest daleko w tyle za ati 5970, w momencie kiedy pojawi się na rynku ati wyskoczy z kartami serii 6xxx, poza tym nei podano ile to ustrojstwo POBIERA PRĄDU!

A i tak najlepszą kartą pod kątem jakość/cena pozostaje 8800GT :D

28.03.2010 11:57
88
odpowiedz
zanonimizowany153971
177
Legend

a najgorsze jest to, że ten płonący, pożerający prąd głośny kotlet nie stanowi specjalnej konkurencji dla czerwonych, dzięki czemu ceny kart pewnie nawet drgną.

28.03.2010 12:32
89
odpowiedz
Drau
82
Legend

@voltar78 [ Level: 27 - Centurion : ale 5970 to przeciez dual-gpu karta.

28.03.2010 14:01
90
odpowiedz
realsolo
213
Generał

@pioner18

A to ciekawe, bo mam HD4850 i w Aionie mam 50-80fps przy full detalach 1920x1200. Wiec przestan pisac jakies herezje, w konsolach mamy fanboyow i w grafikach rowniez widze, to samo. Mi rybka, praktycznie co karte mam inny oboz (9600xt -> 6600gt -> 7600gt -> 8800gs -> hd4850; ostatnia zmiana przypadkowa, bo wydajnosciowo m/w to samo)

TobiAlex - jaka gra Ci nie dziala? Bo mi dziala 100/100 gier bez zadnych problemow. NIE SPOTKALEM sie od roku, aby jakakolwiek gra na Ati nie dzialala dobrze, poprawnie i plynnie. Tak samo beta SC2 smiga 1920x1200 ustawienia ultra.

28.03.2010 14:08
91
odpowiedz
realsolo
213
Generał

voltar78 - ale HD5970 to karta z dwoma GPU.

W skrocie:
jezeli chodzi o wydajnosc samego GPU, to fermi jest najmocniejszy
jednakze, jezeli cena nie spadnie, to wyborem w high-end jest HD5970.

28.03.2010 14:50
92
odpowiedz
Drau
82
Legend

Aj tam, bo narzekanie na sterowniki od ATi to po prostu moda i tyle. zero tresci, zero merytoryki, ot narzekactwo spowodowane fanboizmem.
I to najczesciej wychodzace narzekanie od ludzi, ktorzy ostatnia karte ATi mieli za czasow radeonow 8xxx albo nie mieli w ogole.

Norma, na takie bzdury daje sie /ignore i tyle.

28.03.2010 18:24
Vanderhast
👍
93
odpowiedz
Vanderhast
47
Pretorianin

jak już pod kilkoma testami tych kart pisałem ... po prostu śmiech na sali ^^
ale osobiście nie mam nic do NVidii bo mam ich kartę ale to co zrobili to "KLĘSKA" a oferta amd z radkami jeszcze bardziej stała się atrakcyjniejsza . Poczekamy jeszcze długo na dobrego GF'ka coś mi się wydaje^^.

Pozdrawiam

28.03.2010 22:19
94
odpowiedz
zanonimizowany704472
11
Chorąży

@realsolo

Zapomniałeś napisać czy to podczas Siege, czy raczej podczas krajoznawczej wycieczki po Poecie...

29.03.2010 08:50
95
odpowiedz
zanonimizowany489780
88
Generał

Karta teoretycznie dobrze pomyślana, wreszcie wydajna tesselacja, ale fatalne wykonanie, nVidia niestety żeby myśleć o sukcesie musi zmodernizować te karty, następne rewizje muszą być chłodniejsze, mniej prądożerne i wyżej taktowane.
Na dzisiaj kart w tej postaci zdecydowanie nie warto kupować, problem w tym że zanim nVidia dopracuje architekturę, AMD może wypuścić nową generację kart, co zresztą wypada zrobić bo w 58xx sztandarowy bajer DX11 czyli tesselacja, można co najwyżej powiedzieć że co prawda formalnie istnieje, ale włączać go nie ma sensu przy obecnej wydajności.

29.03.2010 10:24
96
odpowiedz
Lutz
173
Legend

Poczytalem troche i z tego co widze karta idzie w zupelnie innym kierunku, troche wyprzedza obecne potrzeby, jak dla mnie analogiczna sytuacja byla niedawno z i7 intela "po co wiele rdzeni skoro gry chodza tak samo szybko na core duo" podczas gdy tak naprawde zalety tych produktow objawiaja sie w technologiach, ktore dopiero beda wprowadzane na mainstreamowy rynek.
Tego typu rzeczy nie projektuje sie na "tu i teraz", klasyczne benchmarki sa miarodajne dla obecnych rozwiazan technologicznych, ale sa benchmarki gdzie nowa karta pokazuje nawet kilkuset procentowa przewage, pytanie, czy te zastosowania to przyszlosc, czy technolodzy nvidii zrobili wlasciwy krok zamiast stworzyc n-procesorowa karte ktora bedzie pokazywala n* wiecej klatek na sekunde w kolejnej grze.

29.03.2010 10:34
👍
97
odpowiedz
Zgred
219
WREDNY

Lutz--> BRAVO!! Wreszcie człowiek, który ze zrozumieniem przeczytał opis konstrukcji nowej karty. Mam nadzieję , że NVIDIA zrobiła krok we właściwą stronę, ale to czas pokaże.

29.03.2010 11:49
98
odpowiedz
wowuser
36
Pretorianin

wszyscy nagle <3 ati, ich karta jest taka genialna,a nvidia to poracha nie? chodz fakt teraz ta karta sie nie oplaca, ale czerwoni zostali daleko w tyle za zielonymi. gf480 w dx9 jest troche szybszy, a w dx11 nawet 2 razy(10 razy w tescie przygotowanym przez ati testowanym na pclabie!oneoneone) ale o tym nikt nie wspomina, teraz w modzie jest cisniecie nvidi. a fakt ze w ati przed nowym gf wypowiadali sie ze teselacja to przyszlosc i ze ich karty zamiataja w teselacji(bo to juz ktoras generacja kart ati z teselacja). dostali baty jak sie patrzy a teraz siedza cicho, i jedyny ich argument to ze ich karta jest prawie tak samo szybka w dx9 i 2 razy tansza.

pogratulowac znajomosci tematu kazdemu kto(tu i na innych forach) wyskakuje z txtem "ale syf 5870 jest tak samo szybie i 2 razy tansze", i pomyslec ze smiejecie sie z opisow w media "nowy gf z 1gb ramu" co za hipokryzja

a i teselacja jest dobra, moim zdaniem wyprze totalnie hdr(w texturach) efekt jest o wiele lepszy, potrzeba tylko czasu zeby stala sie powszechna(a przygotowanie osobno textur dla hdr i dla teselacji to 2 razy wiecej roboty, wiec pewnie na razie to hdr bedzie wybierany). i jesli proporcje sie utrzymaja to za 1-2 lata na bank kupie nawet 2 razy drozszego gf

29.03.2010 12:28
99
odpowiedz
mad0
30
Centurion

No wlasnie za 2 lata kupisz :) a teraz sie nie oplaca.

29.03.2010 12:40
100
odpowiedz
Drau
82
Legend

@wowuser [ Level: 15 - Pretorianin ]: nie nagle, tylko od momentu kiedy Ati odbilo sie od dna, jakim bylo HD2xxx. Prawd ajest taka, ze teraz ATi ma swietna oferte w kazdym segmencie rynku w rozsadnych cenach.
A nvidia.. prawda jest taka, ze tylko dla przyszlosciowego dx11 [ktore nie wiadomo jeszcze czy opanuje wogole rynek], nie oplaca sie kupowac karty, ktora zre ~300W w stresie, gotuje sie w 100st. wywala zabezpieczenia na niektorych zasilaczach i w dzisiejszych grach - terazniejszych - jest wydajna raptem o 10-15% bardziej. W dodatku jest po prostu drozsza.

Zas co do "5870 jest tak samo szybkie".. a nie jest? w dx9/10 jest. w dx11 narazie nie ma zbytnio sensownych i wielu w ogole gier, wiec ten ficzer w zasadzie sie dzis tak nie liczy.

NIe bardzo tez wiem co ma HDR [swiatlo] do tesselacji [zageszczenie geometrii modeli].. ale wusmie czepiam sie :)

29.03.2010 14:15
😈
101
odpowiedz
Zgred
219
WREDNY

Taak, dać 1500-1600 złotych za ATI5870 czy 2000 złotych za GTX480? Oto jest pytanie! A tak nawiasem mówiąc, to GTX480 bierze maksymalnie 250W prądu.W testach podawany jest pobór prądu CAŁEGO zestawu. Biorąc pod uwagę, że GTX480 jest kierowana na rynek ENTUZJASTÓW i zawiera kilka technologii, które z czasem będą pogłębiały jej przewagę nad 5870, to ja już wybrałem.

29.03.2010 15:17
102
odpowiedz
zanonimizowany686307
46
Pretorianin

ja juz nie raz sie przejechalem na braniu sprzetu "na wyrost", licząc że w przyszlości sprzęt rozwinie skrzydła. specjalnie kiedyś brałem procesor 64bit(za chyba 40% drożej), bo niby było tuż za rogiem, już każda gra miała pokazywać pazury, artykuły pokazujące różnice w far cry były wszędzie, a tu nadal tylko garść aplikacji czerpie z tego jakieś korzyści. tak samo brałem specjalnie droższą karte z dx10, bo miało być tak wspaniale i co? w crysis wszelkie dodatkowe efekty dało sie uruchomić w dx9 edytując pliki tekstowe, w innych grach także różnice minimalne(dodatkowe fsaa, cienie chmur w kompanii braci itd) i spokojnie dałoby sie to wszystko zrobić z pomocą dx9. w dodatku chodzi wszystko pod dx10 nadal o pare-parenaście % wolniej i wiekszosc znajomych wciąż win xp używa, bo każda giera wciąż pod nim śmiga.

Nie bierzcie sprzętu na zapas. póki nie ma aplikacji, które będą naprawdę z dobrodziejstw dx11 korzystać nie ma sensu. teselacja w grach jak na razie ledwo zauważalna i zżera sporo fps

29.03.2010 15:27
legrooch
103
odpowiedz
legrooch
231
MPO Squad Member

Taak, dać 1500-1600 złotych za ATI5870 czy 2000 złotych za GTX480?

Cena ATI zaczyna się od 1250zł.
Cena nVidii nie jest jeszcze znana w Polsce. Tzn nie ma produktów w określonej cenie na stanie, zgadza się?

Edit:
allegro puste, Komputronik pomijam - mają przedpremierowe wachania nawet o 800zł. Przebadane na 5870 :>

29.03.2010 16:31
😈
104
odpowiedz
Zgred
219
WREDNY

legrooch--> Zamów teraz, to dostaniesz za 1999 złotych. Ja u nich kupiłem i7 950 za 1600 złotych w czasie kiedy kosztował 2400 (jeszcze zapłaciłem kartą kredytową przy odbiorze), tylko dlatego, że pomylili się na stronie i wystawili z błędną ceną. Jednak jeśli pójdzie zamówienie, to musi być zrealizowane w cenie podanej na stronie w momencie zamówienia.

EDIT: Może i cena ATI zaczyna się od 1250, ale ja mam zaufanie do kilku firm i ich karty nie są takie tanie. Poza tym cena GTX480 może być również niższa od 1999 złotych w momencie, kiedy już będą dostępne, zgadza się (i tylko to powstrzymuje mnie od zamówienia już teraz )?

29.03.2010 16:54
Sprite
105
odpowiedz
Sprite
32
Pretorianin
Image

Zgred --> Owszem, pobór mocy dotyczy całego zestawu. Ale na jakiej podstawie wyciągnąłeś wnioski że na kartę idzie "tylko" 250W?

Patrz wykres z PCLab -->

Zestaw testowy jest dla każdej karty taki sam. Konfiguracja z GTX480 żre 30W więcej niż konfig z HD5970. Co z tego wynika? To że skoro wg danych producenta HD5970 pobiera w stresie ~294W, to pobór prądu GTX480 jest znacznie wyższy od deklarowanych przez producenta 300W.
250W... dobre... i nVida z czystej skromności podawała by medim tak niechętnie, ogólnikowa wartość "<300W"...
Nie mówiąc już o wyjącym jak suszara chłodzeniu i temperaturach wynoszących 95*C...
W sumie jako patelnia by się sprawdziła ta karta..

Cena HD5870- http://www.skapiec.pl/site/cat/14/comp/801061

Dla mnie to wprost "chore"żeby karta kunkurująca wydajnością z tym radkiem była sprzedawana za 2000zł...

zawiera kilka technologii, które z czasem będą pogłębiały jej przewagę nad 5870

Porównując kary za 1300zł i za 2000zł śmiesznie brzmi argument mówiący że z czasem przewaga droższej się powiększy... w domyśle- i już jej wydajność nie będzie taka sama jak tej tańszej...

masz 2k na GTX480? no to dlaczego w ogóle się zastanawiasz nad HD5870?
http://www.skapiec.pl/site/cat/14/comp/812758
Ta karta kosztuje niemal tyle samo, a wydajnością zamiata GTX'a pod dywan...
Poza tym jest cichsza i bardziej energooszczędna... ]:>

29.03.2010 17:07
106
odpowiedz
wowuser
36
Pretorianin

"NIe bardzo tez wiem co ma HDR [swiatlo] do tesselacji [zageszczenie geometrii modeli].. ale wusmie czepiam sie :)"
spoko wytlumacze ci:
hdr zawiera w texturach infromacje jak by powierzchnia odbijała swiatlo jak by nie byla plaska. tak wiec mimo ze dla gry jest plaska gra odbija od niej swiatlo w sposob nieregularny a tobie sie wydaje ze patrzysz na nieregularna powierzchnie. teselacja robi to troche inaczej, dla gry to nadal jest powierzchnia plaska tylko karta graficzna dzieli ja na mniejsze juz nie plaskie dlatego swiatlo i cienie(cienie odpadaly przy hdr) zachowuja sie naturalnie(albo bardziej naturalnie).
nie wiem jak fizyka, pewnie dla obiczen fizyki to nadal jest plaska powierzchnia. chodz skoro fizyka ma byc liczona na gpu to pewnie dalo by sie cos z tym zrobic(skoro to samo gpu trzyma dane odnosnie teselacji w przestrzeni)

w sumie: obie techniki powstaly zeby oszukac oko, zeby plaska powierzchnia nie wydawala sie plaska, zeby mniejszym kosztem mocy obliczeniowej pokazac cos wiecej, faktycznie nic je nie laczy. tylko ze teselacja robi to znacznie lepiej. jak ktos sie tu wypowiedzial ze dx11 to kicha tak jak dx10, polecam najpierw obadac teselacje w akcji(heaven 2.0 nadaje sie idealnie) a potem wrzucac opinie. jak dla mnie dx11 do dx10 to jak dx7 do all be4, ale zobaczymy co bedzie dalej.

29.03.2010 17:23
👎
107
odpowiedz
Zgred
219
WREDNY

Sprite--> Ty odporny na wiedzę jesteś, czy jak? Przeczytaj ZE ZROZUMIENIEM opist tego GPU, to MOŻE zrozumiesz. Lutz przeczytał i mądrze napisał w 96 poście. Przeczytałem wszystkie dostępne obecnie testy GTX480 (zwłaszcza te po angielsku) i w jednym z nich znalazłem te 250W. Ja się nie zastanawiam nad 5870, tylko porównuję o ile GTX 480 jest wydajniejsza (a w kilku testach była szybsza o KILKASET procent - teselacja w DX11). Poza tym ja wykorzystuję oprogramowanie bazujące na technologii CUDA nie tylko do grania. Raz już miałem to gówno ATI i wystarczy.

29.03.2010 18:11
Sprite
108
odpowiedz
Sprite
32
Pretorianin

Zgred --> Po pierwsze to mnie nie obrażaj, jeśli chcesz ze mną dyskutować.
Po drugie, 250W jest to zużycie prądu podawane na pudełkach przez producenta- ile masz lat że wierzysz we wszystko na słowo? Testy pokazują coś zgoła innego.
Porównujesz o ile GTX480 jest wydajniejsza? A ja widzę że zadajesz pytanie dać 1500-1600 złotych za ATI5870 czy 2000 złotych za GTX480?. No to poprawiam- nie 1600, tylko 1300zł.
Wydajność? Wydajność to rzecz względna, jak zapewne zauważyłeś czytając testy.

Przeczytaj ZE ZROZUMIENIEM opis tego GPU, to MOŻE zrozumiesz
Przepraszam- co mam zrozumieć?
To że karta jest zaprojektowana w inny sposób niż dotychczas znane konstrukcje? A czy to ma jakiś wpływ na fakt że karta jest cholernie prądożerna i głośna jak startujący Tu-144?
Lub na ten, że w zadaniach w których karta ma konkurować z innymi układami jest po prostu przeciętna i dużo za droga jak na to co sobą prezentuje?

Kilkaset procent? Chętnie zobaczę ten test, bo dotychczas największa różnica jaka mi się rzuciła w oczy to wydajność 55% większa od HD5870 w StoneGiant'dzie.

Nie są to więc gigantyczne różnice co doskonale widać w tym teście:
http://www.guru3d.com/article/geforce-gtx-470-480-review/32
Trochę się to różni od tego co wcześniej pokazywała nVidia, no nie?

Nvidia zapowiadała kartę która zje serią HD5xxx na śniadanie- sami więc porównują się w segmencie gier, gdzie tą kartą wiele nie zawojowali. Cena 2000zł i wydajność w zdecydowanej większości gier na poziomie karty konkurencji za 1300zł to po prostu fail i nie ma tu niczego do rozumienia.

Powiesz że to karta dla profesjonalistów? Dla nich nVidia ma Teslę. GeForce to rodzina kart przeznaczona na rynek graczy i jest ona oceniana na zasadach panujących w tym segmencie.

Poza tym ja wykorzystuję oprogramowanie bazujące na technologii CUDA nie tylko do grania.

A, więc teraz nam się zrobił wielki informatyk, korzystający z technologi niepojętej dla innych śmiertelników...
Po co więc w ogóle porównujesz GF do Radka? Korzystając z CUDA i tak nie masz żadnego wyboru.

Raz już miałem to gówno ATI i wystarczy.
Aaa... wyszło szydło z worka... Jednak osobiste preferencje co do koloru producenta nie są żadnym argumentem...
Miałeś to gówno? I co w nim było takiego gównianego? Nie ma CUDA? Nie powiesz mi chyba że dokonałeś wyboru nie wiedząc o tym...?

29.03.2010 18:16
legrooch
109
odpowiedz
legrooch
231
MPO Squad Member

Zgred ==> Rozumiem, że wykorzystujesz CUDA poza grami, to po pierwsze? :>
Po drugie - teselacja teselacją - do tego momentu jest JEDNA gra napisana pod DX11. Reszta używa tylko bibliotek DX11 nie wprowadzając nic więcej.
Po trzecie, to patrząc cenowo do możliwości nikt póki co nie jest w stanie przewidzieć, jak karta się spisze za rok. A wtedy najwcześniej można się spodziewać kolejnych tytułów tylko DX11.
A co do możliwośći nVidii - do zadań konkretnych używa się innych kart, niż przeznaczonych do grania.

29.03.2010 19:01
110
odpowiedz
Zgred
219
WREDNY

legrooch--> Po pierwsze zgadza się. Następną grą będzie METRO 2033 i to nie za rok.
Sprite--> Ja nie zamierzam z tobą dyskutować, bo z Twoich wcześniejszych wypowiedzi i tak widać po czyjej stronie stoisz. No i nie przeczytałeś albo nie zrozumiałeś (może to dla Ciebie taki bełkot techniczny). Jak znajdę po raz drugi ten test, to wstawię linkę (było to demo ATI demonstrujące teselację, w którym GTX480 był kilka razy wydajniejszy).
http://pclab.pl/art41241-7.html

Chłopaki, postawmy sprawę jasno. GTX480 jest najsilniejszą jednoukładową kartą graficzną na rynku i w dodatku kryje spory potencjał w innych zastosowaniach (CZYTANIE ZE ZROZUMIENIEM) i to akurat nie podlega dyskusji. Jeśli kogoś stać (karta jest przeznaczona na rynek HIGH-END) to kupi i nie przejmie się kilkoma watami więcej.
Z doświadczenia wiem, że tego rodzaju dyskusje na forum do niczego nie prowadzą (po co kupować cztery rdzenie, skoro na 2 działa dobrze- znacie to?), więc uznajcie że przedstawiłem swoje zdanie i nie zamierzam się kłócić.

29.03.2010 19:22
legrooch
111
odpowiedz
legrooch
231
MPO Squad Member

Zgred ==> Żaden high-end. Gdyby taki był, to bym już dziś odstawił 5870 (bo 5970 odpuściłem przez niedużą różnicę wydajnościową póki co).

Co do Metro 2033 - obie firmy wychodzą podobnie. Rzuć okiem na net. I tak na marginesie - Metro też nie jest pisane pod DX11, ma zaimplementowaną obsługę oraz kilka bajerów. Ale to nie wyzwala mocy, o ile ona rzeczywiście będzie do uaktywnienia.

29.03.2010 19:29
😈
112
odpowiedz
Zgred
219
WREDNY

legrooch--> Ty też masz problemy z czytaniem ZE ZROZUMIENIEM?
http://pclab.pl/art41241-24.html

Wpadnę później na serwer, to nauczę Cię przynajmniej strzelać celnie.

EDIT: Ludzie, zmiany zachodzą znacznie szybciej, niż wam się wydaje. Gdybym słuchał rad takich malkontentów jak wy, to miałbym dzisiaj jakiegoś wykręconego dwurdzeniowca zamiast potęgi w postaci i7 950. Wiecie jak to miło patrzeć, jak program zajmuje 95 do 98 procent wydajności wszystkich 8 rdzeni (HT się kłania) a robota sama leci? W BF:BC2 też wykorzystywane są WSZYSTKIE rdzenie!

29.03.2010 20:49
👍
113
odpowiedz
pio19923
60
Pretorianin

@SplinterFisher16
Brawo. Twoja odpowiedź na mojego posta jest godna prawdziwego mistrza ciętej riposty. Szacun mistrzu.
Nie wiesz czegos to sie nie wypowiadaj, tak bedzie lepiej dla samego ciebie ;D

29.03.2010 20:51
legrooch
114
odpowiedz
legrooch
231
MPO Squad Member

Zgred ==> Tego PCLabowskiego testu nie widziałem.
A co do postępu - dobrze wiem, co daje dobry sprzęt :>

29.03.2010 22:33
Sprite
115
odpowiedz
Sprite
32
Pretorianin

Zgred --> To że nie zamierzasz ze mną dyskutować nie zwalnia Cię z zachowywania kultury osobistej...

Po czyjej stronie stoję? Miąłem wystarczający dużo kart graficznych obu firm, by przywiązywać większą wagę do marki... Po prostu bardzo się zawiodłem tym co pokazała nVidia po tylu zapowiedziach i robieniu konsumentów w balona.
Przy takim opóźnieniu w stosunku do konkurencji i takiej różnicy w cenie, nowy GTX powinien być dopieszczony do najdrobniejszych detali, a jak dla mnie jest to wielkie i gorące G.

Nie rozśmieszaj mnie testami z Metro- ta gra jest specjalnie pisana pod chip GF100, jeszcze tylko tego by brakowało żeby przy tym przewaga GTX480 była mniejsza...

http://www.gry.banzaj.pl/Metro-2033-wykorzysta-DirectX-11-PhysX-i-technologie-3D-6127.html
Nvidia jest współtwórcą tej gry, więc daruj sobie podawanie wyników z tej gry jako argument.
Jak byś nie doczytał- Metro 2033 ma być zaprojektowany w pełni na bazie najnowszych technologii Nvidii - czyli wprost- gra jest tak zrobiona żeby pokazać przewagę nVidii nad konkurencją.
A skoro jest to jedyna gra w której przewaga GTX'a nad HD5870 jest tak znaczna, nie jest to nawet fakt warty wzmianki. Było by się czym podniecać, gdyby przynajmniej połowa gier była współtworzona przez nVidię. W sytuacji gdzie w "normalnych" grach (99,9%) GTX480 jest porównywalny do HD5870, większy wynik w grze będącej reklamą mnie nie przekonuje.
Równie dobrze AMD może we współpracy z jakimś studiem zrobić grę napisaną pod kontem sterów ATI, w której HD5830 będzie kopał GTX'a 480...

Hair Demo z tego co się orientuję również jest stworzone przez nVidię...

Co do pozostałych testów- ok, jednak jak widać, wydajne teslatory nie przekładają się na rzeczywistą wydajność w grach, czyli de facto temu do czego ta karta została przeznaczona.

Jeśli to wszystko czym chcesz mi udowodnić tą ogromną przewagę GTX'a to współczuję Ci tylko podatności na manipulację przez speców od PR.

29.03.2010 22:38
116
odpowiedz
Lutz
173
Legend

Równie dobrze AMD może we współpracy z jakimś studiem zrobić grę napisaną pod kontem sterów ATI, w której HD5830 będzie kopał GTX'a 480...

to na co czekaja?

29.03.2010 22:43
Sprite
117
odpowiedz
Sprite
32
Pretorianin

Edit dla biednych ludzisk: Ok, widzę w Hair demo wkład AMD.

Sprawa wygląda jednak tak, że Ty próbujesz mi udowodnić, że GTX480 jest wydajny w teslacji i zastosowaniach profesjonalnych... Nie przyjmujesz natomiast do wiadomości że obecnie ma to marginalny wpływ na wydajność w grach, co jest jak dla mnie klapą- skoro to taki hi-end, to dlaczego sobie nie radzi z kosztującym podobne pieniądze HD5970?
Przy tej cenie i takim opóźnieniu, karta powinna nie tylko potrafić to co potrafi, ale i w DX9/DX10 mieś dużo większa wydajność od radków serii HD5xxx- tego tu nie ma, a dodając do tego chorendalny pobór prądu, temperatury i tragicznie głośne chłodzenie wychodzi nam wielka klapa.

Lutz --> A po kiego mają to robić?
nVidia musi się ratować czym może- wyobrażasz sobie premierę tych kart, podczas których nie wykazały by one większych różnic w stosunku do znacznie tańszych i słabszych radków?
No to teraz już wiesz po co Metro zostało wydane...

29.03.2010 23:25
118
odpowiedz
Lutz
173
Legend

Ja doskonale rozumiem ze Sprite, to nick na potrzeby trollowania w kartach graficznych, podobnie jak RPGfan to nick przeznaczony na konsole (i pewnie pare jeszcze innych ktorych nie zauwazylem).
Ale naprawde warto byloby poczytac troche przed tak skomplikowanym zadaniem.

29.03.2010 23:39
Sprite
119
odpowiedz
Sprite
32
Pretorianin

Lutz --> Na prawdę nie ma trudności w odpowiedniej optymalizacji gry pod dany sprzęt. Doskonale to widać na przykładzie konsol, gdzie stosunkowo słabe bebechy zapewniają płynną rozrywkę.
Na rynku PC jest jednak taka trudność, że są miliony różnych konfiguracji i dobra optymalizacja zajęła by lata...

Metro jest grą wprost uszytą na Fermi- przeczytaj ten link który podałem. Tak gra ma być reklamą/pokazem możliwości nowych kart nVidii. Mało która gra jednak będzie tak optymalizowana więc ta "zaskakująca" wydajność w tej grze nie jest dla mnie żadnym argumentem. Nawet nVidia ze swoim wielkim budżetem przeznaczonym na program "wspierania" developerów gier, nie może sobie pozwolić na równoległe współtworzenie gier, obok hardware'u.

I tutaj cię zdziwię, ponieważ nie mam innych kont na tym forum.

29.03.2010 23:49
120
odpowiedz
Lutz
173
Legend

Sprite, nie wiem czy masz pojecie jak wyglada developerka gier, ale zapewniam cie ze gier nie pisze sie pod to "co jest", tylko pod to "co bedzie".

30.03.2010 01:14
121
odpowiedz
zanonimizowany686307
46
Pretorianin

jak znam życie nvidia niedługo w pogoni za wydajnoscia wypuści podkręconego gtx490, potem grafę składającą się z dwóch układów np.gtx495, a potem dopiero produkt bardziej dopracowany pod względem poboru mocy i temperatury(może np. mniejszy proces technologiczny). tak bylo np. z 8800gtx i 8800gt. wtedy dopiero mysle, ze warto bedzie zaopatrzyc sie w takiego, zwlaszcza, że już będzie troche aplikacji pisanych pod dx11 i nie bedzie trzeba gdybać i zgadywać ile to warte.
Aha ATI oczywiście zapewne będzie walczyć jak zwykle dobrą polityką cenową.Nie mam nic do ATI - mój stary 9800pro dominował nad gf z serii 5xxxx i eyefinity sie przydaje, ale faktem jest, że miewają problemy ze sterami(nieoficjalne omegi nierzadko bywały lepsze), a nvidia ma lekka przewage w postaci physx i cuda(tak wiem, że można uruchomić physxa na radeonach), więc jak będę zmieniał wysłużonego 260gtx pewnie zostane przy nvidii(chociaz na pewno bede brał pod uwagę wszystkie za i przeciw, więc kto wie).

30.03.2010 01:59
122
odpowiedz
Qbaa
113
Senator

wowuser
spoko wytlumacze ci:
Ha ha ha, z taką pewnością piszesz, ale niestety głupoty. Doucz się, czym jest HDR, wtedy tutaj wróć i przeproś.

30.03.2010 06:50
123
odpowiedz
Zgred
219
WREDNY

Sprite--> To samo mówili o różnicy w grach pomiędzy 2 i 4 rdzeniowcami. Minęło pół roku i wszystko się zmieniło. Znowu porównujesz karty 2 procesorowe z 1 procesorowymi. Jak już musisz robić zestawienia, to nie mieszaj kart 1 układowych ze sklejkami. I co z tego, że GTX480 jest droższy od 5870? Jak nie chcesz, to nie kupuj, co nie zmieni faktu, że GTX480 powinien być porównywany z 5870 a nie z 5970 z powodu konstrukcji a nie ceny. Ta karta jest kierowana na rynek ENTUZJASTÓW, czyli ludzi, którzy porównują możliwości techniczne a nie ceny. I chyba faktycznie nie masz zielonego pojęcia o developerce gier, sądząc, że NVIDIA nie potrafi zachęcić firm do robienia silników korzystających z ich najnowszych technologii.
A co do kultury osobistej, to Ty porównujesz tu wypowiedzi innych do KRETYŃSKICH argumentów i po chwili bawisz się we wróżkę, prorokując powstanie kart 6XXX.
Nie wiem jak Ty, ale ja zamierzam eksploatować nową kartę graficzną ze dwa lata a to oznacza, że muszę myśleć o tym, co będzie się działo w tym czasie na rynku. Zmieniając kartę co rok ponosisz wyższe kaszty, niż ja.

Lutz--> Również mam dziwne wrażenie, że gadam z trollem i to chyba kończy temat.

30.03.2010 07:03
124
odpowiedz
Raziel
136
Legend

moim zdaniem zarówno fani nvidii jak i ati mają swoje racje. Ja np. nie będę udawał, że nie zdaję sobie sprawy iż radeony mają lepszą wydajność od geforców, ale dla mnie ważny jest ogólny "balans" czego radeony nigdy nie miały i aż do dziś nie mają. Geforce to przede wszystkim wysoka kompatybilność i "przyczepność" do wszystkiego i ze wszystkim, natomiast radeony to wciąż spory problem z naprawdę fatalnymi driverami. Geforce dają mi gwarancję, że wszystko będzie działało jak należy, radeony to zaś jedynie zwiększona wydajność.

Co do nowych geforców to niby zużywają więcej prądu i są ogólnie głośne, ale prezentują rozwiązania dotychczas nieznane (np. architektura), które zapewne niebawem staną się standardem. Więc nvidii udało się po części - wyznaczyli bowiem nowy standard. Wyłożyli się natomiast na wydajności, ale może to i lepiej dla nas - nie chciałbym aby znowu ktoś miał monopol w tej dziedzinie jak to było kiedyś.

I błagam was, nie dzielmy się na grupu "fanów";) to nie są drużyny piłkarskie, to są firmy, które mają walczyć o klientów. Ja sam kupuje według upodobań raz ati raz nvidie, co mi się bardziej opłaca:)

fajny artykuł:
http://pclab.pl/art41241.html

30.03.2010 14:27
125
odpowiedz
wowuser
36
Pretorianin

"Kilkaset procent? Chętnie zobaczę ten test, bo dotychczas największa różnica jaka mi się rzuciła w oczy to wydajność 55% większa od HD5870 w StoneGiant'dzie. "
mowisz i masz: http://pclab.pl/art41241-7.html
w jedym tescie ponad 10krotna przewaga 480 nad 5870 w teselacji w tescie napisanym w amd. n/c

30.03.2010 15:09
Sprite
126
odpowiedz
Sprite
32
Pretorianin

Lutz --> Nie będę zgrywał jakiegoś wielkiego znawcę w temacie developingu gier, ale zdaję sobie sprawę z tego że optymalizacja kodu pod kontem pewnych sterowników nie jest jakimś wielkim wyczynem.

zapewniam cie ze gier nie pisze sie pod to "co jest", tylko pod to "co bedzie".

Twierdzisz że producenci gier nie biorą pod uwagę kwestii sprzętów posiadanych przez graczy?
W sumie czasami odnoszę wrażenie że masz rację, gdy powstają takie porażki optymalizacyjna jak np. GTA4...

Nie mniej jednak, to jak gra wykorzystuje obecnie dostępne zasoby sprzętowe jest jedną z kluczowych spraw... Raczej każdemu wydawcy zależy żeby jak największa liczba osób mogła zagrać w ich grę. Mało kto też chce mieć do swojego produktu przylepioną metkę fatalnie zoptymalizowanego crapa.

Studia developerski muszą tworząc grę mieć na uwadze możliwości komputerów konsumentów, bo ktoś w te gry grać musi.

Ale odbiegamy od tematu głównego.
Stwierdziłem po prostu że Metro jest grą-reklamą, współstworzoną przez nVidię. Gra jest napisana tak by maksymalnie wyeksponować mocne punkty w architekturze Fermi, więc trochę nie rozsądne wydaje mi się podawanie wyniku w tej jednej grze jako argumentu dotyczącego przewagi GTX'a w grach.

Zgred --> Sprawa procesorów 2 i 4 rdzeniowych to osobna kwestia. I sytuacja nie jest tutaj taka sama.
Nie wiem jednak czy warto przerzucać teraz dyskusję na procesory bo znowu z nij nic nie wyniknie a zrobi się jeszcze większy oftopic.

Rzeczywiście mogłem użyć odpowiedniejszego słowa do wyrażenia dezaprobaty, więc przepraszam.

Wracając jednak do tematu:
HD5970 również jest kartą z segmentu Hi-End. I co z tego wynika?
Wydaje mi się że osobom które kupują takie karty najbardziej zależy właśnie na wydajności. HD5870 nie należy do ścisłej czołówki. Jak najbardziej widzę więc sens w porównywaniu najwydajniejszych układów obu producentów, tym bardziej to ma sens że ich cena stoi na bardzo podobnym poziomie.
Poza tym- od kiedy sięgam pamięcią, to właśnie cena wyznacza klasę sprzętu i jego konkurentów. Człowiek dysponując określoną sumą szuka najwydajniejszej opcji w tej cenie. Jak nie ma określonego budżetu to szuka tego co najwydajniejsze wśród najwydajniejszych opcji. Zarówno z jednej jak i z drugiej strony GTX480 ma powody by być zestawiany z HD5970.

Kolejna sprawa- co entuzjastów obchodzi konstrukcja karty? Tak jak powiedziałeś- obchodzi ich wydajność- to jakim sposobem jest osiągnięta, jest nieistotne.
Co z tego ze sklejka? GTX480 żeby osiągnąć podobną wydajność również musiał by być w konfiguracji multi-GPU.

I chyba faktycznie nie masz zielonego pojęcia o developerce gier, sądząc, że NVIDIA nie potrafi zachęcić firm do robienia silników korzystających z ich najnowszych technologii.

A czy ja coś takiego powiedziałem? :P
Doskonale zdaję sobie sprawę z tego że "kiedyś" teslacja będzie wszechobecna, po niej raytracing, lub wcześniej jeszcze coś pomiędzy...

Ale zanim to nastąpi naprawdę jeszcze dużo wody w rzece upłynie. Dlaczego? Nawet jeśli nVidia oferowała by studiom developerskim jeszcze większe sumy pieniędzy niż te które proponuje teraz ( ;] )
Producent nie może sobie pozwolić na zerowe zainteresowanie produktem ze strony posiadaczy kart graficznych innej firmy. Producenci mają w swoich rękach znane i sprawdzone narzędzia do tworzenia grafiki a przejście na nowe standardy wiąże się z kolejnymi kosztami.
Nie mówię więc że zmian nie będzie- ale nastąpią one dopiero wtedy kiedy rynek będzie na nie gotowy- czyli konsumenci będą mieli możliwość z nowych standardów skorzystać, a producenci otrzymają szeroko dostępne narzędzia do implementacji nowych standardów do swoich produktów.

Nie kwestionuję też większej wydajności GTX'a 480 w tych zastosowaniach.

To o czym cały czas mówię i czym się najbardziej rozczarowałem to wydajność tych układów w prawie wszystkich obecnych grach

Po tylu zapowiedziach, tak ogromnym opóźnieniu i tak dużej różnicy cenowej, karta ta powinna zmiatać radka we wszystkich możliwych dziedzinach! A nie tylko jednej i to obecnie dość odległej.

Przeciętny kowalski ma prawo czuć się wydymany grając w Batterfielda Bad Company 2, w DX11, na swoim nowiutkim GTX480, na którego tak długo czekał i za którego tak dużo zapłacił, z taką samą liczbą klatek co kolega na znacznie tańszym HD5870 którego ma już od pół roku.

I to jest właśnie ten FAIL o którym cały czas mówię.

Tak, jestem tu nowy, mam rangę juniora, a co gorsza mam inne zdanie i dyskutuję, więc jestem trolem...

I nie odpowiedziałeś jeszcze co takiego gównianego było w karcie AMD której u używałeś...

Raziel --> Kolejny raz, kolejnej osoby o to zapytam- co w sterownikach AMD jest takiego fatalnego? Ja ostatnie problemy zauważyłem jakieś 5 lat temu w serii 8xxx

30.03.2010 17:15
127
odpowiedz
zanonimizowany703664
22
Pretorianin

ojej :( mój gieteiksik ma tylko 36.8 w stalkerze chyba sie rzuce na te nowe dżifory :D

30.03.2010 21:20
128
odpowiedz
zanonimizowany37078
100
Generał

Chyba najlepsze artykuły w sieci dotyczące nowych kart Nvidii znalazłem na stronach nvision.pl .
Dariusz Przybyło doskonale przedstawił wątpliwa z punktu widzenia gracza strategie producenta.
Polecam, to warta uwagi lektura.

http://nvision.pl/Czy-GeForce-GTX-480-to-jeszcze-karta-graficzna-dla-gracza--News-16391-ndetails.html

http://nvision.pl/NVIDIA-ma-spore-problemy-z-Fermi--News-16379-ndetails.html

31.03.2010 21:07
😁
129
odpowiedz
Raziel
136
Legend
31.03.2010 23:34
130
odpowiedz
xittam
165
Generał

-------->>>>Sprite

napisze ci co jest fatalnego w sterownikach ati. dupowaty jest ogolny sterownik ati2drv.dll ktory z uporem maniaka uruchamial mi konsole odzyskiwania po tzw powaznym bledzie, a kiedy wylaczylem to dziadostwo to tworzyl dump pamieci(niebieski ekran) i resetowal kompa. Przed wikingami, ausem i ati uchowaj nas Panie.

01.04.2010 07:25
131
odpowiedz
Zgred
219
WREDNY

Raziel--> http://pclab.pl/news41471.html

Czyli tragicznie nie jest:)

06.04.2010 19:53
132
odpowiedz
jawi15
28
Centurion

w tej chwili z punktu widzenia gracza kupno geforca gtx4xx nie ma wiekszego sensu, chyba ze ktos stawia na bezkompromisową wydajnosc be wzgledu na koszty(oprocz samej karty odpowiedni zasilacz i najlepiej przewiewna obudowa)

09.04.2010 08:18
133
odpowiedz
zanonimizowany624581
91
Senator

Za taką cenę, to mało kogo będzie stać na taką kartę. Ale może za 2-3 lata, już będzie w przystępnej cenie.

22.04.2010 09:50
raziel88ck
134
odpowiedz
raziel88ck
196
Reaver is the Key!

"Ale może za 2-3 lata, już będzie w przystępnej cenie." - za 2-3 lata ta karta bedzie najwyzej sredniakiem

"Geforce to przede wszystkim wysoka kompatybilność i "przyczepność" do wszystkiego i ze wszystkim, natomiast radeony to wciąż spory problem z naprawdę fatalnymi driverami." - WTF? Masz w ogole radeona?

Technologie GeForce GTX 470 i 480 - pierwsze recenzje i benchmarki