Forum Gry Hobby Sprzęt Rozmawiamy Archiwum Regulamin

Technologie Nowy układ graficzny AMD zapowiedzią wizualnej rewolucji?

11.09.2009 14:37
1
zanonimizowany575374
62
Generał
Image

Eeeee, czy rozdzielczość 7680x3200 to nie przypadkiem UltraHD?? Przeca to miało byc dopiero w 2015 roku. Ciekawa sprawa grać na czymś takim, ale wolałbym juz jeden wielki ekran, a nie kilka. Popatrzcie na screen z WoW, postaci prawie nie widać, z powodu obramówki monitora.

Ale takie coś jak ze screena po prawej to rozumie :D

11.09.2009 14:37
2
odpowiedz
zanonimizowany627256
9
Chorąży

Do dupy takie granie na wiecej niz jednym ekranie... nie da sie skupic ;/

11.09.2009 14:45
sinbad78
3
odpowiedz
sinbad78
181
calm like a bomb

dużo większe wrażenie zrobił na mnie rozkładany ekran do gier nie mogę znaleźć filmiku ale na targach E3 był prezentowany - pole widzenia nie wiem ile % większe .. a nawet na tym - skądinąd nie za dobrym filmie -wrażenie piorunujące.. wszsytko przed Tobą to gra. po bokach na dole i górze. nei tak jak w tym przypadku na płaskim monitorze lub kilku (z chamskimi ramkami) tylko sam czysty obraz dookoła Ciebie.. ty w grze. czad

11.09.2009 14:47
4
odpowiedz
BigTiger
19
Pretorianin

eeee bardzo fajnie wygląda, gdybył miał !!DUŻO!! kasy to bym se sprawił takie coś, jedynym minusem to że to obramowania zasłaniają niektóre rzeczy i patrzenie jest trochę niewygodne, ale da się znieść pewnie, takie moje zdanie

11.09.2009 14:49
5
odpowiedz
wowuser
36
Pretorianin

wow, juz teraz mozna tak robic wystarcza tylko 2 karty z cuda i odpowiedni soft i juz masz panorame 6000x1200 na 3 lcdkach. co do 6 to odpada bo w praktyce nic nie widac, musisz sie oddalic a wtedy proporcje zostaja takie same. ale grac otoczonym trzema 24" to faktycznie musi byc cos. kampisz sobie w cs'ie i kontem oka widzisz czy cie ktos nie zachodzi. ciekawe czy cos takiego jest dopuszczalne w CB

11.09.2009 14:58
Cziczaki
6
odpowiedz
Cziczaki
183
Renifer

Nie wiem jak wy ale ja się śmieję z takiego grania na 6 monitorach, mi wystarczy że mam jeden monitor i na nim wszystko widzę. A granie potem z czarnymi paskami (no chyba że obudowa monitora inna), i mega komputerem żeby wyrobił z grafika na tych 6 ekranach, nie dal mnie. :)

11.09.2009 15:00
7
odpowiedz
Econochrist
114
Nadworny szyderca

Czekam niecierpliwie a jak tylko pojawi się u nas na rynku to kupuję HD 5870 a jak nie to zaczekam na jego wersję OC od Sapphire. W każdym razie takie cacko znajdzie się u mnie.

11.09.2009 15:13
👍
8
odpowiedz
TitoX1
109
Pretorianin

Poczekamy co pokaże GF 350 GTX. ATI jak zwykle się podnieca, a jak NVIDIA wypuści nową grafikę to zmiecie ATI. Tak zawsze jest. No i czym wogóle się tak podniecają, że odpalili WOW na takiej rozdziałce na full ustawieniach. Przecież grafa w WOW-ie to porażka nawet na full detalach. Niech pokażą Crysisa na full w takiej rozdzialce, albo jakąś inną wymagającą grę to wtedy zobaczymy jak będzie z płynnością hehehe.

11.09.2009 15:28
Ast6n
9
odpowiedz
Ast6n
29
Chorąży

lol czym tu sie podniecac ze wowa odpalili na najwyzszych detalach niech odpala GTA 4 na ultra high to zobaczymy

11.09.2009 15:37
10
odpowiedz
zanonimizowany650129
51
Senator

Poczekamy co pokaże GF 350 GTX. ATI jak zwykle się podnieca, a jak NVIDIA wypuści nową grafikę to zmiecie ATI. Tak zawsze jest. No i czym wogóle się tak podniecają, że odpalili WOW na takiej rozdziałce na full ustawieniach. Przecież grafa w WOW-ie to porażka nawet na full detalach. Niech pokażą Crysisa na full w takiej rozdzialce, albo jakąś inną wymagającą grę to wtedy zobaczymy jak będzie z płynnością hehehe.

Nie no następny fanboy :/

Eeeee, czy rozdzielczość 7680x3200 to nie przypadkiem UltraHD?? Przeca to miało byc dopiero w 2015 roku

Nie to nie jest Ultra HD, bo Ultra HD ma mieć rozdziałkę 7680 x 4320, słyszałem, że w 2011 najwcześniej mają to wprowadzić...

Co do tematu, to ja wżyciu bym nie zmarnował kasy na kupienie sześciu monitorów 30 calowych, co innego jakby sprzedawali jeden 180 calowy monitor z taką rozdziałką, to chętnie bym kupił (jakbym kasę uzbierał :p), bo nie wiem jak innym, ale mi te obramowaniami przeszkadzały by mi tak bardzo, że praktycznie nie mógł bym grać.

11.09.2009 15:48
11
odpowiedz
TitoX1
109
Pretorianin

Thrall Uther nie jestem fanboyem... Tylko stwierdzam fakty. Ale wszystko pokażą testy. Jak ta karta ATI żeczywiście będzie szybsza od GF 350 GTX, to przerzucę się na ATI...

11.09.2009 16:09
12
odpowiedz
zanonimizowany650129
51
Senator

Thrall Uther nie jestem fanboyem...

To zdanie mówi samo za siebie: ATI jak zwykle się podnieca, a jak NVIDIA wypuści nową grafikę to zmiecie ATI. Tak zawsze jest.

Skoro mówisz, że GF zawsze zamiatają radeony, to pokaż mi testy który potwierdzają to co mówisz! Byłbym zapomniał, tylko nie porównuj karty GF za np. 1500, do radeona w cenie np. 800, bo wtedy to wiadomo, że GF będą lepsze! Daj testy porównywalnych cenowo kart, bo chce zobaczyć jak GF miażdżą radeony. Żeby nie było, nie jestem fanboyem Ati, bo sam mam GF w SLI.

11.09.2009 16:25
13
odpowiedz
TitoX1
109
Pretorianin

Thrall Uther proszę bardzo http://twojepc.pl/artykuly.php?id=geforce_gtx_295&strona=4

Radek 4870X2 kosztuje 1839 zł a GF 295 1 819 zł (ceny z komputronika) Czyli praktycznie różnicy nie ma w cenie.... GF 295 GTX wygrywa prawie w każdej grze, a Radek tylko w Call of Juarez....

11.09.2009 16:26
14
odpowiedz
zanonimizowany653201
25
Legend

Thrall Uther - nie to żebym się czepiał albo coś ,ale sądząc po specyfiku GTX3xx to będzie to zdecydowanie lepsza karta od powiedzmy konkurencyjnego ?! Radeon'a HD 5870X2 ,ale jak będzie naprawdę to się okaże...

11.09.2009 16:29
K4B4N0s
15
odpowiedz
K4B4N0s
46
Filthy One

[14] - Tak bardzo to ona nie zmiata, ale fakt lepsza jest. Nie mniej jednak to tylko ostatnia generacja, a ty mówiłeś o wiecznej dominacji nV.

11.09.2009 16:36
hansatan
16
odpowiedz
hansatan
70
Generał

Traktuję to jako ciekawostkę bo nie wielu stać na te karty a po drugie kto ma hajs na 6 monitorów każdy po 20" ? minimum?

11.09.2009 16:58
17
odpowiedz
Maham
40
Konsul

Tyle kasy wydać żeby grac w WoWa na większym ekranie :)) (screen nr 1)

Pozdrawiam.

11.09.2009 17:01
18
odpowiedz
Jagar
97
Pretorianin

Wybacz ale tego twojego GF 295 gtx to powinienes porownywac z Radkiem HD4890X2 a nie z pozom nizsza karta.Pozatym gdy pojawily sie karty Hd 4850 i HD 4870 to wymiotly wszystkie karty Nvidi po kilku miesiacach zaczeli odgrzewac kotlety i kombinowac by wyjsc znow na czolo z przewaga 5 klatek... Pozatym czuje ,ze ati znow przytrze nosa Nvidi bo jezeli na 1 karcie obsuguja wowa w takiej rozdzielczosci na kilku monitorach to co ta karta bedzie robila na jednym ? Strach pomyslec. Pozatym co ty mi tu za testy pokazales, Assasin creed gra ktora jest optymalizowana glownie pod karty Nvidi wiec czego sie tu spodziewac, gdyby ta gra byla optymalizowana pod ATI to mialbys odwrotna sytuacje. Wszystkie gry ktore maja logo NVIDIA zawsze maja wieksza ilosc klatek na kartach tej firmy. Bioshock nastepna gra w ktorej lapy i kase maczala nvidia.

11.09.2009 17:05
19
odpowiedz
Drau
82
Legend

@Endex [ Level: 13 - Konsul ] > Eeeee, czy rozdzielczość 7680x3200 to nie przypadkiem UltraHD?? Przeca to miało byc dopiero w 2015 roku.

O czym ty mowisz? Moze jako _standard_ w grach i filmach mial byc w 2015, ale to, co tu widzisz, to nie jest standard, to opcjonalny feat obslugi multidisplay.
Nie rozumiem zdziwienia, takie rzeczy juz dawno byly mozliwe, a rozdzialki ponad-HD [lacznie z fullHD] juz dawno byly dostepne. A, ze dla 90% ludzi byly niedostepne z powodu niewydajnego sprzetu na tyle, to coz.. :)

@Jagar [ Level: 3 - Legionista ]: karty do porownan wybiera sie patrzac na polke cenowa, co niekoniecznie musi odzwierciedlac porownywalnosc wydajnosci obu kart.

Swoja droga:
@Thrall Uther [ Level: 2 - Konsul ]: ladny sig, ale naprawde wspolczuje ci wydanej na to kasy. Core i7 mogles zastapic dowolny Core2Quad, dwie grafiki to przerost formy nad trescia z uwagi na dosc znaczna strate mocy jednej z nich, to samo w sumie dotyczy 6GB ramu, podejrzewam, ze jakies 3 GB ci sie przewaznie nudza w grach, z powodu niewykorzystania, a i tez na nie musiales wydac, skoro to sa DDR3..
Naprawde, szkoda byloy mi tych pieniedzy, bo polowa sprzetu i tak lezy odlogiem w praktyce :)

11.09.2009 17:22
20
odpowiedz
zanonimizowany575374
62
Generał

Drau ja nie stwierdzałem, tylko się pytałem. Technika idzie za szybko, żebym wiedział o wszystkim.

11.09.2009 17:35
21
odpowiedz
CrossFire12
57
Pretorianin

Jak dla mnie to wygląda dziwacznie , te przerywane linie żenada. wole już jeden wielki telewizor albo projektor HD.

11.09.2009 19:12
22
odpowiedz
zanonimizowany407138
55
Konsul

taaa a przeciwnicy beda sie chowac za ramkami miedzy monitorami:)
moim zdaniem pomysl do dupy.za cene 6 monitorow mozna miec jeden porzadny projektor HD.a uwiezcie mi,nic nie robi wiekszego wrazenia od samochodu z grida ktory jest wiekszy od fotela:) albo dron ze starcrafta wiekszy od piesci doroslego czlowieka;]

11.09.2009 19:30
23
odpowiedz
zanonimizowany650129
51
Senator

Thrall Uther proszę bardzo http://twojepc.pl/artykuly.php?id=geforce_gtx_295&strona=4

Radek 4870X2 kosztuje 1839 zł a GF 295 1 819 zł (ceny z komputronika) Czyli praktycznie różnicy nie ma w cenie.... GF 295 GTX wygrywa prawie w każdej grze, a Radek tylko w Call of Juarez....

Tutaj zgadzam się z userem Jagar, przyznał bym Ci rację gdybyś porównywał 2x HD 4890 w CrossFire do GTX 295, który w wyższych rozdziałkach (2560x1600) w większości gier zostaje z tyłu za dwoma radkami 4890, a za cenę GTX 295 można już dostać 2x HD 4890, więc GF nie miażdżą radków ;]

11.09.2009 19:40
24
odpowiedz
grzegorz2010
42
Pretorianin

Nie no typowi polacy, "Eeee na 6 monitorach to się nie da grać, phi co to za karta". To jest super osiągnięcie, dzięki niej idziemy o krok w kierunku ultra realistycznej grafiki. Bardzo mi się podoba ten pomysł. Mam tylko nadzieje, że cena będzie osiągalna.

11.09.2009 19:42
25
odpowiedz
Drau
82
Legend

@Thrall Uther [ Level: 2 - Konsul ]: taki detal.. jemu chodzilo o wersje x2 karty HD4890, czyli dwuprocesorowa, a nie dwie karty w stratnym trybie CF :)

11.09.2009 19:58
26
odpowiedz
wowuser
36
Pretorianin

"wole już jeden wielki telewizor albo projektor HD."
dokladnie, projektor da ci taki sam efekt, znacznie taniej. a jesli chcesz grac w pelnej panoramie(5-6tys na 1200),co naprawde daje boosta w fps'ach/wyscigach czy nawet czasem w wowie to 22" full hd to jakies 500zeta, druga dowolna karta z cuda niecale 100, zakladajac ze jeden 22 juz masz(i jakiegos 200+ gf), wydajesz jedyne 1100zeta. zamiast szarpac myszka zerkasz na monitor obok...

11.09.2009 20:00
27
odpowiedz
Pr0totype
161
Generał

Świetna sprawa, ale ja narazie mam w miarę kompa, więc tak na 3 lata starczy mi. Po tych 3 latach złoże coś świetnego zapewne z podobną kartą, bo 3 lata, to dużo czasu :)

11.09.2009 21:12
28
odpowiedz
andrzej1
30
Senator

Bardzo fajnie :-)))

11.09.2009 21:27
29
odpowiedz
Jagar
97
Pretorianin

Drau... Hd 4890x2 nie istnieje wiec z prostej przyczyny nie da sie porownac. Lecz 2xhd4890 jak najbardziej maja podobne osiagi mimo ,ze gry w testach byly typowymi grami optymalizowanymi pod karty Nvidi no poza Call of juarez ktory jest passe i wynik mocno byl na + dla karty radeon mimo ,ze jest innego poziomu.

11.09.2009 21:50
30
odpowiedz
NFSV fan
93
Generał

Wg wstępnych danych GTX300 (czy jak tam Nvidia nazwie swój topowy GPU) ma być "na papierze" 2x szybszy od GTX285 jako że będzie miał 2x więcej jednostek obliczeniowych wszelkiego typu (TMU, ROP, SP).

Problem Nvidii polega na tym, że ATI także głupie nie było i przywaliło specyfikację RV870 2x lepszą niż RV770. Więc Nvidia wcale nie będzie miała lekko, zwłaszcza, że:

a) GeForce GTX300 wg aktualnie dostępnych informacji/plotek zaliczy potężne opóźnienie względem konkurencji z ATI. Jak się ukaże pod koniec 2009 to będzie dobrze, a znacznie pewniejszą datą jest początek 2010.

b) Zanim Nvidia wypuści swojego jednoprocesorowego "potwora" który i tak z Radeonem 5870 lekko mieć nie będzie to ATI będzie miało już wersję 2 procesorową tej karty, z którą najnowszy GeForce nie ma żadnych szans.

c) Nvidia wcześniej czy później odpowie kartą 2 procesorową, ale KIEDY? Na GTX 295 trzeba było czekać prawie ROK (sic!) jeżeli tym razem będzie podobnie to przez co najmniej kilka miesięcy ATI będzie niezagrożone w wyścigu wydajności, bo jakby świetna Nvidia nie była to imho pojedynczego GPU wydajniejszego od podwójnego HD 5870 w procesie 40nm nie są w stanie zrobić jak bardzo by chcieli - to po prostu niemożliwe.

Specyfikacja Radeona 5870:

GPU wykonane z ~2,1 mld tranzystorów w procesie 40nm taktowane zegarem 850MHz
1-2GB pamięci DDR5 taktowane zegarem 1,3GHz (efektywnie 5,2GHz)
256bit kontroler pamięci
1600 SPU
32 RBE
80 TMU

11.09.2009 21:56
31
odpowiedz
Djas
35
Generał

Ciekawa i potężna karta się szykuje. Ciekawe jaka cena będzie jak taką technologię ma obsługiwać i mam mieć taką moc.

11.09.2009 23:12
A.l.e.X
32
odpowiedz
A.l.e.X
153
Alekde

Premium VIP

Hm, ATI może jeszcze coś pokaże jednak nadal nie ma PhysX, nadal sterowniki są z kosmosu. W sumie mam zamiar zmienić 30" (2560x1600) na (7680x4320) na UHD jak tylko pojawi się do kupienia detalicznego i coś to obsłuży.

11.09.2009 23:23
Septi
33
odpowiedz
Septi
152
Starszy Generał

Podzielone ekrany to porażka,zwłaszcza że zasłaniają część aktualnej gry.Jeden duży ekran to rozumie.Zresztą na co komu takie zabawki,ja sam na 24 calach jade i nieraz mnie łeb boli a co dopiero jakbym do tego dorzucił 5 czy 6 takich.To są takie zabawki dla ludzi którzy nie mają co z kasą robic.

11.09.2009 23:31
34
odpowiedz
Drau
82
Legend

@Septi [ Level: 68 - Starszy Generał ]: obraz rozlozony na pare monitorow nie jest niczym zaslaniany. Gdybys nie mial ram monitora, to obraz bylby caly, nienaruszony, a przez istneinie ram jest po prostu podzielony na troszeczke oddalone od siebie puzzle tworzace calosc.

11.09.2009 23:38
35
odpowiedz
NFSV fan
93
Generał

A.l.e.X ----> sterowniki ATI aktualnie są bardzo dobre, a już na pewno nie gorsze niż Nvidii, a odnośnie PhysX to dokładnie te same efekty można uzyskać i bez PhysX co z nim stąd też w 99% gier w ogóle nie jest wykorzystywany.

Oba argumenty kontra ATI niestety mocno chybione, ale skoro masz w PC 3x GTX280 to nie dziwne, że szukasz argumentu za swoim wyborem. Niestety po premierze serii 5870 i CO NAJMNIEJ do premiery GTX300 Nvidia żegna się z prowadzeniem w wyścigu wydajności.

O ile nie wydarzy się jakiś cud i GTX300 zostanie zaprezentowany w ciągu najbliższego miesiąca (baaaardzo mało prawdopodobne) to ATI znajdzie się w równie komfortowej sytuacji jak po premierze Radeona 9700PRO :)

12.09.2009 01:07
😍
36
odpowiedz
zanonimizowany412263
31
Pretorianin

Drau - i tak wygląda jak gówno przez te ramy.

12.09.2009 02:25
😊
37
odpowiedz
zanonimizowany465005
43
Generał

Co do tematu, to ja wżyciu bym nie zmarnował kasy na kupienie sześciu monitorów 30 calowych, co innego jakby sprzedawali jeden 180 calowy monitor z taką rozdziałką, to chętnie bym kupił (jakbym kasę uzbierał :p), bo nie wiem jak innym, ale mi te obramowaniami przeszkadzały by mi tak bardzo, że praktycznie nie mógł bym grać.

6 monitorów 30-calowych nie równa się monitorowi 180 calowemu. Chyba byś musiał ścianę wyburzyć, aby taki do domu wnieść.

12.09.2009 09:02
Lothers
38
odpowiedz
Lothers
191
Senator

Teraz tylko trzeba czekać na pojedyncze ekrany zdolne wyświetlić taką rozdzielczość, bo jak widać, ten składak na zdjęciu nie prezentuje się zbyt dobrze. Chociaż o ile mnie pamięć nie myli już GF440MX mógł wyświetlić tapetę pulpitu (i nic więcej ;) w rozdzielczości 2048x1536 (chyba) czyli więcej niż FullHD, a kiedy to było, a u nas nawet FullHD jeszcze nie jest standardem ;)

12.09.2009 10:47
39
odpowiedz
zanonimizowany661366
2
Chorąży

NFSV fan - tym razem będzie innaczej podwójny Radeon nie będzie miał nawet szans z GT300...

12.09.2009 12:41
40
odpowiedz
NFSV fan
93
Generał

Lukas ''The Assassin's'' -----> O ile zakład że się mylisz? ;>

Żebyś miał racje GTX300 musiałby być szybszy od pojedynczego Radeona 5870 o ok 70% co przy tak mocnej specyfikacji ATI jaką obecnie już znamy jest po prostu nie możliwe.

Pojedynczy GTX300 zapewne będzie szybszy od pojedynczego 5870, ale imho max 20 może 30% nie więcej. Podwójna wersja od ATI nie będzie miała problemu z pokonaniem nowego GPU Nvidii.

W końcu także i Nvidia wypuści podwójnego GTX300 (może trochę okrojonego) który pokona 5870X2, ale nie spodziewałbym się takiej karty za wcześniej niż pół roku, w końcu na GTX295 trzeba było czekać prawie rok.

A propos pojedycznych GPU jeszcze to na dzień dzisiejszy najszybszą kartą z 1 GPU bynajmniej nie jest GTX285 tylko Radeon 4890 (GPU@1GHz).....

12.09.2009 13:23
NarutoPL
41
odpowiedz
NarutoPL
33
Pretorianin

Heh ... mam nadzieje że nowa karta za 300 zł ładnie mi wszystko w StarCraft II uciągnie ;)

To tyle bo resztę mam na swoich konsolkach ;P i monitorze 24" który całkowicie mnie wystarcza.

12.09.2009 15:17
42
odpowiedz
zanonimizowany486979
21
Centurion

Może któryś ze zwolenników ATi wyliczyć 5 wielkich hitów i 5 potencjalnych hitów, które są optymalizowane pod ATi?
Dzięki ATi zwolennicy nVidii dostają nowe "kotlety", gdyby nie ATi to pewnie byśmy grali cały czas w gry z grafiką pokroju pierwszych Doom'ów, czy FX Fighter'a :) Nawet w ostatnim czasie po paśmie porażek ATi w końcu pojawiły się produkty warte uwagi w postaci kart z serii 48xx. Jeśli komuś nie zależy na wyścigu zbrojeń to zaczeka na produkt warty uwagi, czy to ze stajni nVidii czy ATi. Ja miałem zamiar kupić swego czasu 4870, ale zaczekałem i kupiłem GF 260 216, to czy mam 5 klatek więcej czy mniej w poszczególnych grach jakoś zeszło na plan dalszy, choć pod tym względem karciocha sobie nieźle radzi i jakoś do grania w 1080p mi wystarcza :)
PhysX niby zbędny bajer, ale osobiście wolę poczekać sobie w na Batmana AA na wersję PC niż zarywać nocki na konsoli :) Do tego ciekaw jestem jak by to wyglądało w 3D Vision, a niezbyt ciekawi mnie efekt rozbicia obrazu na 6 monitorów :) Choć i jedno i drugie nie jest żadną nowością.
Zrozumcie ludzie, że nie zawsze to co droższe jest lepsze i vice versa, często jest to kwestia wyboru sprzętu wg własnych potrzeb i upodobań. Ja pewnie zaczekam na coś nowego od nVidii, choć zawsze pozostawiam sobie furtkę na zakup produktu konkurencji, jeśli zaimplementują w swoim produkcie jakąś ciekawą technologię, a nie tylko rozdzielanie obrazu na 6 ekranów :)

12.09.2009 16:29
43
odpowiedz
zanonimizowany637460
12
Generał

Dzięki ATi zwolennicy nVidii dostają nowe "kotlety", gdyby nie ATi to pewnie byśmy grali cały czas w gry z grafiką pokroju pierwszych Doom'ów, czy FX Fighter'a

Co ma piernik do wiatraka ?

12.09.2009 17:28
A.l.e.X
44
odpowiedz
A.l.e.X
153
Alekde

Premium VIP

@NFSV fan nie jest to do końca prawda lista gier obsługująca PhysX jest naprawdę duża a różnicę potężne widać np. w Mirror's Edge, Batmanie, U3 w innych grach ma to już mniejsze znaczenie ale nadal jest. Mi jednak zależy na wydajności więc jeśli ATI będzie lepsze od Nvidii to będzie Ati choć mając już jakiś czas temu przygody z Ati trochę mi z tą firmą nie po drodze. Ważne jest że Dirt 2 będzie już wspierał DX11, a chyba Nvidia wyda grafiki dopiero w styczniu więc pewnie najpierw wypróbuje w CF dwie 5870

12.09.2009 21:33
45
odpowiedz
wowuser
36
Pretorianin

" więc pewnie najpierw wypróbuje w CF dwie 5870" wiec do wydania next gf bedziesz korzystal z 2 5870? a potem moze 2 300 gf i bedziesz na tym grac w dirta 2? taa jasne:)

13.09.2009 12:51
46
odpowiedz
C'aSh
15
Chorąży

Ja i tak jestem zwolennikiem nvidi , lecz dobrze ze jest konkurencja dzieki temu jest i rozwoj technologiczny i nizsze ceny..

13.09.2009 15:45
47
odpowiedz
zanonimizowany648866
2
Legionista

Cena na pewno bedzie niemala, ale fajna technologia, tylko niedostepna dla przecietnego gracza ;)

14.09.2009 13:52
48
odpowiedz
mil(a)
16
Legionista

To jest magia promocji. Wcisnąć ludziom gówno z podziałkami, liniami itp. tak zeby im sie to podobalo. Jak wam sie to tak podoba to oblkejcie swoje full HD telewizory tasma klejącą i sie cieszcie z nowej technologii. WOW

19.09.2009 19:51
49
odpowiedz
zanonimizowany510581
28
Pretorianin

Przecież WoW odpali się na komputerze każdej kury domowej, niech odpalą Crysisa.

20.09.2009 19:01
50
odpowiedz
LordVader1
21
Generał

6 monitorów obsługiwanych przez jedną kartę. Sądzę, że będzie to najpotężniejsza karta, przynajmniej do premiery nowej karty NVIDII.

Technologie Nowy układ graficzny AMD zapowiedzią wizualnej rewolucji?