Forum Gry Hobby Sprzęt Rozmawiamy Archiwum Regulamin

Technologie Nieoficjalne testy GeForce GTX Titan X - nowej karty grafiki od Nvidii

12.03.2015 15:47
1
zanonimizowany305250
161
Legend

A AMD tylko siedzi i się dziwi, czemu ma tylko 25% rynku kart...

12.03.2015 16:21
2
odpowiedz
Murabura
161
Generał

benchmarki to zawsze tylko benchmarki. testy w grach pokaza realna wydajnosc.

12.03.2015 16:24
Sasori666
3
odpowiedz
Sasori666
186
Korneliusz

[1] I ciągle spada. Jak nowe R9 będą kupą, to nie zdziwię się jak na koniec roku będą miały mniej niż 1/5 rynku.
Niech przynajmniej sterownikami się zainteresują, bo od 4 miesięcy nic nie ma i kilka gier chodzi jak kupa.

12.03.2015 17:05
Matekso
4
odpowiedz
Matekso
96
Generał

Może i nazwijcie mnie laikiem podzespołów graficznych, ale ta karta przy swoich podzespołach i 12 GB DDR5 pamięci starczy na stulecia! ja przeszedłem niedawno na kartę z 1GB pamięci z 512MB i jest kolosalna różnica zwłaszcza, że już 1GB to robi się standard.

12.03.2015 17:07
5
odpowiedz
zanonimizowany805622
111
Legend

@UP - Standard? 1GB to przeszłość, czy tego chcesz, czy nie. 3GB z aktualnym postępem mogą niedługo nie wystarczyć. Inna kwestia, to zasadność takich rzeczy.

12.03.2015 17:31
Tomek465
6
odpowiedz
Tomek465
80
Konsul

Matekso 1 GB standard ?
! 1 GB Ani troche sie nie opłaca standard to 2 GB .
1 GB , żeś mnie niezle rozśmieszył Matekso !!!

12.03.2015 17:33
7
odpowiedz
zanonimizowany305250
161
Legend

Ani 2, ani 3 GB - 4 GB to już zalecana konfiguracja w kartach. Zobaczcie wymagania AC Unity. Przez ostatni rok-dwa wymagania mocno podskoczyły.

12.03.2015 17:43
8
odpowiedz
Naplułem_w_Kasze
32
Centurion

I znowu w komentarzach (na razie jednym) zachwyt nad ilością pamięci GDDR zainstalowanej na karcie. Bardziej niż jej ilość liczy się przepustowość szyny za pośrednictwem której łączy się z rdzeniem i samo jej taktowanie (pamięci). Oraz oczywiście ponad wszystko inne wydajność samego rdzenia graficznego.
I już odpowiadam - karta owszem - wydajna lecz proponuję poczekać na flagowy model od AMD z rodziny r9 3xx.
W przypadku dwóch najwyższych modeli z serii przewiduję duży skok wydajności względem poprzedników (porównywalny jak pomiędzy hd4850 a hd5850 swego czasu). Pobór energii będzie podobny więc pozostanie kwestia wydajności(tu obstawiam AMD) i ceny względem najbliższego konkurenta(również AMD). Oczywiście Nvidia zmuszona będzie przyspieszyć wówczas premierę następnej generacji lecz wdrożenia nowego procesu produkcyjnego układów (14nm)nie będzie dało się przyspieszyć a te kilka(naście) miesięcy będzie wystarczyło aby podnieść zyski koncernu czerwonych.
A ten GTX Titan X będzie wystarczył na pewno nie na "stulecia" a na około 2 lata(to tyczy się każdej karty, która jest prezentowana aktualnie lub w najbliższej przyszłości). Wtedy prognozuję zadomowienie się na dobre w branży wirtualnej rozrywki rozdzielczości UHD która będzie potrzebowała ogromnej mocy układów.

12.03.2015 19:39
A.l.e.X
👍
9
odpowiedz
A.l.e.X
153
Alekde

Premium VIP

--->[8] - no nie wiem karty swoje kupiłem marzec 2013 i gdyby nie TX to nie mam na co zmienić, o wydajności też za bardzo nie ma się z kim mierzyć, szybsza 980 o ok. 20% od Titana pierwszego - więc to nieprawda jeśli ktoś kupi TX i będzie grał w 1080p to starczy mu na naprawdę sporo, sporo czasu. AMD życzę jak najlepiej, bo jeśli padnie na twarz, to dopiero będzie stagnacja, jak z CPU i Intelem ;(

Wracając do wyników to autor newsa się myli, bo jeśli się potwierdzą to TX będzie miała wydajność dwóch Titanów, czyli będzie wolniejsza od dwóch 980 o ok. 40%, tylko że to jest pojedynczy GPU z 12GB v.ram i 96 ROPami, - resumując totalny buldożer, w SLI obsłużą każdą grę 4K, a dwa Titan X = wydajność 4x980 które po pierwsze zapchają się na ramach, a po drugie zdołują nawet 5960X, nie mówiąc już o cieple jakie wygenerują latem.

Czekam na testy, a potem...

12.03.2015 20:00
10
odpowiedz
Tuminure
105
Senator

I znowu w komentarzach (na razie jednym) zachwyt nad ilością pamięci GDDR zainstalowanej na karcie. Bardziej niż jej ilość liczy się przepustowość szyny
Bzdura.
Jeżeli pamięci jest za mało, to przepustowość zaczyna mieć o wiele mniejsze znaczenie, niż ilość pamięci.

12.03.2015 20:11
Matekso
11
odpowiedz
Matekso
96
Generał

z jednego jestem dumny... z swojego komentarza..., że dostałem więcej fachowych porad niżbym o nie poprosił, wiedza się przydaje. W kwestii sporu pamięci i przepustowości, liczą się ddr5!!może i fakt to nie standard, lecz ja nie mówię o jakiś growych benchmarkach te AC Unity to bubel, no ale zostawmy tego leżącego trupa już.

przepustowości

12.03.2015 20:52
Meno1986
12
odpowiedz
Meno1986
178
Szkubany Myszor

Zapomnieli dodać, że pamięć będzie podzielona, jak w 970 - 4 GB GDDR5 i 8 GDDR2... :P

12.03.2015 21:26
kaszanka9
13
odpowiedz
kaszanka9
109
Bulbulator

Naplułem_w_Kasze [8]

Bardziej niż jej ilość liczy się

Liczą się testy w grach, cała reszta nie jest nic warta.

12.03.2015 23:07
14
odpowiedz
Lutz
173
Legend

[13] brednie, jak zwykle.

To nie jest karta do grania, (co nie znaczy ze nie moze byc).
Ta karta ma byc konkurencyjna dla d700 z macpro I calej reszty kart do stacji roboczych. Ja Tam chetnie wymienie mojego T black a.

13.03.2015 10:27
15
odpowiedz
TheDomeG
3
Junior

A R9 295x2 dalej lepszy i do tego o wiele tańszy.

13.03.2015 10:58
16
odpowiedz
zanonimizowany146624
131
Legend

Masakruje? Ja takie wyniki robie u siebie na karcie 3000 tanszej

13.03.2015 11:22
17
odpowiedz
zanonimizowany943726
28
Generał

R9 295X2 jest lepszy.. W benchmarkach, gry to juz bedzie zupelnie co innego.

Gdybym miał w uj hajsu to i tak nigdy nie kupilbym dwurdzeniowej karty

13.03.2015 14:12
18
odpowiedz
Naplułem_w_Kasze
32
Centurion

@ [9] A.l.e.X -> Racja - jeżeli posiadacz zadowoli się 1080p (full hd). W przeciwnym wypadku podtrzymuje swoje zdanie. A wiemy, że flagowe karty graficzne kupuje się do najwyższych ustawień (w tym rozdzielczości - gdzie wspomniałem, za dwa lata może to być 3840x2160 (uhd 4K2K standard) oraz 4096×2160 (Digital cinema 4K DCI) czyli de fakto 4-krotnie większa liczba pikseli w porównaniu do powszechnie używanej rozdzielczości Full High-Definition. Teraz niech zrobią testy tej karty w podanych wyżej rozdzielczościach we współczesnych bardziej wymagających tytułach. Podejrzewam że jeżeli w ogóle, to karta będzie utrzymywać ledwo te 30 kl/sek. Więc łatwo sobie wyobrazić jaką wydajność będzie prezentowała za te 2 lata w tych rozdzielczościach.
Celowo nie wspomniałem o profesjonalnym zastosowaniu (np. stacja robocza dla grafika w 3d) tego akceleratora bo jesteśmy na portalu o tematyce elektronicznej rozrywki.
@ [10] Tuminure -> A czy napisałem coś w swojej poprzedniej wypowiedzi a żeby montować na każdej wydawanej karcie graficznej nie więcej aniżeli 2 gb gddr? Wyprostuję i sprecyzuje swoje zdanie żebyś mógł mnie lepiej zrozumieć. Twierdzę, że lepiej kosztem tych czterech dodatkowych gb popracowali nad szyną 512 bit. Gwarantuję, że taka konfiguracja bardziej by się przyczyniła dla wydajności in plus aniżeli obecne 12gb i 384bit szyna. Na te 12gb i większe przyjdzie jeszcze czas. Obecnie taka ilość może się przydać w zasadzie tylko grafikom (w konfiguracjach sli oraz crossfire ilość pamięci się nie sumuje, lecz działa równolegle więc każda dodatkowa ilość pamięci jest tam na wagę złota).
Inna sprawa, że przepustowość szyny pamięci i sama jej prędkość już zaczyna stanowić "wąskie gardło" dla konstruktorów układów.Nie jej ilość. Stąd pomysł na stosy ramu w formie warstwowej pamięci HBM (High Bandwidth Memory) opracowanej po raz pierwszy przez AMD i SK Hynix. We flagowym modelu AMD z seri r9 3xx będzie zastosowana po raz pierwszy. Jej ilość to 4 gb (czasowe ograniczenie wynikające z umieszczenia jej stosów na jednym poziomie z układem graficznym w jego bezpośrednim sąsiedztwie oraz aktualnej pojemności jednego stosu wynoszącej obecnie 1 gb) oraz 1024 bit magistrala szeregowa - przepustowość jednego stosu przy taktowaniu 500 mhz to 128 gb/s. W przyszłości przy wyższych taktowaniach oraz pojemnościach pamięci będzie znacznie więcej (same warstwy połączone są 1024 przelotkami). Karty Nvidii z układami z rodziny Pascal w których prawdopodobnie będzie zastosowana "trójwymiarowa" pamięć warstwowa HBM mają pojawić się dopiero w 2016r.
Nie mów więc kolego, że piszę bzdury bo takimi banalnymi tekstami może "strzelać" każdy(nie odbieraj tego jako złośliwość).
@ [13] kaszanka9 -> Częściowo racja. Przyznasz jednak, że skądś muszą się brać te wyniki w grach. A biorą się właśnie z tej nieszczęsnej papierowej specyfikacji i poprawnej, niespapranej architektury. A wyniki w grach to finalne sprawdzenie zarówno sterowników (i ich narzutu na cpu) oraz właśnie poprawności architektury względem oczekiwań.
@ [11] Matekso -> jeżeli Twoje zdanie odnosiło się również do mnie to polecam się na przyszłość :).

14.03.2015 11:41
19
odpowiedz
s.o.c.o.m
30
Centurion

Hej grafikciarze, ja tak sie czasami zastanawiam czy grając w gre to sie nią cieszycie? czy siedzicie z lupą przy pikselach, ramach, sramach?

14.03.2015 12:06
20
odpowiedz
zanonimizowany1060995
3
Chorąży

Zróbcie testy 4x760 MARS vs to gówienko ;D

20.03.2015 14:39
21
odpowiedz
meloncom
117
Graczu

Żal mi was - wychodzi jakaś szybsza karta i każdy będzie marszczył kapucyna przed monitorem bo na gierce wyciągnie 5 klatek więcej. WOOOOW!!! Nie wystarczy kupić 980 i po prostu grać jak człowiek, ewentualnie konsolę?

Lutz ma rację - jak dla mnie to karta może być fajną alternatywą dla Quadro, które są cholernie drogie. A do 3ds maxa czy Cinemy 4D jest potrzebny kawałek dobrego sprzętu. W takich aplikacjach karta naprawdę zaczyna mieć znaczenie, a nie w krapiszonach pokroju AC Unity. Jak ktoś cierpi na nadmiar gotówki to niech wpłaci kasę na jakiś charytatywny cel.

Technologie Nieoficjalne testy GeForce GTX Titan X - nowej karty grafiki od Nvidii