Nieoficjalne testy GeForce GTX Titan X - nowej karty grafiki od Nvidii
Do sieci wyciekły informacje odnośnie specyfikacji GeForce GTX Titan X. Sprawdź, jak nowa karty grafiki firmy Nvidia wypada w nieoficjalnych testach.

Przed tygodniem firma Nvidia dumnie zaprezentowała swoją nową mocarną kartę grafiki – GeForce GTX Titan X. Oficjalne informacje na temat specyfikacji układu graficznego mają zostać ujawnione na tegorocznym GPU Technology Conference (17-20 marca), ale serwis VideoCardz podobno zdążył już poznać szczegóły techniczne karty. Jeśli wierzyć pogłoskom, GeForce GTX Titan X ma oferować pamięć 12 GB GDDR5, domyślną częstotliwość 1002/7012 MHz i 384-bitowy interfejs. Podobno produkt ma zostać wyceniony w Stanach Zjednoczonych na 999 dolarów (ok. 3900 zł), czyli mniej, niż wstępnie prognozowano. Oczywiście, to też nie jest informacja oficjalna.
Wspomniany serwis przeprowadził kilka testów porównujących wydajność GeForce GTX Titan X z najnowszymi modelami kart Nvidii oraz ATI w różnych konfiguracjach i wersjach benchmarka 3D Mark. GTX Titan X wypada na nich niewiele słabiej niż GTX Titan Z czy Radeon R9 295X2 i sporo słabiej niż podwójny GeForce GTX 980. Kluczem może tu jednak okazać się stosunkowo niewygórowana cena: niższa od „zetki” (która początkowo kosztowała blisko 3 tysiące dolarów) i porównywalna z konkurencyjnym R9 295X2. Szczegółowe wyniki możecie sprawdzić poniżej:
Więcej:NVIDIA App 11.0.5.266 z DLSS Override w Borderlands 4 i Dying Light: The Beast
Komentarze czytelników
meloncom Konsul
Żal mi was - wychodzi jakaś szybsza karta i każdy będzie marszczył kapucyna przed monitorem bo na gierce wyciągnie 5 klatek więcej. WOOOOW!!! Nie wystarczy kupić 980 i po prostu grać jak człowiek, ewentualnie konsolę?
Lutz ma rację - jak dla mnie to karta może być fajną alternatywą dla Quadro, które są cholernie drogie. A do 3ds maxa czy Cinemy 4D jest potrzebny kawałek dobrego sprzętu. W takich aplikacjach karta naprawdę zaczyna mieć znaczenie, a nie w krapiszonach pokroju AC Unity. Jak ktoś cierpi na nadmiar gotówki to niech wpłaci kasę na jakiś charytatywny cel.
zanonimizowany1060995 Chorąży
Zróbcie testy 4x760 MARS vs to gówienko ;D
s.o.c.o.m Centurion
Hej grafikciarze, ja tak sie czasami zastanawiam czy grając w gre to sie nią cieszycie? czy siedzicie z lupą przy pikselach, ramach, sramach?
Naplułem_w_Kasze Centurion
@ [9] A.l.e.X -> Racja - jeżeli posiadacz zadowoli się 1080p (full hd). W przeciwnym wypadku podtrzymuje swoje zdanie. A wiemy, że flagowe karty graficzne kupuje się do najwyższych ustawień (w tym rozdzielczości - gdzie wspomniałem, za dwa lata może to być 3840x2160 (uhd 4K2K standard) oraz 4096×2160 (Digital cinema 4K DCI) czyli de fakto 4-krotnie większa liczba pikseli w porównaniu do powszechnie używanej rozdzielczości Full High-Definition. Teraz niech zrobią testy tej karty w podanych wyżej rozdzielczościach we współczesnych bardziej wymagających tytułach. Podejrzewam że jeżeli w ogóle, to karta będzie utrzymywać ledwo te 30 kl/sek. Więc łatwo sobie wyobrazić jaką wydajność będzie prezentowała za te 2 lata w tych rozdzielczościach.
Celowo nie wspomniałem o profesjonalnym zastosowaniu (np. stacja robocza dla grafika w 3d) tego akceleratora bo jesteśmy na portalu o tematyce elektronicznej rozrywki.
@ [10] Tuminure -> A czy napisałem coś w swojej poprzedniej wypowiedzi a żeby montować na każdej wydawanej karcie graficznej nie więcej aniżeli 2 gb gddr? Wyprostuję i sprecyzuje swoje zdanie żebyś mógł mnie lepiej zrozumieć. Twierdzę, że lepiej kosztem tych czterech dodatkowych gb popracowali nad szyną 512 bit. Gwarantuję, że taka konfiguracja bardziej by się przyczyniła dla wydajności in plus aniżeli obecne 12gb i 384bit szyna. Na te 12gb i większe przyjdzie jeszcze czas. Obecnie taka ilość może się przydać w zasadzie tylko grafikom (w konfiguracjach sli oraz crossfire ilość pamięci się nie sumuje, lecz działa równolegle więc każda dodatkowa ilość pamięci jest tam na wagę złota).
Inna sprawa, że przepustowość szyny pamięci i sama jej prędkość już zaczyna stanowić "wąskie gardło" dla konstruktorów układów.Nie jej ilość. Stąd pomysł na stosy ramu w formie warstwowej pamięci HBM (High Bandwidth Memory) opracowanej po raz pierwszy przez AMD i SK Hynix. We flagowym modelu AMD z seri r9 3xx będzie zastosowana po raz pierwszy. Jej ilość to 4 gb (czasowe ograniczenie wynikające z umieszczenia jej stosów na jednym poziomie z układem graficznym w jego bezpośrednim sąsiedztwie oraz aktualnej pojemności jednego stosu wynoszącej obecnie 1 gb) oraz 1024 bit magistrala szeregowa - przepustowość jednego stosu przy taktowaniu 500 mhz to 128 gb/s. W przyszłości przy wyższych taktowaniach oraz pojemnościach pamięci będzie znacznie więcej (same warstwy połączone są 1024 przelotkami). Karty Nvidii z układami z rodziny Pascal w których prawdopodobnie będzie zastosowana "trójwymiarowa" pamięć warstwowa HBM mają pojawić się dopiero w 2016r.
Nie mów więc kolego, że piszę bzdury bo takimi banalnymi tekstami może "strzelać" każdy(nie odbieraj tego jako złośliwość).
@ [13] kaszanka9 -> Częściowo racja. Przyznasz jednak, że skądś muszą się brać te wyniki w grach. A biorą się właśnie z tej nieszczęsnej papierowej specyfikacji i poprawnej, niespapranej architektury. A wyniki w grach to finalne sprawdzenie zarówno sterowników (i ich narzutu na cpu) oraz właśnie poprawności architektury względem oczekiwań.
@ [11] Matekso -> jeżeli Twoje zdanie odnosiło się również do mnie to polecam się na przyszłość :).
zanonimizowany943726 Generał
R9 295X2 jest lepszy.. W benchmarkach, gry to juz bedzie zupelnie co innego.
Gdybym miał w uj hajsu to i tak nigdy nie kupilbym dwurdzeniowej karty