DirectX 12 – nawet dwukrotny wzrost wydajności na PC, XONE i Windows Phone
Nawet jak będzie tak samo jak dx 10 to i tak dobrze. Nvidia pozwoliła na uruchomienie DX 12 na kartach graficznych z DX 11. Jestem ciekaw co na to AMD.
Już widzę to porażające różnice, które będą tak wielkie, że nikt nie będzie w stanie ich dostrzec.
Też mi nowość. Teraz też mogę podkręcić kartę graficzną i skutki będą takie same jak po skorzystaniu z DX12: zwiększona wydajność i przegrzewanie podzespołu.
Już widzę jak XO dogania PS4, to będzie rewolucja MS programowo zniweluje 50% różnicę w ilości jednostek obliczeniowych GPU, jak występuje na korzyść PS4. No cuda panie na kiju.
fajnie wydajność xbox one zrośnie i dupolizacze ps4 nie będą już wytykać że gier w full hd nie uciągnie.
"Dla graczy pecetowych mam jednak dwie złe wieści. O ile karty grafiki wspierające DirectX 11 wesprą również DirectX 12 (a przynajmniej tak będzie w przypadku produktów firmy NVIDIA), to wzrost wydajności spowoduje również znaczne zwiększenie wydzielanego ciepła przez owe podzespoły".
"fajnie wydajność xbox one zrośnie i dupolizacze ps4 nie będą już wytykać że gier w full hd nie uciągnie."
Teraz będą wytykać że konsola wyłącza się z przegrzania podczas walki z większą ilością przeciwników na ekranie :D
Bo skoro zmiana DX na PC spowoduje znaczne zwiększenie wydzielanego ciepła, to analogicznie to samo powinno wystąpić w przypadku konsoli. A tam chłodzenia raczej nie wymieni się samemu :D
Stek bzdur, m$ chce wam wmówić, że xone nagle będzie miał 3 TFLOPS aktualizacją softu, trzeba być wybitnie naiwnym, aby to łyknąć.
''Nawet dwukrotny wzrost''
Czyli może wydajność wzrosnąć zarówno o 200%, jak i o 5%.
Zwykła gadka marketingowa.
2x wydajniej - he he he, jeżeli ktoś w to wierzy to se myśli: o super, wspaniale ...
To niech następną jego myślą będzie: ten sam sprzęt tylko nowe stery ... tzn że do tej pory robili nas w ... ;)
Tak jakby Sony nie mogło ulepszać swojego oprogramowania tylko M$. Lanie wody ostatnio przybiera na sile, widać sprzęt słabo schodzi.
Dla mnie to wszystko jedna wielka sciema (tzw. marketing). AMD wypuszcza Mantle, wczoraj Nvidia nowe "ulepszone" sterowniki to M$ nie mogl byc gorszy. Teraz to niby oni maja fenomenalne rozwiazania zwiekszajace wydajnosc.
To ja sie pytam co ich wczesniej powstrzymywalo przed zwiekszeniem wydajnosci. Ale pewnie po co programowo poprawiac wydajnosc jak klient kupi nowa karte zamiast instalowac nowe stery.
Tylko po co ten wzrost wydajności, skoro DX12 będzie tylko w Windows 8 lub nowszym?
Gdyby dali go do XP, albo chociaż do 7-ki to może bym to jakoś odczuł, ale nowego Windowsa do obecnego komputera kupować nie będę, a jak wymienię MB, CPU i GPU to wzrost wydajności samych bibliotek będzie mnie najmniej obchodził, bo nowe podzespoły i tak poradzą sobie ze wszystkim na DX11.
To ja sie pytam co ich wczesniej powstrzymywalo przed zwiekszeniem wydajnosci. Ale pewnie po co programowo poprawiac wydajnosc jak klient kupi nowa karte zamiast instalowac nowe stery.
Jak to co? Sposób w jaki Windows zastał zaprojektowany. Przy Viście i nowszych programiści wyszli z założenia, że wygoda programisty ponad wydajność. Dlatego mocno ograniczyli bezpośredni dostęp do sprzętu i wymusili korzystanie z dodatkowych API, czego efektem jest dodatkowy narzut na CPU. Na konsolach sterownik jest zintegrowany z DirectX czy OpenGL. W Windowsie sterownik musi najpierw rozmawiać z implementacją DirectXa dostarczoną przez Microsoft, a potem konsultować z jądrem systemu wszelką komunikację z GPU. To właśnie powoduje narzut na CPU, a do tego cały czas w Windowsie są uruchomione różne usługi systemowe, które dodatkowo pochłaniają cenne zasoby systemowe i powodują mikroprzycięcia w grach.
Microsoft teraz zmienia swoje podejście tylko dlatego, że czuje oddech konkurencji. Steam OS ma naprawdę realną szansę zaistnieć jako domowy system operacyjny i przy okazji otworzyć drogę innym dystrybucjom linuksa. Mantle od AMD to raczej proof of concept niż realna technologia. Obie firmy tj. AMD i Nvidia usiądą i będą optymalizować OpenGL pod Steam OS, by działał jak najwydajniej, a mają znacznie większe możliwości niż pod Windows, bo mogą dowolnie modyfikować jądro systemu.
Nie liczyłbym jednak na jakiś bardzo duży wzrost wydajności. Dla obecnych wielordzeniowych CPU ten dodatkowy narzut API pod Windowsem nie robi aż takiego dużego wrażenia. Jedyne co tak naprawdę zyskają gracze to rozwiązanie problemów mikroprzycięć i rwania obrazu, co się bardzo nasiliło w ostatnich latach z powodu takiej, a nie innej filozofii programowania pod nowymi Windowsami.
Za starych DOSowych czasów, gdy programista miał 100% kontrolę nad sprzętem i programował bezpośrednio na sprzęcie o określonej specyfikacji takie problemy nie występowały. Jak Windows 95 zaczął zyskiwać na popularności to wymagania gier wzrosły 2x. Wiele tytułów posiadało wówczas pliki wykonywalne pod DOS i Windows. W tym pierwszym wystarczył 486 i 8 MB ramu, a do Windowsa potrzebne było Pentium i min. 16-24 MB.
Pamiętam też jak jeden znajomy linuksowiec ekscytował się tym, że DOOM 3 na linuksie działa płynnie na CPU 800 MHz i 256 MB ramu, a pod Windows wymagał CPU 1,4 GHz i 512 MB. Oczywiście linuksa trzeba było odpalać w możliwie najoszczędniejszej wersji z załadowanymi tylko niezbędnymi dla gry komponentami systemu i nawet bez GUI. Nie zmienia to jednak faktu, że linuks obniżył wymagania gry do poziomu Xbox1 na którego też wydano Doom 3.
XP to już jest "emeryt" i trzeba się z tym pogodzić. Jednak zmuszanie przejścia z 7 na nowszy by dostać DX 12 to przesada.
Zapewne jest to sporo przesadzone ale ostatnio technologia idzie mocno naprzód.
Jakoś nie wierze w tą całą poprawę wydajności w grach zwłaszcza że niby za to miały by odpowiadać firmy które trzepią kasę z sprzedażny podzespołów do komputerów czy tez oprogramowania
nie wierze w cuda na kiju. Ile to juz razy miala wzrastac wydajnosc gier przez sam soft? Jasne, niektore stery, nowe directy itd poprawialy o 50 czy nawet 100% wydajnosc, ale tylko w przypadku gdy pierwotnie byly o 50% spieprzone.
Do autora newsa - AMD potwierdzilo ze karty na architekturze GCN rowniez beda obslugiwac DX12 (czyli seria 7xxx i R7/R8/R9)
wickywoo [16]
itd poprawialy o 50 czy nawet 100% wydajnosc
Haha, niby gdzie, chyba spowolniły przy przejściu z dx9 => dx10, a potem dx11, te wszystkie aktualizacje spowodowały, że twórcom się łatwiej gry robiło, ale kosztem wymagań czyli użytkownika - gracza, jest masa gier, które w dx9 są sporo wydajniejsze niż na dx11 bez widocznego powodu.
Taki są fakty, bo chłopcom pecetowcom to zawsze można sprzedać ściemę, oni sobie ułatwili, a wymagania wzrosły.
Dopiero teraz, gdy wyszły nowe konsole i co ważniejsze mantle za mocno ich przycisnęło największa bujda od czasów wprowadzenia dx10 wyszła za bardzo na jaw, więc coś trzeba było zrobić.
Gry, które lepiej lub gorzej radzą sobie w niższych rozdzielczościach (np. 720p czy 900p), po aktualizacji DX zapewnią znakomitą rozgrywkę w rozdzielczości 1080p.
Trzymam za słowo.
Jakkolwiek w przypadku otwartego i nieustannie rozwijającego się PC byłoby to niejako naturalne, tak w przypadku zamkniętej (i do tego za półtora roku już starej) struktury, jaką są konsole (w tym przypadku X1), po prostu w to nie wierzę. Czysta ściema.
M$ widzi, że już teraz jego konsola odstaje od PS4 i chce kolejny raz omamić graczy, którzy przez długi czas będą się łudzić, że "wcale nie jest tak do dupy, no nie?" (czyt. nie chce jeszcze wyraźniej przegrać wyścigu sprzedaży dużych konsol). Kto bowiem w ciągu półtora (!!!) roku sprawdzi prawdziwość tych słów? Ano właśnie - nikt. Ale co się sprzeda przez ten czas w wyniku owych bajdurzeń z newsa, to się sprzeda.
Micro$oft notuje tendencję spadkową swoich produktów i ja mam uwierzyć, że nagle szykuje się rewolucja? Oj bajeczki opowiadają. Tu nawet nie ma takiej możliwości, żeby zobaczyć wzrost wydajności o 200%, już bardziej był uwierzył w 15% lub coś w tym stylu.