Havok i nVidia łączą siły
O ile 6600gt da radę obsłużyć fizykę i grafę jednocześnie. Choć pomysł ciekawy.
BTW, też mam 6600gt ;)
Bardzo dobrze! Będziemy mieli coraz lepszą grafike w gierkach.
Dobrze ze niedawno kupilem sobie 6600GT :P
Widzę, że NVIDIA wzięła sobie do serca opinie o dziecinności ich maskotek i ich wróżka zębuszka zaczęła nosić czarną skórę zamiast "leśnego wdzianka". :)
A co do informacji to bardzo jestem ciekawy ile można wycisnąć z takiej bądź co bądź nieźle obciążonej już karty graficznej, ciekawe jak to sie będzie miało do kart AGEIA.
Dobrze, że mam 4200 Ti ;)
Do czasu co się okaże: wtedy przesiadka nie tylko na nowy komp ale i rozwiązania graficzne :)
Czytałem kiedyś o podobnych pomysłach, ale praktycznej realizacji jeszcze nie widziałem:
http://gamma.cs.unc.edu/GPUSORT/
Cool. To po co szybki procek kupowałem skoro fizyka teraz będzie obliczana przez mojego 7800gt ? :/
LOL
6600GT + liczenie fizyki = 4 fps w BF2 + łamanie się drzew!
Tak! To nVidia powinna dać wcześniej!
A pomyśleć tylko co będzie z 7900GTX! Całe 20fps + kropelki wody!
super:) można sie tylko cieszyć
legrooch baaardzo kiepsko się orientujesz. Ze wzgledu na architekturę peceta karty graficzne mają spory zapas mocy bo i tak czekają na dane z procesora (wąska szyna itp). Pomysł nVidii jest świetny, bo GPU to są zarąbiście szybkie jednostki obliczeniowe.
Ati coś tam również przebąkiwało o tym, GPU z X360 ma jakieś funkcje które w teorii można do tego użyć. Ale wygląda na to że nVidia kombinowała wcześniej i złapała ATI w rozkroku :P
I tak jak wyjdzie DX10 to wszystko się zmieni, zreszta jest to kolejne faworyzowanie nVidii, nowe radki jeszcze latwiej jest programować pod coś innego niż grafa.
I FX jakoś kojarzy mi sie z kleska ;)
Triber możesz coś więcej powiedzieć o łatwiejszym programowaniu Radków pod coś innego niż grafa ?
nie pamietam juz szczegolow, ale czytalem kiedys porownanie mozliwosci zastosowan jako cpu serii 70 i 520 , z korzyscia na ten druga rodzinke, w zwiazku z inna architektura, innym podejsciem do
shader'ow,
np. "Procesory vertex Radeona X1000 zostały zaprojektowane w podobny sposób do architektury GeForce 7 nVidii. Każdy procesor składa się z dwóch układów, wektorowego i skalarnego, z taką różnicą, że procesor vertex G70 ma 32 bitowe ALU, podczas gdy w X1000 jest 128 bitowy. Cecha ta pozwala na emulowanie centralnego procesora na GPU. " (benchmark.pl)
niewiele to mowi ale nie potrafie juz tego znalezc, gdzies pewnie w newsach tweaka, badz w jakiejs zagranicznej recenzji nowych radkow.
Artukul jasno wskazywal mozliwosc zastosowania, zaprogramowania nowych radkow, a nie nvidii, jako takiej np. jednostki AGEIA'i.
Tyle, że zwykle nie chcesz emulować cpu na gpu. Nawet jeśli masz jakieś alternatywne zastosowania dla karty graficznej, to gpu chcesz używać do tego do czego został stworzony - jako diabelnie szybkiego koprocesora wektorowego. Faktycznie 128 bit na x1000 pozwala emulować cpu ale z bardzo niską wydajnością - to się nie opłaca, łatwiej i wydajniej dodać po prostu drugi cpu. Z drugiej strony jeśli wykorzystujesz G70 czy X1000 jako jednostkę wektorową to n-bitowość nie ma większego znaczenia. Tak czy inaczej jest to sprawa istotna dla CAD, nie dla przeciętnego gracza. A obliczanie fizyki na gpu to dobry pomysł w grach które nie obciążają mocno vertex shaderów. Przez jakiś czas będzie działać ok, potem wejdzie displacement mapping (już stosowany - patrz FEAR i wyrywanie kawałków ścian przez kule) który bardzo mocno obciąża vs i tyle z fizyki na gpu. Tak przynajmniej wróżę.