Havok i nVidia łączą siły
Na imprezie Game Developer Conference, która rozpoczęła się dzisiaj w San Jose, nie braknie świeżych pomysłów. Jednym z nich zabłysnęła nVidia, współpracująca od niedawna z producentem silników fizycznych, firmą Havok. Obie korporacje zamierzają w nowatorski sposób wykorzystać karty graficzne z serii GeForce 6 i 7.
Marek Grochowski
Na imprezie Game Developer Conference, która rozpoczęła się dzisiaj w San Jose, nie braknie świeżych pomysłów. Jednym z nich zabłysnęła nVidia, współpracująca od niedawna z producentem silników fizycznych, firmą Havok. Obie korporacje zamierzają w nowatorski sposób wykorzystać karty graficzne z serii GeForce 6 i 7.
Wszystko za sprawą projektu Havok FX,który sprawi, że nową cechą wymienionych układów będzie fakt, że prócz operacji związanych stricte z generowaniem szczegółowego obrazu, będą one na bieżąco zajmować się wykonywaniem poleceń engine’u fizycznego. W ten sposób uda się odciążyć główny procesor komputera, zajęty z reguły masą innych obliczeń. Idea zapoczątkowana przez nVidię stanowi zatem alternatywę dla kosztownego pomysłu korporacji AGEIA.

Dla przeciętnego gracza o zasobnym portfelu całe przedsięwzięcie oznaczać będzie, że już za kilka miesięcy na swym monitorze zobaczy jeszcze ładniejsze animacje dymu, wody czy spadających odłamków skalnych. Jak na razie Havok FX trafił do kilku wybranych developerów, m.in. do ekipy Flagship Studios, pracującej nad strzelanką Hellgate: London. Jej pracownicy bardzo pozytywnie wypowiadają się o produkcie, twierdząc, że dzięki niemu będą w stanie stworzyć efekty wizualne, które dodadzą ich grze realizmu.
Komentarze czytelników
zanonimizowany251643 Legend
legrooch baaardzo kiepsko się orientujesz. Ze wzgledu na architekturę peceta karty graficzne mają spory zapas mocy bo i tak czekają na dane z procesora (wąska szyna itp). Pomysł nVidii jest świetny, bo GPU to są zarąbiście szybkie jednostki obliczeniowe.
Ati coś tam również przebąkiwało o tym, GPU z X360 ma jakieś funkcje które w teorii można do tego użyć. Ale wygląda na to że nVidia kombinowała wcześniej i złapała ATI w rozkroku :P
Triber Konsul

I tak jak wyjdzie DX10 to wszystko się zmieni, zreszta jest to kolejne faworyzowanie nVidii, nowe radki jeszcze latwiej jest programować pod coś innego niż grafa.
I FX jakoś kojarzy mi sie z kleska ;)
zanonimizowany251643 Legend
Triber możesz coś więcej powiedzieć o łatwiejszym programowaniu Radków pod coś innego niż grafa ?
Triber Konsul

nie pamietam juz szczegolow, ale czytalem kiedys porownanie mozliwosci zastosowan jako cpu serii 70 i 520 , z korzyscia na ten druga rodzinke, w zwiazku z inna architektura, innym podejsciem do
shader'ow,
np. "Procesory vertex Radeona X1000 zostały zaprojektowane w podobny sposób do architektury GeForce 7 nVidii. Każdy procesor składa się z dwóch układów, wektorowego i skalarnego, z taką różnicą, że procesor vertex G70 ma 32 bitowe ALU, podczas gdy w X1000 jest 128 bitowy. Cecha ta pozwala na emulowanie centralnego procesora na GPU. " (benchmark.pl)
niewiele to mowi ale nie potrafie juz tego znalezc, gdzies pewnie w newsach tweaka, badz w jakiejs zagranicznej recenzji nowych radkow.
Artukul jasno wskazywal mozliwosc zastosowania, zaprogramowania nowych radkow, a nie nvidii, jako takiej np. jednostki AGEIA'i.
zanonimizowany344293 Junior
Tyle, że zwykle nie chcesz emulować cpu na gpu. Nawet jeśli masz jakieś alternatywne zastosowania dla karty graficznej, to gpu chcesz używać do tego do czego został stworzony - jako diabelnie szybkiego koprocesora wektorowego. Faktycznie 128 bit na x1000 pozwala emulować cpu ale z bardzo niską wydajnością - to się nie opłaca, łatwiej i wydajniej dodać po prostu drugi cpu. Z drugiej strony jeśli wykorzystujesz G70 czy X1000 jako jednostkę wektorową to n-bitowość nie ma większego znaczenia. Tak czy inaczej jest to sprawa istotna dla CAD, nie dla przeciętnego gracza. A obliczanie fizyki na gpu to dobry pomysł w grach które nie obciążają mocno vertex shaderów. Przez jakiś czas będzie działać ok, potem wejdzie displacement mapping (już stosowany - patrz FEAR i wyrywanie kawałków ścian przez kule) który bardzo mocno obciąża vs i tyle z fizyki na gpu. Tak przynajmniej wróżę.