Forum Gry Hobby Sprzęt Rozmawiamy Archiwum Regulamin

Technologie PeCetowcy dostaną kartę wspomagającą sztuczną inteligencję w grach

07.09.2006 10:07
Cainoor
😉
1
Cainoor
264
Mów mi wuju

Już kupuję! ;)

07.09.2006 10:14
pecet007
2
odpowiedz
pecet007
178
~

LOL, pewnie ta karta okaże się takim samym niewypałem jak akcelerator fizyczny :]

07.09.2006 10:14
3
odpowiedz
Maevius
5
Senator

News bardzo rzetelny, ale ta karta to pachnie rewolucja na miare konsoli phantom. Co jak co, ale AI jest naprawde w powijakach i zadna karta rozszerzen tego nie zmieni.

07.09.2006 10:18
😜
4
odpowiedz
Adamilithar
25
Pretorianin

Szkoda, że taka karta nie wspomaga inteligencji niektórych graczy. Ale cóż, wszystkiego mieć nie można ;p

07.09.2006 10:21
5
odpowiedz
MrXX
90
Generał

Głupota. Niedługo niestarczy slotów PCI. A to karta dzwiękowa, od fizyki, od AI. Co jeszcze wymyślą?
To ma sens ale pod warunkiem (i myślę że tak się niedługo stanie) że w/w bajery zaczną pakować w karty graficzne.

07.09.2006 10:23
matchaus
6
odpowiedz
matchaus
172
sturmer

Nie dość na tym - żeby to ustrojstwo chciało działać, to przecież gra musi byc specjalnie pod to napisana...

Bomba! :D

P.S. Niemniej - taki news pokazuje ile zintegrowanych procesorów (i innych dupereli) będziemy mieli niebawem zaszytych w kartach graficznych...

07.09.2006 10:28
7
odpowiedz
Ijon
0
Pretorianin

Słyszałem że za jakis czas ma wyjść też 'Kupia' będzie wspomagała załatawianie czynności fizjologicznych przez NPC

są frajerzy nabierający się na PhysX to i to kupią...

07.09.2006 10:35
8
odpowiedz
Maevius
5
Senator

Nie wyobrazam sobie implementacji skryptow AI pod karte rozszerzen, to jakis idiotyzm ;)

07.09.2006 10:41
9
odpowiedz
zanonimizowany268001
21
Generał

Kolejna głupota, by wyłudzić kasę od klientów.
Co następne?! Karta video do odtwarzania filmików? Karta Wiśta Vista wspomagająca pracę windowsa?! Karta menu do ultrarealistycznych menusów w grach?! To jest chore...

07.09.2006 10:41
😍
10
odpowiedz
zanonimizowany2716
60
Generał

trzeba zaczac kupywac big towery i rozgladac sie za plytami z 20 gniazdami pci/pci-x

nastepne beda karty wspomagajace generowanie szumu wody lesnych strumykow w symulatorach grzybobrania

07.09.2006 10:58
11
odpowiedz
zanonimizowany3559
58
Generał

Intia będzie miała spore problemy z przebiciem się na rynku, szczególnie kiedy Ageia nie zdążyła jeszcze na dobre się zadomowić.

Ciekawe jak w praktyce wygląda przewaga tego chipu, nad szybkim dwurdzeniowym procesorem, jeśli jednak jest w stanie obsłużyć takie ilości low-level AI jak twórcy zakładają, to wykorzystanie takiego chipa może umożliwić niesamowicie duży krok w rozwoju AI w grach.

Bardzo ciekawa sprawa, ale trzeba poczekać na jakieś konkretne testy, które potwierdzą zakładaną wydajność akceleratora.

07.09.2006 10:58
😁
12
odpowiedz
ribik
180
Generał

Pewnie wsadzą przefarbowaną barbie

07.09.2006 11:43
Ares
👎
13
odpowiedz
Ares
76
Konsul

Tak samo zbedne badziewie jak ta karta do fizyki w dobie procesorow wielordzeniowych to poroniony i smieszny pomysl majacy na celu jedynie wyciagniecie kasy od frajerow.

07.09.2006 11:51
14
odpowiedz
zanonimizowany388188
1
Junior

hmm.. w sumie to jezeli pomyslec o mozliwosciach, to fachowcom od obliviona zaswiecilyby sie oczka i stworzyliby swiat ktory tryskalby wlasnym zyciem... ale to wszystko "by"... moze byc ciekawe..

07.09.2006 11:52
15
odpowiedz
Thomolus
73
Generał

Dokładnie. Po co komu taka karta, skoro można zagospodarować do tego drugi rdzeń w procesorze, który w grach przeważnie się nudzi. Imho jak zwykle lipa (by Piotrasq).

07.09.2006 12:02
16
odpowiedz
Tweety32
121
Konsul

1000 jednostek bez problemu obsluzy procesor, a dwurdzeniowy to z jedenym rdzeniem w ... :)
A jaka karta graficzna pociagnie 1000 jednostek?
Bzdura, totalna bzdura ta karta do AI.

07.09.2006 12:07
Indoctrine
17
odpowiedz
Indoctrine
90
Her Miserable Servant

Ok, a więc:

Karta fizyki od liczenia fizyki, graficzna od samej grafy, inteligencji od AI.
To po kiego mi wogle procesor? Tylko jako administrator przesyłania danych pomiędzy tymi podzespołami?

07.09.2006 12:13
18
odpowiedz
zanonimizowany3559
58
Generał

Ten chip niekoniecznie musi być bzdurą, faktem jest, że obecne CPU nie radzą sobie z obliczaniem większej ilości AI i przydałoby się im jakieś wspacie.

Warto poczekać na testy tego chipa, poźniej oceniać.

07.09.2006 12:18
19
odpowiedz
zanonimizowany251643
134
Legend

Ares -
Do pewnych rodzajów obliczeń nawet najmocarniejsze procesory ogólnego przeznaczenia się nie nadają. Do takich należą z pewnością fizyka, czy AI - nie wiem, chyba zależy od konkretnych rozwiązań. Ale na pewno warto eksperymentować , inaczej postępu w tej dziedzinie nie będzie.

07.09.2006 12:24
20
odpowiedz
zanonimizowany45782
0
Legend

Jaka tam sztuczna inteligencja - mniej lub bardziej skompilowane algorytmy i tyle. Żadna gra nie ma sztucznej inteligencji, bo coś takiego jeszcze (?) nie istnieje. Żaden komputerowy przeciwnik nie uczy się, nie umie podejmować decyzji i nie jest zdolny do kreatywnego reagowania na zachowania gracza. Co prawda czasy podjeżdżania wyrzutnią rakiet pod bazę przeciwnika i rozwalanie jej bezkarnie (bo algorytm nie przewidywał atakowania jednostki o jeden hex poza zasięgiem działek) a' la Dune 2 odchodzą powoli do lamusa, ale o AI nie może być mowy. Coś, co wydaje się dobrą sztuczną inteligencją jest zwykłym algorytmem, a czasem bezczelnym skryptem.

07.09.2006 12:29
21
odpowiedz
zanonimizowany3559
58
Generał

gladius --> Jednak lepiej brzmi nazwa "AI" a nie skrypty, albo algorytmy postaci NPC.

07.09.2006 12:30
22
odpowiedz
zanonimizowany188954
3
Chorąży

Owszem nie istnieje sztuczna inteligencja, ale można ją symulować na niskim poziomie realizując skomplikowane skrypty. Karta może wspomóc tą realizację nie tyle przez podniesienie inteligencji przeciwników, ale rozszerzenie pewnych zachowań przeciwników, które wyglądają na inteligentne, a przede wszystkim możliwość zwiększenia ich ilości (większa moc obliczeniowa) i to jest opisane w tym artykule, nie doczytaliście do końca. :)

07.09.2006 12:32
23
odpowiedz
zanonimizowany45782
0
Legend

pan_filip - owszem, ale czy koniecznie do realizacji takich skryptów konieczna jest dodatkowa karta?

07.09.2006 12:40
24
odpowiedz
zanonimizowany3559
58
Generał

gladius --> W teorii, wyspecjalizowany chip (w tym przyzpadku dzięki czemuś co nazywa się Graph Processing Core), powinien być znacznie szybszy od CPU przeznaczonych do obliczania wszystkiego. Jednak póki nie pojawi się jakaś dokładna specyfikacja i testy, można tylko zgadywać na ile ten chip się do czegoś nadaje.

07.09.2006 12:51
👎
25
odpowiedz
zanonimizowany383067
51
Generał

Naciągania graczy ciąg dalszy.
tak swoją drogą to ciekawe czy byli jacyś frajerzy, którzy kupili ten procesor od fizyki.Z tego co wiem to tylko spowalniał kompa.

07.09.2006 12:51
👍
26
odpowiedz
zanonimizowany175529
75
Konsul

Juz niedlugo bez kompa za kilka tysiecy i bez tych wszystkich kart bedziemy miec beznadziejna grafike, glupich przeciwnikow, skopana fizyke i gigantyczne pingi... no nic tylko grac. Albo kupic konsole:)

07.09.2006 12:55
slowik
27
odpowiedz
slowik
124
NightInGale

gladius===>zawsze wyspecjalizowana jednostka lepiej sobie radzi z obliczeniami pod jakie zostala skonstruowana
obecnie najlepsze cpu sa b dobre ale jednak ich ogolne zastosowanie sprawia ze beda sobie znacznie gorzej radzily w porownaniu z wyspecjalizowanym i stad pomysly na karty fizyki czy tez ai

(ai mi sie podoba tylko czy komos bedzie sie chcialo programowac tak zlorozne algorytmy ?)

07.09.2006 13:07
28
odpowiedz
zanonimizowany52907
182
Senator

ale tak w sumie to nikt nas do kupna tej karty nie zmusza nie? a niech sie bawie w wymyslanie takich rzeczy, moze sie to przyda kiedys na cos:)

07.09.2006 13:07
TeadyBeeR
29
odpowiedz
TeadyBeeR
117
Legend

Jakos nie widze szerszego zastosowania takiej karty w obecnych czasach.
Po pierwsze coraz wiecej gier to gry MMO, wiec z czasem AI zostanie w wiekszosci przypadkow zastapione prawdziwa (nie)inteligencja.

Po drugie mam dziwne wrazenie, ze jak na razie ilosc NPC reagujacych na siebie w grach jest raczej ograniczana faktem, ze to karta graficzna nie wyrobilaby z rysowaniem ogromnej ilosci modeli na ekranie, a nie tym, ze procek nie wyrabia na zakretach z liczeniem AI.

07.09.2006 13:09
Ezrael
30
odpowiedz
Ezrael
197
Very Impotent Person

A ja dla odmiany uważam, że takie eksperymenty to fajna sprawa. Być może ten konkretny model pojawił się za wcześnie, ale dzięki temu otwiera się szersze pole działania dla programistów, którzy dotychczas rezygnowali z powszechnej implementacji zaawansowanych algorytmów symulujących AI w grze m. in. w tym celu, żeby nie przeciążyć komputera. Wszyscy dobrze wiedzą, że w każdej grze, mimo zapewnień twórców, poza obszarem gdzie aktualnie znajduje się postać gracza, świat jest właściwie zupełnie martwy, rządzą nim co najwyżej bardzo proste skrypty i prawdopodobnie różnego rodzaju elementy statystyczno-losowe.

Już w stareńkim Wizardry 7 (a być może wcześniej) pojawił się ciekawy element - opozycyjne drużyny kierowane przez "AI" i łażące teoretycznie po całym świecie, wykonujące zadania itd. Tylko, że to wszystko było niesamowicie uproszczone. Wyobraźmy sobie natomiast ciekawego, nowoczesnego RPGa, gdzie idziemy sobie wykończyć jakiegoś questa, a tu nagle okazuje się, że wykonała go wcześniej np. drużyna Umparich, zdobyła jakiś ciekawy/arcyważny przedmiot i w zwiazku z tym rozgrywka nagle zmienia się w pościg za nimi (znowu kłaniają się zaawansowane procedury - w postaci "pamięci" NPC, od których można uzyskać np. dynamiczne, wciąż aktualizujące się odpowiedzi dt. ostatniej wizyty Umparich w mieście ułatwiające ich znalezienie itd.).

Ktoś mógłby powiedzieć, że w takim razie powinienem sobie pograć w MMORPG, ale to inny rodzaj gry. Graczy jest tutaj wiele i każdy ma możliwość wykonania dowolnego questa, są one zazwyczaj mocno schematyczne i powtarzalne. Natomiast w singlach lubię to, że są nastawione na jednego gracza, mnie konkretnie i siłą rzeczy cały czas znajduję się w centrum wydarzeń i większość zadań ma przynajmniej lekkie znamię unikalności.

Podsumowując - zarówno akcelerator fizyczny, jak i "AI" są na razie zbędnymi ciekawostkami, ale dobrze, że powstały, bo generują potencjalny zapas mocy, który być może jakiś ambitny zespół kiedyś zechce wykorzystać.

Tak właśnie dodatkowo naszła mnie myśl, a propos wspomnianych 20 szyn PCI itd., że być może w dość niedalekiej przyszłości tego rodzaju karty rozszerzeń będa dążyć do integracji i zamiast kupować oddzielnie pięć różnych pojawią się zunifikowane karty po prostu "dla gracza".

07.09.2006 13:10
31
odpowiedz
zanonimizowany3559
58
Generał

TeadyBeeR --> Większe ograniczenie leży po stronie CPU, z tego powodu kuleje choćby wyszukiwanie ścieżek, o wykrywaniu dynamicznych zmian ukształtowania lokacji nawet nie wspominając.

07.09.2006 13:16
32
odpowiedz
LFB
48
Generał

W dobie procesorów dwurdzeniowych i nadchodzacych czterech rdzeni myśle ze taka karta nie ma szans. Do obliczeń AI lepiej wykożystać jeden (a w przyszłości) kilka rdzeni CPU które i tak są lub będą w większości komputerów.
Druga sprawa jest jeszcze ważniejsza. Dobre AI do dobrze napisany kod. Jeśli programiści nie mają dobrych pomysłów na działanie AI żadna karta w cudowny sposób tego nie zmieni.

07.09.2006 13:17
😊
33
odpowiedz
Raz3r
8
Generał

Najlepiej by było jakby ktoś się postarał stworzyć jedną ( nie kilka oddzielnych) kartę ktora wspomaga zarówno procesor jak i grafikę w takich czynnościach jak właśnie liczenie fizyki, AI, ilość jednostek, pogoda, roślinność, woda etc. zaprojektowane specjalnie dla graczy ( nie tak jak np procesor ktory owszem słuzy do grania, ale tez do pracy). Taka karta pod warunkiem ze byłaby tania na 100% zyskałaby popularność, a myślę że wiele nie różniłaby się w budowie od takiego PhysX, czy karty graficznej.

07.09.2006 13:19
34
odpowiedz
zanonimizowany114527
10
Chorąży

A ja się obśmieję jak wynikiem działania takiej karty będzie tak inteligentne działanie przeciwników (chociażby przewidywanie naszych ruchów na bazie podejmowanych przez gracza decyzji i zachowania) w takich np RTS-ach, że żeby sobie pograć i dojść gdzies dalej to trzeba będzie tą "dopalaną"AI wyłączać..;-) Oczywiscie pół biedy jeśli poziom AI bedzie skalowalny..bo jeśli nie... :-D

07.09.2006 13:28
35
odpowiedz
zanonimizowany3559
58
Generał

LFB --> Niestety żadne, nawet najlepsze skrypty nie spowodują, że NPC będzie w stanie na bieżąco skanować np. walące się pomieszczenie i uskakiwać przed spadającymi obiektami.
Ewentualnie sprawić, że grupa NPC będzie tańczyła do rytmu dowolnej muzyki, bez większej mocy nie ma takich możliwości, bo tego typu obliczenia zarżną nawet najszybszy procesor.

07.09.2006 13:53
36
odpowiedz
Tweety32
121
Konsul

To glupota bo AI sie przestanie rozwijac z taka karta.
Tak jak teraz fizyka w grach: gry wykorzystujace AGEIA korzystaja z tych samych algorytmow fizyki, i zadna sie nie rozni - programisci moga tylko uzyc tego co jest i nawet jakby chcieli zrobic lepsze algorytmy, ktore uwzgledniaja wiecej zmiennych (np. jakies nowe tarcie, mikro-nierownosci) to nie moga, bo karta jest wyspecjalizowana pod jeden algorytm.
To jak bedzie karta do AI to algorytmy beda te same i w kazdej grze jednostki beda tak samo glupie, a programisci w ogole przestana sie na AI zastanawiac i wymyslac nowe algorytmy.
Niedlugo w ogole gier sie nie bedzie pisac, tylko bedzie sie skladac z gotowych funkcji:
RenderujPostacISwiat_NVidia();
ObliczAI_odAGEIA();
ObliczFizyke_odKogostam();
Grajmuzyke_Creative();

i oto caly kod gry!

07.09.2006 13:59
slowik
37
odpowiedz
slowik
124
NightInGale

Tweety===>to nie sa procesory logiczne ale zooptymalizowane pod katem roznych obliczen zazwyczaj do jednego problemu uzywa sie jednego typu obliczen chociaby ze wzgledu ze taki model latwiej opanowac

07.09.2006 14:15
38
odpowiedz
zanonimizowany3559
58
Generał

Tweety32 --> Głupoty pleciesz, to jest akcelerator obliczeń AI. Dzięki niemu NPC będą w stanie np. na bierząco analizować otoczenie, odpalać więcej skryptow i do tego częściej.

Poza tym programiści nie wymyślają cały czas nowych algorytmów, tylko wciąż odkrywają koło na nowo, dla każdej gry pisząc podobne skrypty.

Technologie PeCetowcy dostaną kartę wspomagającą sztuczną inteligencję w grach