AI local Diffusion wolno dziala przy 8GB VRAMu, zeby generowanie AI mialo sens potrzeba co najmniej 12 do 16 GB VRAM na RTX'e. A na RX od AMD uzywajac DirectML sluzy raczej do zabawy bo generowanie kontentu moze trwac do 5 min (w przypadku obrazow, gdyz WAN dziala tylko na Nvidi). Takze nie ma co sie dziwic ze karty z wiekszym VRAMem sa popularniejsze.
I tak, na kartach nVidii działają generalnie AI lepiej (przy podobnym poziomie, generacji i ilości pamięci), ale na AMD też spokojnie można działać.
No i przede wszystkim, jak by nie patrzeć, Statystyki ze Steam mówią głównie o graczach, nie o ludziach, którzy stawiają offline'owe AI, a ci nadal są jednak w znacznej mniejszości i to nie jest aspekt, który w znacznym stopniu decyduje o tym, co ludzie kupią.
Jak sprawdzalem Githuba to byl problem z kartami od AMD, widocznie musieli cos zmienic.
Sugerowalem sie tym
https://www.reddit.com/r/comfyui/comments/1j28qkt/wan_21_performance_on_amd
Statystyki ze Steam mówią głównie o graczach, nie o ludziach, którzy stawiają offline'owe AI
Wlasnie ci gracze uzywaja AI, ComfyUI mozna postawic bez zadnych problemow, malo kto kupuje karte graficzna do grania zwlaszcza ze sa tytuly ktore maja problemy na RTX 5090...
Zawsze zastanawia mnie, na jakiej podstawie Steam decyduje, kogo wziąć pod uwagę w statystykach. Na laptopie w pracy Steama odpalam może 3 razy w roku i przynajmniej raz pytają, czy chcę wziąć udział. W domu siedzę 99% czasu na Linuxie, ale jeśli pytają, to tylko, jak przełączę się ten 1 raz w miesiącu na Windowsa. Na Linuxie pytali mnie może raz w ciągu 2 lat, na Windowsie przynajmniej kilka, choć tam wchodzę tylko, jak nie mam innego wyboru.