Jaja sobie robi autor?????? PAMIĘĆ VRAM SIĘ NIE SUMUJE W GRACH MÓZGU!!!!!!!
Czy ty na poważnie? Takiego sprzętu nie buduje się do grania a raczej obróbka wideo, renderingu czy choćby odpalenie lepszych modeli LLM
Autor artykułu w tytule wręcz krzyczy, że komputer według niego ma mniej niż 96 GB RAM. Tymczasem na zdjęciu widać płytę główną Gigabyte z zainstalowanymi 8 kośćmi RAM. Nawet zakładając oszczędnie, że są to zaledwie 16 GB moduły, komputer miałby 128 GB pamięci RAM. Budując stację roboczą pod AI daje się najczęściej 1.5 - 2.0 razy tyle pamięci co VRAM (w AI VRAM z kilku kart może się sumować). Proszę o poprawkę, gdyż to dość duży błąd merytoryczny.
Sam czytaj ze zrozumieniem xD artykuł błędnie sugeruje, że taka maszyna będzie posiadać więcej ram.
Ilość kart graficznych nie wpływa na większą wydajność, wręcz przeciwnie. Nawet jeśli kilka wydajnych kart na więcej VRAMu niż jedną kartą, to nadal wydajność będzie się ograniczać do tej pojedynczej karty, modele LLM nie lubią podziału pamięci, nawet na szybkich szynach PCIe. Gry: https://youtu.be/-zlAMzolwDA
AI: https://youtu.be/KWPdY-AMpL4
To zależy od konfiguracji. Więcej zabawy, bo trzeba LLM dzielić, ale jak kto woli. Tu ma gwarancje, a w tej cenie to tylko A100 80GB...z Chin. Chyba, że używana, to za 4k$ by coś kupił
W sumie to myślę, że jeśli model byłby fest szeroki, to by może byłby problem? Ale raczej modele są bardziej wąskie i głębokie (heh).
Jeśli na każdej karcie graficznej jest po kilka warstw, to jedyne opóźnienia byłyby w dostarczeniu wyniku z poprzedniej do następnej, jeśli dobrze rozumiem. Tylko zdaje mi się, że to jest stosunkowo mały problem, bo nie przenosimy całego modelu.
Jak dla mnie może mieć i z 20 kart graficznych. Mocy w grach mu to nie poprawi gdyż gra wybiera przed startem czy chce się odpalić np. na z integrowanej czy zwykłej np rtx 4090 a nie że gra odpali mu wszystkie. Gość zrobił sobie tylko drogi piecyk nic więcej no chyba że chodzi o walenie na grafikach koparki krypto to co innego
Przecież jest napisane w artykule że ten komputer będzie do wykorzystywany do trenowania modeli generowania itp
Dziwna sprawa artykuł sugeruje do czego będzie wykorzystywany ten piecyk, a większość gada bzdury o grach, ehh czytanie ze zrozumieniem to chyba duży problem w dzisiejszych czasach.
Modele llm na 4 kartach? Slaby pomysl to sie nie sumuje dobrze. Poza tym te karty to amatorskie rozwiazanie w tej cenie mozna kompa zbudowac z rtx 6000 ada a nawet z nowym rtx 6000 black z 96 GPU. Ktoś zrobił słaby zakup. Ja za swój zapłaciłem trochę ponad to ale wszystko mam na jednej karcie rtx 6000 i mogę dołożyć druga. Posiadanie 4 kart gdzie GPU 24 to problem z dużymi modelami.