AMD rzuca wyzwanie Nvidii wraz z prezentacją nowego chipu AI przeznaczonego do zaawansowanych zadań. Model MI300X jest o 50% szybszy od konkurencji i może obsługiwać dwukrotnie więcej pamięci HBM3.
Tech
Marek Pluta
16 czerwca 2023
Czytaj Więcej
AMD rzuca wyzwanie Nvidii wraz z prezentacją nowego chipu AI przeznaczonego do zaawansowanych zadań. Model MI300X jest o 50% szybszy od konkurencji i może obsługiwać dwukrotnie więcej pamięci HBM3.
Rzetelność dziennikarska na poziomie ZERO.
W dniu 13 czerwca odbyła się prezentacja, podczas której Lisa Su, prezes AMD pokazała rywala dla układu NVIDIA H100, przeznaczonego do zadań związanych ze sztuczną inteligencją. Nowa jednostka nazywa się Instinct MI300X, bazuje na architekturze CDNA 3 i stanowi część platformy MI300A. Producent twierdzi, że jest to 50% szybszy układ od swojego największego konkurenta oferowanego przez Nvidię.
Problem w tym, że najlepszy czip tensor od Nvidii to nie H100 ale GH200. A GH200 nie jest lepszy od H100 tylko o 50%, ale o kilkaset %, czyli dystansuje układ od AMD co najmniej dwukrotnie.
Hej. Początek artykułu sugeruje, że układ od AMD jest lepszy od układów od Nvidii:
Model MI300X jest o 50% szybszy od konkurencji i może obsługiwać dwukrotnie więcej pamięci HBM3.
Ale zostawmy na tą kwestię, i zajmijmy się tym, że ten konkretny układ MI300X od AMD jest konkurencyjny w stosunku do H100 od Nvidii.
Póki co jest to tylko marketingowy bełkot.
Nie ma żadnych wyników testów porównawczych, by poprzeć twierdzenie że MI300X o 50% lepszy od H100, ani nie podali ceny układu od AMD, aby porównać konkurencyjność cenową.
Zatem na ten moment nie można mówić o konkurencyjności w sensie jakiejkolwiek przewagi układu AMD MI300X nad H100 od Nvidii. Co najwyżej o konkurencyjności w sensie, że nie tylko Nvidia będzie dostarczać układy tensor do obsługi obliczeń AI.
Dopiero czas i testy pokażą, jak MI300 wypadnie na tle H100.
Niech lepiej wydają zapowiedziane FSR 3.0 z frame gen bo są w tyle cały czas
Porównanie MI300X do H100 jest zatem w pełni zasadne, bo to jedyne porównywalne produkty, jeśli chodzi o architekturę, budowę i zastosowanie.
BTW, wkleiłeś wykres nie o GH200 tylko o maszynach DGX wyposażonych w 256 sztuk GH200, które porównano do "klastra" DHX H100 i wykres bazuje na estymacjach Nvidii. Wspominałeś coś o marketingowym bełkocie? ;)
W każdym razie w 1 się zgadzam: warto poczekać na rozwój wypadków, by stwierdzić, jak się to wszystko ułoży, bo produkty AMD i Nvidii do AI są diametralnie różne. Różnice są znacznie większe niż w przypadku Radeonów i GeForce. MI300X to superpoteżny akcelerator, jakiego Nvidia nie ma. Za to Nvidia ma superpotężny zestaw CPU+GPU GH200. Co prawda AMD zaprezentowało takie rozwiązanie już w zeszłym roku - to MI300A, ale jest to APU, więc prawdopodobnie coś względnie "tańszego" i prostszego w produkcji.
Pytanie czy znowu nie będzie tak, że ludzie kupią ten chip i będą zwracać bo sterowniki nie będą działać.