GPU Intel Xe DG1 może być szybsze o 40% od mobilnych układów AMD Vega
W sieci pojawiły się pierwsze benchmarki układów graficznych z linii Intel Xe. Wyniki niektórych testów sugerują, że dedykowane GPU „niebieskich” - DG1 - może być nawet do 40% szybsze od mobilnych rozwiązań AMD. W innych sprawdzianach karta graficzna Intela radzi sobie zauważalnie gorzej od konkurencyjnych rozwiązań.

W SKRÓCIE:
- w niektórych benchmarkach Intel Xe DG1 wypada o 40% lepiej od układu AMD Vega, w który wyposażony będzie procesor Ryzen 4800U;
- inne testy wskazują na przewagę rozwiązania „czerwonych”;
- prace nad Intel Xe ciągle trwają i prezentowane osiągi mogą odbiegać od ostatecznych;
- przeciek sugeruje, że Xe może posiadać sprzętową obsługę ray tracingu.
Jak donosi portal Wccftech, w sieci pojawiły się pierwsze benchmarki układów graficznych Intel Xe, pochodzące z testów jednostek SDV (Software Development Vehicle - próbne egzemplarze wysyłane firmom w celu umożliwienia im zoptymalizowania programów). Mowa tu zarówno o dedykowanej karcie znanej na razie jako DG1, jak i jednostkach zintegrowanych, które znajdziemy w procesorach z linii Tiger Lake-U. W niektórych testach w benchmarku 3DMark dedykowane GPU Intela może się pochwalić osiągami nawet o 40% lepszymi od najnowszego układu AMD Vega (7 nm), który ma towarzyszyć CPU Ryzen 4800U.
Intel Xe DG1 - świetny w niektórych testach
Przewaga GPU Intela jest widoczna w trzech z czterech testów graficznych. Produkt AMD osiągnął lepszy wynik tylko w jednym - tym, który skupia się na wolumetrycznym oświetleniu i cieniach (pozostałe sprawdzają głównie sprawność w generowaniu geometrii i tekstur, w tym tzw. tesselacji). W przypadku Ryzena 4800U lepiej wypadły też obliczenia związane z fizyką. W efekcie to jednostka „czerwonych” może się pochwalić lepszym rezultatem w połączonym teście i wyższym wynikiem końcowym. Xe to jednak zupełnie nowa linia produktów i nie da się wykluczyć, że pracujący nad nią inżynierowie i programiści nie dokonali jeszcze optymalizacji we wszystkich obszarach. Tłumaczyłoby to słabe wyniki w niektórych testach i świetne w innych.
Wydajność zintegrowanych układów Xe
Warto przy tym odnotować, że omawiana powyżej przewaga Intela dotyczy porównania karty dedykowanej ze zintegrowaną, które nie jest całkiem uczciwe (inna sprawa, że DG1 nie będzie GPU dla entuzjastów, a produktem raczej niższego kalibru). Wariant GPU Xe towarzyszący procesorom Tiger Lake-U (ostatni w powyższej tabeli) poradził sobie znacznie gorzej, zapewne przez bardzo niskie taktowanie na poziomie zaledwie 1,0 GHz. Produkt ten jest jednak rozwijany przez inny zespół niż DG1 i także w jego wypadku trudno powiedzieć, na jakim etapie są prace optymalizacyjne (taktowanie sugeruje, że wiele może się jeszcze zmienić). O jego potencjalnych możliwościach świadczą rezultaty innego testu, który porównuje go z dedykowanym modelem Intel Xe. Zintegrowane GPU wypada w nim o około 9% słabiej.
Trudno wyciągnąć z tego wszystkiego jakieś spójne wnioski - widać, że prace nad GPU z linii Intel Xe wciąż trwają i rezultaty poszczególnych testów mocno od siebie odbiegają. Mimo wszystko w niektórych benchmarkach propozycje „niebieskich” wypadają całkiem obiecująco, co stanowi dobry prognostyk dla ich potencjalnych możliwości. Oczywiście ostatecznym sprawdzianem będą dopiero testy w grach, na które zapewne przyjdzie nam jeszcze poczekać.
Intel Xe z obsługą ray tracingu?
Na koniec jeszcze jedna ciekawostka - w kodzie sterowników kart graficznych Intela znaleziono odwołanie do sprzętowej akceleracji ray tracingu. Sugeruje to, że układy Xe mogą wspierać śledzenie promieni podobnie, jak dostępne obecnie GeForce’y RTX od Nvidii, a także przyszłe produkty z linii AMD Navi. Nie ma pewności, czy dotyczy to modeli, nad którymi „niebiescy” obecnie pracują, czy też może kolejnych kart Xe, ale ray tracing jest obecnie głośnym tematem (z uwagi m.in. na konsole nowej generacji), więc Intel może chcieć upewnić się, że jego układy graficzne będą w tym względzie konkurencyjne od samego początku.
Więcej na temat możliwości i funkcji kart graficznych Xe dowiemy się w przyszłym miesiącu, w czasie konferencji GDC 2020 (Game Developers Conference 2020 - odbędzie się w San Francisco w dniach 16-20 marca). Koncern Intel potwierdził, że w czasie imprezy przeprowadzi panel poświęcony omawianej architekturze.
Komentarze czytelników
Yosar Pretorianin
Bez jaj, proszę. Porównywanie dyskretnego układu graficznego z wbudowanym i to jeszcze w układ mobilny, czyli na ostrym reżimie 15W budżetu energetycznego to jakieś kosmiczne nieporozumienie. A na dodatek nie wiadomo nawet na jakim budżecie energetycznym jest ten dyskretny układ.
Przecież układy mobilne mają grafikę co najwyżej wystarczająca.
Żeby to było chociaż porównanie z desktopowym APU z poprzedniej generacji, ale to nawet nie to.
To jakby pięściarz wagi super cięzkiej, czy ciężkiej wybrał sobie do pojedynku kolegę po fachu z wagi piórkowej, któremu związano ręce, i ledwo ledwo go pokonał, w niektórych rundach dostając koszmarny łomot.
NightBosman Konsul

Nie wierzę co ja czytam.. Integra nieznacznie pokonana przez dedyka OMEGALUL
BartekTenMagik Senator

Dam sobie rękę uciąć że będzie miało coś w zanadrzu. Nie mogło by tak być że to będzie kosztowało więcej niż 200zł a skoro moze będzie wspierać ray tracing to chyba do gier jest? A może właśnie o to chodzi. Może to ma być najtańsza karta z obsługa ray tracingu? Na bank gdzies jest haczyk. Nie ma bata żeby nie było czegoś co zachęci do kupna tego. A może będzie można dokładać pamięci czy zmieniać rdzeń jak cpu czy coś. Hmm trzeba poczekać bo Intel nie mógł by sobie pozwolić na porażkę. Coś klienta musi zachęcić i napewno same ledy tego nie zrobią ;)
W jakimś stopniu rewolucja musi być, ale to pierwsze koty za płoty bo Intel i karty graficzne :) czekam i mam nadzieję że ceny nie będą wysokie (bo w końcu na czymś trzeba się wybić)
kiera2003 Senator

Przewaga wynosi do 40%, ale w bardzo specyficznych obliczeniach.
W codziennym użytkowaniu nie ma mowy o jakiejkolwiek przewadze. A sama karta to jakieś nieporozumienie.Pobór 75W, a dostaje bęcki od zintegrowanej Vegi, której budżet energetyczny w teorii nie przekracza 15W. Realnie jeszcze mniej, bo połowę tej wartości pobiera 8 rdzeniowy procesor.
Intel sam jest sobie winien, bo zatrudnił inżyniera który został z AMD wyrzucony na zbity pysk.
paul oren's Generał
Oj żeby tak intel wprowadził GPU z prawdziwego zdarzenia to bym kupił od nich kartę kupił w dalszej przyszłośći,oczywiście jako leżak magazynowy na allegro w niższej cenie.Im większa konkurencja tym lepiej.