AMD zapowiada pogromcę DLSS; dużo wydajniej, także na GeForce
Świetnia wiadomość, sam mam gtx1070 i nie spodziewałem się takiego ruchu ze strony AMD. Jak widać konukrencja lepiej dba o konsumenta niż producent
wszelkie ulepszenia mile widziane, ktore wplywaja na wydajnosc z tym,ze tutaj juz nawet na screenie widac spore mydlo (kafelki na podlodze), wiec podziekuje i pozostane przy zielonych z ich dlss.
Świetnia wiadomość, sam mam gtx1070 i nie spodziewałem się takiego ruchu ze strony AMD. Jak widać konukrencja lepiej dba o konsumenta niż producent
Nie ma nic za darmo, ale dobrze jest widzieć podejście "komuś dać, i jednocześnie komuś coś dać" zamiast ostatnio popularnego jednostronnego zarabiania na kimś innym.
Tfu, skopałem wypowiedz u góry. Miało być "Zarobić i jednocześnie komuś coś dać".
wszelkie ulepszenia mile widziane, ktore wplywaja na wydajnosc z tym,ze tutaj juz nawet na screenie widac spore mydlo (kafelki na podlodze), wiec podziekuje i pozostane przy zielonych z ich dlss.
Z dlss też były takie problemy, dopiero z czasem się poprawiło, ale i tak idealnie nie jest. Zobaczymy czy amd dopracuje fsr, i ile gier będzie je wspierać.
Też racja. Najlepiej wydaje się, że jak mamy dostępne w ustawieniach gry opcję wyostrzania, wtedy można sobie to fajnie ustawić razem z dlss. Oby więcej twórców gier dodawała taką możliwość z poziomu ustawień w grze.
przy iokazji warto odwiedzic straszy artykul : https://www.gry-online.pl/S018.asp?ID=2487
No to jest ciekawe z tym wyostrzaniem, bo amd ma swoje wyostrzanie, też w ramach fidelityfx, oby to jakoś połączyli. Zobaczymy.
Może nie pogromcę DLLS tak ogólnie, wątpię że będzie to lepiej działać, lecz fakt to że FSR jest Open Source i będzie działać na GTX od Nvidii, daje pstryczka w nos, że jak się chce to się da.
Technologia technologią, tutaj bardziej chodzi o przekonanie developerów, aby implementować ją w swoich grach, jeśli Nvidia "posypie" więcej, to developerzy wybiorą DLSS.
Mój GTX 1070 czeka Bo Nvidia zawsze olewa mnie jeśli się ta technologia sprawdzi to tylko bić brawo i wielki Szacunek dla AMD.
No ciekawe jak będzie to wyglądać względem natywnej rozdzielczości. W przypadku DLSS wolę jednak natywną, bo różnica jest widoczna.
Jak nie masz ekranu 4K albo 1440P to DLSS nigdy nie będzie podobne do natywnej.
DLSS Wygląda tak samo albo lepiej (w większości przypadków) w 4K i zależnie od gry w 1440P, przeważne jak grasz z DLSS np. w 1080P to defakto grasz w 540p upscalowanym do 1080P, 540P zawiera niewystarczająco dużo danych aby AI mogło wyrenderować ostry obraz, im wyższa rozdzielczość twojego monitora tym więcej danych dla DLSS.
Monitor 1440P i DLSS to też jest pomysł durny, jak sobie teraz ustawisz 720P i porównasz z 540P to jednak widać że obraz 720P jest o wiele ostrzejszy co daje DLSS znacznie większe pole do popisu i DLSS ma nad czym pracować.
Mam monitor 4K i obraz jest lepszy bez DLSS. Żadne skalowanie nie będzie lepsze od natywnej rozdzielczości.
Jedyny wyjątek to Watch Dogs Legion w którym niezależnie od trybu jest to rozmazana papka.
540p to moze bylo przy DLSS 1.0 ale nie teraz. Nawet w 2.0 bylo 720p z tego co pamietam, pozniej dodali opcje jeszcze wyzszej jakosci i podskoczylo do 900p.
Czyli jako najlepsze rozwiązanie dostępne na rynku i w każdym następnym roku ilość nowych gier które będą adaptować to rozwiązanie będzie się zwiększać o kilkadziesiąt procent?
API Vulcan to akurat bardzo konsumenckie rozwiązanie. Tylko z jakiegoś powodu producenci gier go olewają.
Osób korzystających z tego API jest zdecydowanie mniej niestety. Ja osobiście trochę liczę, że Ubisoft w swoich nowych produkcjach będzie dawał dobry przykład w tej kwestii. R6 działa rewelacyjnie na Vulcanie.
DLSS logicznie ma sens, a z tego co pamiętam poprzednie FidelityFX to było tylko jakieś wyostrzanie obrazu :P
A ten element fidelityfx to ma być odpowiednik dlss.
Ale DLSS to jest też tylko jakieś wyostrzanie obrazu, który jest przeskalowywany do większego rozmiaru. Działa tylko w oparciu o obraz niższej rozdzielczości i próbę odgadnięcia, jaki ten pixel ma kolor w wyższej rozdzielczości, na podstawie algorytmu, który jest nauczony, jak zazwyczaj wyglądają przejścia kolorów w grze. Tutaj będzie odgadywał w każdej grze, bez uczenia się danych gier, bo grafika w grach w sumie wygląda podobnie.
pawel1812 -> Jak by to tak działało jak wyostrzanie to nie było by do tego potrzebne AI. Ja myślę że jest to coś w stylu nauki czytania u człowieka po długiej nauce algorytm nie widzi pixeli a konkretne treści i je odtwarza najlepiej jak potrafi.
Sieci neuronowe które przetwarzają obraz w zasadzie zgadują jakie mają być piksele, ale nie losowo tylko przez coś na kształt intuicji
Nie intuicji, tylko na przykładzie obrazu w 16K które mielą i analizują, przez co są sytuacje, gdzie obraz z DLSS jest lepszy niż natywny.
To co się dzieje wewnątrz sieci to trochę czarna magia bo nikt nie wie jak będzie wyglądać idealna sieć aż sama przez uczenie nie powstanie
To w takim razie na jakiej zasadzie to ma działać jak nie na AI? Jakieś specjalne skrypty skalujące, czy gry specjalnie robione pod to?
AI to dumna nazwa wszystkiego obecnie, co korzysta z chociażby jednego algorytmu samouczącego. Taki algorytm nie koniecznie wymaga AI, jak jest dobrze zrobiony. Skrypty skalujące. Im wyższy performance, tym niższej rozdzielczości obraz jest generowany.
Wszyscy obecnie możemy tylko gdybać od tego trzeba zacząć.
Może to coś podobne do kompresji w filmach będzie że co jakiś czas 1 klatka będzie w pełnej rozdzielczości a kolejne na jej podstawie generowane z niższych rozdzielczości + uzupełnione jeszcze jakimiś dodatkowymi danymi dołączonymi do danej gry.
Na tym pokazie scena była dość statyczna no to by się takie rozwiązanie mogło sprawdzić.
Ale to tylko przykład możliwości zobaczymy co AMD pokaże gdy udokumentują światu dokładniej technologię.
Zwykły object-aware upscaling. DLSS nVidia działa tak, że po zrenderowaniu obrazu AI ulepsza jego rozdzielczość. U AMD skalowanie rozdzielczości zaczyna się w jeszcze przed renderowaniem. Kiedy to Renderer oblicza geometrię obiektów, które się poruszają lub nie, aby wynik końcowy skalowania obrazu był ostry w tych miejscach. Zresztą DLSS także wymaga takich informacji, ale nie dam sobie ręki uciąć.
Patenty AMD już są od 2tyg. dostępne w necie. Niektórzy z wiedzą już je przeanalizowali i oczekują jakości pomiędzy DLSS 1.0, a 2.0, ale gorszego przyrostu klatek (wydajności). Jednak AMD wyciągnęło asa i wygląda na to, że można sobie ustawić suwak. I cyk.
Jak ma działać również na kartach NV to tylko bić brawo bo wszyscy gracze na tym skorzystają.
A zachwyty itp. dopiero jak odpalę grę i zobaczę jak to wygląda w praktyce. Filmiki skompresowane do granic nic nie pokazują a zapowiedzi no to wiemy jakie są każdy swoje chwali.
UE5 już jest po to pisany, konsole będą to wspierać, jest wstecznie kompatybilne i otwarte. Można o DLSS zapomnieć.
I to jest piękno konkurencji. AMD dostaje po tyłku w kwestii kart graficznych, więc robią swój odpowiednik najbardziej chwalonego bajeru NVIDII, ale dostępny także na kartach zielonych, i to mocno starszych! Wiadomo że muszą to dopracować, ale super że coś takiego się dzieje.
Ale żeby nie było, AMD wcale takie święte nie jest. Osiągnęli sukces z Ryzenami 5000, chcesz Smart Access Memory? Tylko te Ryzeny 5000 i koniecznie nasze karty graficzne. A tu nagle wchodzi NVIDIA i mówi: ej, wiecie co? Coś takiego jest już w Windowsie i my to udostępnimy nawet na sporo starszych prockach i naszych kartach!
AMD nie ma,swoich fabryk karty sprzedają się im jak świeżo bułeczki jedynie co mogą narzekać to że nie mogą więcej kart mieć niż TSMC im zrobi.
Smart Access Memory działa już na Ryzenach 3000 i daje zwykle wyraźnie lepsze rezultaty niż ReBAR na Nvidii, co tylko pokazuje, że to nie jest tylko zwykła funkcja w BIOSie.
czerwoni chcą zagrać na nosie zielonych czy jak haha :)
a może z czasem powstanie karta czerwono-zielona haha to by było coś mmm a ta cena :)
Oficjalnie to nie jest odpowiedź ze strony AMD na DLSS Nvidii. W swych materiałach prasowych nie pozycjonowała swojego rozwiązania w roli konkurenta bądź odpowiedzi na DLSS, a płonne – jak się okazało – oczekiwanie wynikały jedynie z reakcji graczy podsycanej przez wątpliwej jakości kanały na YT. Powód jest prosty, pod względem technologicznym i jakościowym (na zaprezentowanych materiałach) wypada ona przeciętnie, a miejscami słabo. Podobne rezultaty można osiągnąć już teraz, wystarczy jedynie obniżyć rozdzielczość... Technika ta nie jest odpowiednikiem rekonstrukcji obrazu pokroju DLSS, w istocie bliżej jej do skalera w TV, gdyż nie opiera się na informacjach z poprzednich klatek, a jedynie z obecnej. Nie jest to zaskoczeniem, wedle prezentacji AMD nie wykorzystuje wektorów ruchu, czasowej akumulacji ani uczenia maszynowego w przeciwieństwie do Nvidii bądź innych konkurencyjnych rozwiązań.
Podnoszenie argumentu o wczesnej wersji owej technologii i przyrównywanie jej do DLSS 1.0, które nie było tak efektywne w zestawieniu z wersją 2.1 nie poprawia jej wizerunku. Wystarczy obejrzeć filmy na YT, aby się przekonać, że wersja 1.0 osiągała relatywnie lepsze wyniki niż FSR.
Już TSR będące częścią UE5 uzyskuje korzystniejsze rezultaty niż FSR.
Oczywiście AMD może usprawnić swoją technologię – w podobny sposób jak jej główny konkurent – w kolejnej iteracji jeżeli w kartach opartych o RDNA3 zostanie umieszczony ekwiwalent rdzeni Tensor (Nvidia), aczkolwiek w ten sposób ograniczy jej zastosowanie wyłącznie do nowych kart czym de facto unieważni główną przesłankę FSR.
Dołączony obrazek przedstawia zbliżenia z porównanie natywnej rozdzielczości (1440p) i FSR (wersja Quality).
Na screenshotach braku jakiś oddalonych i ostrych detali, w powiększeniu.
Tak samo jak Nvidia reklamowała DLSS 1.0 - która to technologia okazała się niewystarczająca, jeśli chodzi o jakość obrazu.
Dopiero DLSS 2.0 dawał wystarczająca jakość, i tutaj Nvidia chwaliła się takimi zbliżeniami ostrych detali, bo miała czym.
Dlatego dość sceptycznie podchodzę do technologii od AMD, czy dadzą radę - jeśli chodzi o jakość.
No niestety cudow nie ma. DLSS od Nvidia potrzebuje dedykowanych rdzeni Tensor i do tego obrabia to wczesniej AI.
https://www.youtube.com/watch?v=eHPmkJzwOFc
Poziom tego od AMD ponizej DLSS 1.0 . Straszne mydlo wychodzi. Fajnie, ze cos robia. No, ale DLSS 2.0 to jest duzo doskonalsza technika.
Z takim mydłem jak pokazano wyżej, to ja mogę grać i teraz, zjadę na 720p, no może 900p i mam...
Nie jestem maniakiem ostrości, tekstur po 200GB i 4K, no ale jak ma być wydajnie i lepiej, to niech będzie lepiej...
Liczę na połączenie technologii dynamicznego skalowania rozdzielczości i FSR. Czyli żeby w przypadku spadku wydajności uruchamiał się bardziej agresywny FSR zamiast obniżać rozdzielczość. Brzmi jak fajne rozwiązanie dla konsol.
Jestem ciekaw jako to będzie działać na starszych GPU. Bo Vega, RDNA i RDNA 2 obsługują instrukcję INT4 i INT8 wykorzystywane w "AI". Ale starsze układy z rodziny Polarisa i Pascala Nvidi?