A to nie jest tak ze DLSS 4.5 jest głównie dla trybów performance (preset M) i ultra performance (preset L)? Ten pierwszy w porównaniach wypada praktycznie jak quality na DLSS 4.0 a zyskujemy tylko dodatkowe klatki, sam przetestowałem na CP2077. Wyższe tryby to juz strata klatek która mija sie z celem, ale koniec końców i tak wszystko zalezy od gry. Starsze karty w trybie ultra performance moga zyskać drugie życie, choć zgodzę się że tu juz jakość obrazu troche spada, natomiast wzrost klatek jest spory.
W praktyce wygląda to właśnie tak, jak opisujesz, i potwierdzają to ostatnie testy z początku 2026 roku. DLSS 4.5 faktycznie pokazuje największy sens na presetach Performance i Ultra Performance, szczególnie na starszych kartach RTX. Preset Performance w wielu tytułach daje obraz bardzo zbliżony do Quality z DLSS 4.0, a jednocześnie wyraźnie podnosi liczbę klatek, co w grach typu Cyberpunk 2077 ma realne znaczenie. Ultra Performance to już wyraźny kompromis jakościowy, ale dla kart z niższej półki bywa jedynym sposobem na płynną rozgrywkę w wyższych rozdzielczościach. Kluczowe pozostaje indywidualne dostosowanie ustawień do konkretnej gry i GPU.
Na moim 4060 preset K bardzo ładnie podniósł jakość resamplowanych tekstur + zlikwidował ghosting przy minimalnym spadku klatek. Ja tam jestem zadowolony :)
Ja się doczytałem czegoś takiego:
Preset K in DLSS is the default, high-quality Transformer model for Quality/Balanced modes in DLSS 4.5, offering better image stability and detail than older CNN models, but Preset M (for Performance) and Preset L (for Ultra Performance) are newer/different Transformer models in the latest updates. You enable it via the NVIDIA App, setting the "DLSS Override - Model Preset" to "Recommended", which automatically uses K, L, and M as needed, or by forcing it with NVIDIA Profile Inspector for older/unsupported games.
Update: Jeszcze ciekawiej - grzebiąc po necie wyglada na to, że "preset K" to wprowadzone wraz z DLSS 4.5 jakieś nowsze ustawienie DLSS 4.0 które jest bardziej "podkręcone" na jakość niż zwykłe ustawienia DLSS 4.0,, natomiast faktycznie tylko ustawienia L i M są sticte ustawieniami DLSS 4.5, większość testerów dla kart z serii 40 poleca co ciekawe ustawienie M, które bardzo łasnie na nich chodzi.
Sciągnołem 5stycznia w dzień pojawienia sie na aplikacji na swojego rtx5070ti lap i starszego rtx3070lap ale na starszym nie sprawdzałem za to na nowszym po ustawieniu manualnym (you tube) wygląda dobrze a dying light the beast dostał bardziej wyrazistych kolorów, ultra quality fps140-160 przy rozdzielczości 2650:1600.
Mam kartę GTX i korzystam z jej mocy, a nie jakiegoś śmiesznego zwiększania rozdzielczości przez algorytmy
Jakość DLSS w tej chwili jest już tak dobra, że używanie natywnej rozdzielczości, a już szczególnie jeśli jest to 4K to głupota i marnowanie mocy obliczeniowej, ja DLSS Quality włączam zawsze, nawet jeśli nie potrzebuję bo przynajmniej temperatury i pobór prądu na GPU jest dużo niższy.
Ja mam ryzena 5600 i rtx 4060 np. Cronos new dawn. Śmiesznie nie obciąża mojego procesora , kompilacja shaderów dla CPU czasem na 100 % to tak a potem jak gram to procek 30 może czasem 50% , oczywiście że GPU zapinkala na 90 % ,8 GB WideoRam to niby średnio ale i tak uważam i zgadzam się, programiści gier mają w dup.... Optymalizację są leniami albo nakrecają rynek , kupuj płać i płacz , nie kupię nowego kompa , szkoda czasu i życia dla gier, już tutaj wszystko wymyślono