Tak, tak. Skoro nawet na starannie przygotowanych materiałach wyglądało to jak najgorszy slop, to jak będzie się prezentować w grach robionych pod presją czasu i przy minimalizacji kosztów? Na pewno nie lepiej.

„Całkowicie się mylą” - pójście w zaparte, to IMO, nienajlepsza metoda na "damage control" ;).
Co do samej technologii, to sukcesów nie wróżę. Dawno nie widziałem takiego wkurzenia i rozczarowania ludzi, także branży (może za wyjątkiem Digital Foundry, gdzie ceniona przeze mnie ekipa, nagle oślepła ;)), włączając deweloperów*. Ray Tracing, który był rewolucją, przyjął się tak sobie i wciąż trapią go choroby wieku dziecięcego (w ciągu ostatnich kilku lat, przy kilku dużych tytułach, deweloperzy ŚWIADOMIE zrezygnowali z implementacji RT, ostatni duży przykład to Battlefield VI, co jest o tyle zaskakujące, że V była pierwszym tytułem AAA. który promował tą technologię).
IMO DLSS 5 skończy tam gdzie 3D w grach i telewizorach. Na śmietniku. Ewentualnie zostanie niszą, jak VR. Tym razem "pan kurteczka" chyba się przejedzie, to co zaprezentowała Nvidia wyglądało raczej paskudnie i okazało się sporym rozczarowaniem.
*Niektórzy wprost robią sobie z Nvidii jaja, czego nie pamiętam, przy prezentacji wcześniejszych technologii "zielonych":
https://x.com/WarhorseStudios/status/2033921303221047298
Tak, tak. Skoro nawet na starannie przygotowanych materiałach wyglądało to jak najgorszy slop, to jak będzie się prezentować w grach robionych pod presją czasu i przy minimalizacji kosztów? Na pewno nie lepiej.
Ludzie też sie mylili że AI bedzie zabierać im pracę ? Tymczasem obserwujemy dziesiątki tysięcy zwolnień w różnych segmentach...
Po prawdzie to nie AI zabiera pracę tylko zarządy zaślepione rzekomymi zyskami.
AI jest tutaj tylko pretekstem do zwolnień. Finansowanie różnych inwestycji się zmniejszyło (częściowo na rzecz idiotycznych inwestycji w AI), a częściowo przez skok oprocentowania pożyczek, które utrudnia dzisiaj pozyczanie pieniędzy.
Ogólnie zarządy zrozumiały, że ogromne zakupy, inwestycje i ekspansja firm nie przyniesie zysku (np. w grach). Po czym jak jeden mąż większość rzuciła się na takie same działania w dziedzinie AI, gdzie sukces jeszcze bardziej kruchy niż w gamingu. Żadnego zwrotu inwestycji nie da się przewidzieć... I prawdopodobnie takiego zwrotu nigdy nie będzie...
AI może nie skończy porzucone jak Metaverse, ale podobnie widzę inwestycje w AI tak grubej kasy, jak Facebook inwestował w cudowny metaverse. Tylko akurat metaverse nawet na papierze zdawał się być wydmuszką. Tutaj ładnie LLMy mydlą oczy.

„Całkowicie się mylą” - pójście w zaparte, to IMO, nienajlepsza metoda na "damage control" ;).
Co do samej technologii, to sukcesów nie wróżę. Dawno nie widziałem takiego wkurzenia i rozczarowania ludzi, także branży (może za wyjątkiem Digital Foundry, gdzie ceniona przeze mnie ekipa, nagle oślepła ;)), włączając deweloperów*. Ray Tracing, który był rewolucją, przyjął się tak sobie i wciąż trapią go choroby wieku dziecięcego (w ciągu ostatnich kilku lat, przy kilku dużych tytułach, deweloperzy ŚWIADOMIE zrezygnowali z implementacji RT, ostatni duży przykład to Battlefield VI, co jest o tyle zaskakujące, że V była pierwszym tytułem AAA. który promował tą technologię).
IMO DLSS 5 skończy tam gdzie 3D w grach i telewizorach. Na śmietniku. Ewentualnie zostanie niszą, jak VR. Tym razem "pan kurteczka" chyba się przejedzie, to co zaprezentowała Nvidia wyglądało raczej paskudnie i okazało się sporym rozczarowaniem.
*Niektórzy wprost robią sobie z Nvidii jaja, czego nie pamiętam, przy prezentacji wcześniejszych technologii "zielonych":
https://x.com/WarhorseStudios/status/2033921303221047298
W BF5 Implementacja raytracingu zawęziła się do zrobienia realistycznego oświetlenia broni, z uwzględnieniem eksplozji i wybuchów, a także kąta padania światła. Poza bronią wszystkie elementy miały wyłączony RTX...
Chyba do tej pory jedyną grą, w której RTX został zaimplementowany w formie, w której go reklamowano, pozostaje Cyberpunk na RT Overdrive... I nie chodzi na kartach, na których reklamowano tą technologię (minimalnie seria 3xxx). Nie wiem też, na ile ten RTX jest tam też częścią oświetlenia. Bo na pewno nie działa to 1:1 jak na prezentacji. Raczej nawet na Overdrivie za 90% oświetlenia odpowiadają wypalone mapy, a za małą cząstkę RTX.
Gdyby tak nie było, to obraz raczej byłby bardzo ziarnisty. Nie da się pokonać tak łatwo barier obliczeniowych bez kompromisów...
Pozwólcie, że podsumuję tok rozumowania pana kurteczki. Krytycy całkowicie się mylą, że OBECNIE na przedstawionych materiałach wygląda to jak AI slop, bo on zakłada, że KIEDYŚ to będzie lepsze i developerzy będą mogli go parametryzować. Wszyscy się mylą bo wynika to z faktu, że dokładnie wyjaśnił wszystko.
Będzie jak z MFG i ile było płaczu i stękania o fejkowe klatki, a prawda jest taka, że to rewelacyjna technologia, a narzekają ci co nigdy tego nie użyli. Polecam odpalić np w Cyberpunku 2077 albo też ratowało to tyłek słabo zoptymalizowanemu Stalkerowi 2. W Alan Wake 2 też zrobiło to na mnie pozytywne wrażenie.
Ludzie chcą nowych ficzerów i będzie się kręciła sprzedaż topowych kart. AMD dopiero za kilka lat zaprezentuje to co oferuje DLSS 5 bo najpierw muszą zrobić kartę graficzną która to dźwignie, a do tego czasu gracze będą kupować karty Nvidii.
Trzeba też pamiętać, że dla Nvidii jesteśmy malutkim marginesem ich zarobków więc równie dobrze mogliby porzucić dział gejmingu. Dla mnie to plus, że pokazują coś nowego.
Ty jesteś naiwny bo już ci napisałem wczoraj, że to, że w ogóle potrzebujesz fejkowe klatki to może zostało zrobione celowo, przyszło ci to do głowy?
Ludzie nie pamietaja jaki szit storm byl jak RTX wyszlo lol
W FPSach zależy właśnie na realnych klatkach i niskim opóźnieniu, a nie na fake klatkach. W CSa grało się na wyższych klatkach nawet na monitorach 60Hz... które nie miały szans wyświetlenia 300FPS, a mimo to, na 300klatkach grało się płynniej niż na 60. Tutaj chodzi o to, jak gra chodzi, a nie jak płynnie sie wyświetla obraz... Więc nawet przy 120-240FPSach Fake klatki w FPSach mają mało sensu, bo wręcz zabierają przewagę przez dodawanie dodatkowego opóźnienia...
Jakaś dziwna ta dyskusja.
Darek1785 trochę foliarsko sugeruje, że Nvidia celowo pogarsza wydajność kart bez DLSS żeby napędzić zapotrzebowanie na DLSS. W efekcie celowe postarzanie produktu i nieuczciwe wyciąganie kasy z klientów.
I przychodzi Khebeln! i zamiast podać to w wątpliwość niejako potwierdza to i zaleca wydanie tej kasy.
...
co tu się dzieje :S
Procne
Zgadza się i uważam, że coś takiego jak wymagania gier to ogólnie fikcja która nie istnieje.
Dam ci przykład co tak naprawdę wymaga mocy obliczeniowej:
2:03-2:21
https://www.youtube.com/watch?v=AZzWceGPmGg
I to jedyny element, a cała reszta typu oświetlenie, tekstury itd. to fejk.
Natomiast Nvidia i Microsoft to dwaj główni gracze którzy tworzą iluzję tego, że coś takiego jak wymagania sprzętowe gier istnieją.
Nie jestem co do tego przekonany. Biorąc pod uwagę jak mocno Nvidia próbuje te technologie reklamować - to w zasadzie jest jedyny driver nowych kart, przy generacji 50x wzrost wydajności w stosunku do poprzedniej był naprawdę niewielki. To DLSS i MFG miały być tym co zrównuje 5070 do 4090. Na pewno będą się starali żeby te technologie były wymagane do gamingu. Zwłaszcza jeśli dla twórców będzie to wygodniejsze i tańsze niż optymalizacja, prowadząc do sytuacji gdy klient nie dostaje nic nowego / lepszego, ale musi dodatkowo zapłacić żeby nadal mieć to, co miał wcześniej (tę samą wydajność i grafikę). Do jakiego stopnia tak w tej chwili jest i czy gry rzeczywiście wyglądają lepiej i działają płynniej z DLSS / MFG (niż w czasach przed tymi technologiami, gdy twórcy musieli gry zoptymalizować) - to trudno stwierdzić w tej chwili.
Rosnące wymagania zwykle wynikały z coraz bogatszej geometrii i większych tekstur - trzeba więcej tego upchać do GPU, które musi to wszystko przetworzyć. Optymalizacja oznaczała odpowiednie przygotowanie modeli, lokacji i logiki tak by zminimalizować ilość tej geometrii. Przykład kulejącej optymalizacji to Cities Skylines 2 gdzie każdemu przechodniowi generowano szczegółową gębę z pełnym uzębieniem na tysiące poligonów, mimo, że nikt na to nia patrzył. Bo z automatycznego generatora takie wyszły i nikomu nie chciało się sprawdzić. A potem kupuj kliencie kartę z DLSS żeby dało się grać
To są oszuści, ponieważ to wszystko jest już dostępne od wielu lat tylko oni mają bardziej dopracowane narzędzia z korporacyjnym budżetem i pracownikami którzy cały czas nad tym siedzą i się tyko tym zajmują ponadto ich narzędzia zawierają dodatkowe elementy aby stworzyć u graczy mylny obraz, że to tak naprawdę wymagań sprzętu z kosmosu jak choćby podmiana modeli w DLSS 5, a to jest fejk moim zdaniem tzn. realnie to wcale by nie wymagało mocne sprzętu no ale jakoś trzeba już się szykować pod sprzedaż następnej generacji:
https://www.youtube.com/@martysmods/videos
więc możliwe jest stworzenie realistycznej oprawy graficznej oraz stylizowanej (na przykład komiksowej).
Oni chcą wam wcisnąć, że to (ten cytat na górze) + podmiana mord postaci przez SI wymaga niby dwóch RTX 5090:
https://www.youtube.com/watch?v=rPBs_JCAZGg
https://www.youtube.com/watch?v=_toA8lErAHg
DLSS 5 to tak naprawdę RTX Remix 2.0 stworzony dla deweloperów z dodatkowymi elementami niedostępnymi dla zwykłego gracza szykowany pod sprzedaż nowej generacji kart graficznych.
Tak czytam te wszystkie komentarze i po prostu ręce opadają. Myślałem że to ja jestem konserwatywny, ale sądząc po całej nagonce, to większość społeczności graczy jest zupełnie inną ligą. Egoistyczne ameby tego nie rozumieją, że technologia idzie naprzód i wszystko się od czegoś zaczyna. Inni na tym korzystają i produkują bezsensowne filmiki które tylko to (nagonkę) pobudzają, co daje im dodatkowe lajki i wyświetlenia. Można pisać, gadać, tłumaczyć, ale oni wiedzą swoje, mimo że nie mieli tej technologii w swoich rękach.
Widać w dzisiejszych czasach jakaś dzika wyobraźnia i wróżenie z kuli jest na porządku dziennym - taki trochę powrót do średniowiecza, nie długo będą wiedźmy palić na stosie. Najlepiej od razu obrzucić to co nieznane g*wnem i jeszcze udowadniać swoje obawy bezsensownymi argumentami biorąc się za narzędzie AI i produkując kolejne AI Slopy.
Technologię dzielą się na te, które mają sens, bo prowadzą do rozwoju i ślepe uliczki, które są rozwijane dla zysku konkretnej firmy. Tutaj zdaje się odbywać ten drugi scenariusz... Bo filtr AI to ostatnie, czego dzisiaj potrzebujemy...
I trzeba mocno wybić z głowy implementacje tego szajsu do gier Twórcom... Bo o ile gracz może tą "technologie" wyłączyć, to już nie włączy wszystkich tych rzeczy, które ucierpiały, by wprowadzić tą rzecz do gry. No bo produkcja gry to zamknięty budżet. Albo płacisz za ficzery tego typu, albo za gameplay... Gracze zdecydowanie wolą gameplay, co widać po popularności Nintendo...
Metaverse też był "technologią". Poszło na nią całkiem dużo pieniędzy... Podobnie jak ta technologia, od początku spotkał się z negatywnym odbiorem...
Czy moje pragnienie, żeby gry tak wyglądały i tak były tworzone robi ze mnie egoistyczną amebę?
Czy moja niechęć do robionych pod ten dlss5 growych fastfoodów robi ze mnie egoistyczną amebę?
Szczerze, to nie widzę tu ślepej uliczki, a właśnie otworzenie dostępu do kolejnej. Niestety, aktualnie żyjemy w czasach gdzie pod względem technologii czysto hardware'owej doszliśmy do ściany której nie można dalej przesuwać, więc trzeba iść w software. Nvidia mogłaby sobie całkowicie odpuścić Gaming, bo na nim zarabia grosze w stosunku do rynku AI, a mimo to nadal chcą być obecni na tym rynku i próbować pchać postęp do przodu, czasem w mocno kontrowersyjny sposób (jak teraz), ale przynajmniej coś robią i może to wyjść na dobre. Nie można się bać nowej technologii i wymyślać czarne scenariusze - tym bardziej że ona nie dotyczy świata realnego i nie jest obowiązkowa.
Jak myślisz, ile czasu potrwa wprowadzenie tego na wszystkie urządzenia do gier? PCty, konsole, handheldy.. Aby twórcy mogli pójść na łatwiznę - kolejna obawa - technologia ta musiałaby się przyjąć na każdej dostępnej platformie do gier. A nawet jeśli... Jeżeli twórcy otrzymaliby udoskonaloną technologię która wygląda i działa bardzo dobrze, to w czym problem? Technologia DLSS nigdy nie była obowiązkiem - ani po stronie twórców, ani po stronie graczy - jeśli chcesz to używasz.
Dodatkowo żeby DLSS 5 mogło dobrze wyglądać, to twórcy będą musieli rozwinąć aspekty gier które w tej chwili mają zastój - animacje, fizyka, symulacja świata - teraz będą mogli się na tym skupić, jeśli chcą by ich gra prezentowała się jak najlepiej.
Czyli mamy technologię która nie jest obowiązkowa, rozwija się i pozwoli twórcom gier skupić się, nie na grafice, a na innych modułach które zostały potraktowane po macoszemu.
Metaverse upadło, bo nikogo nie interesowało. To było zwykłym wyrzucaniem pieniędzy - nikt tego nie potrzebował, a Meta dalej brnęła w swoje, widząc w niej potencjał który okazał się jedynie złudnym marzeniem jej twórców.
Jeżeli tworzysz AI Slop obśmiewając technologię którą nazywasz AI Slopem - to tak.
Jeżeli krzyczysz na forach wróżąc jak to DLSS 5 zmieni świat gamingu w jeden AI Slop - to tak.
Najgłośniejsi zawsze są ci, którym się nie podoba. Dopiero z czasem zmieniają zdanie, kiedy widzą jakie korzyści im ona przynosi.
W projekcie Senua’s Saga: Hellblade II, Georgian Avasilcutei pełnił rolę Senior Character Artist( Jego wkład w grę był kluczowy dla osiągnięcia fotorealistycznego poziomu detali, z którego słynie studio Ninja Theory . Oto co napisał na X:
"
- DLSS 5 is not touching your models. It just improves the lighting and shaders.
- NO! It changes the models. Her lips are fuller and her jaw is more pronounced. Also the game has path tracer and it should look the same as that.
- I understand. So you have no basic understanding about real time rendering limitation both in lighting and shading. Got it. Path tracer in games is nowhere close to path tracer in offline renders(renders that take long times even on render farms, imagine the hours it would take to render each frame on your mid pc) as for shaders... everything is fake and simplified, especially stuff like sub surface scattering is a pain in the ass to get it right...even in offline rendering....that's why skin, hair, clothing, translucent surfaces are quite hard to get right in games and good looking shaders are very costly....even these fake ones we're using. As for changing the model...there are already plenty people debunking this stuff out there and Nvidia clearly specified that there is no change in the models. All the information is extrapolated from textures, meshes and illumination.
- You don't understand. Then nose is different and her hair roots are darker now.
- Yes. It's called shadows. Try to make a few images with lights from different angles and maybe some area ones to see how different your nose looks like in each picture. Or just search some site that talks about art of shadows in portrait photography...I'm sure you will find some good talk there about the nose.
- But it says it's generative AI. Nvidia says that in their article.
- I wonder if you ever considered what DL means in DLSS. It's Deep Learning as in deep machine learning as in trained AI...trained to generate information in between lower resolution pixels... DLSS takes a low resolution render and fills it up with information to render at a higher one. Sometimes you might see minor errors like you can see in that halo around the hair and some artefacts in between the strands. At the core tho it just fills up pixels in between the rendered ones in a way that makes sense. Now in DLSS 5 in a way that makes even more sense than before.
- If it's generative then it's like a snapchat filter. Or like asking Grok to make an image for you.
- No. It's not. DLSS 5 uses information from the frame to generate believable lighting and shading while using every info that it can from meshes, textures(normal maps, albedo, roughness, etc) and illumination.
- I don't care. It looks bad.
- While everyone is free to have an opinion, there is no better rendition in real time for skin, hair, reflexions and lighting right now....not even remotely close to what DLSS 5 offers. And don't come at me with Senua Hellblade 2, Death Stranding, Last of Us and so on... they're not even close.
- It says AI. I hate it!
- I loathe generative AI for a lot of reasons...from unethical training to generic results...but this is not generative AI as your image or video prompt generator garbage. You guys need to start educate yourself about what AI means couse you really like to slap it to anything nowadays. In 2001 in University I had a course of Machine Learning...just to give you an idea. Most of the software you guys use to make 3D art has at least a few things that are ML. As for DLSS 5....this is a tech that will take us a step closer to amazing quality in graphics. And you can see how much of a difference is in between good art and bad art(RE vs Starfield)....you still need good art to get good results. Stop hating just because is AI. Learn to distinguish in between AI image generator slop and AI tools that actually improve the final result of real artists by overcoming real time limitations.
In the end you can hate as much as you want on DLSS 5. You'll be able to turn it off in your games if you feel like it washes out the art direction or whatever other stories you tell yourself....then go back and praise some mediocre games for how good they look.
As I've said before...from my point of view this is mind-blowing good. What I'm afraid is the future and what Nvidia will cook from here on and how relevant artists will remain.
In the end we cannot fight the tech. We can adapt and use the tools in our favor or just stick to the "All AI is bad" thing, not even comprehending that we've been using machine learning for more than a decade in a way or another."
Problem polega na tym, że to, co pisze Avasilcutei* (DLSS 5 to po prostu "lepsze oświetlenie", a nie "generatywna AI"), jest sprzeczne ze słowami Jensena Huanga, co też słusznie wytykają autorowi tekstu komentatorzy i co można zobaczyć na własne oczy, kiedy spojrzy się na twarz Grace z "Residenta".
*https://x.com/nimlot26/status/2033996275947917774
A więc Huang:
“We fused controllable 3D graphics, the ground truth of virtual worlds, the structured data … with generative AI, probabilistic computing,” Huang said during his keynote speech. “One of them is completely predictive, the other one is probabilistic yet highly realistic.”
"The reason for that is because, as I have explained very carefully, DLSS 5 fuses controllability of the geometry and textures and everything about the game with generative AI," Huang continued. [...] "It’s not post-processing, it’s not post-processing at the frame level, it’s generative control at the geometry level," he said.
A zatem - wbrew temu, co twierdzi Avasilcutei - DLSS 5 wiąże się z użyciem generatywnego AI (probabilistycznego) na poziomie geometrii. To nie znaczy, że obiekt zmienia się "fizycznie" (czyli np. zmienia wymiary na większe czy mniejsze). DLSS 5 dokonuje jednak operacji na poziomie kondycjonowania generatywnego AI na istniejącej geometrii i teksturach (czyli "rozumie" kształty np. nosa, uszu, oczu), a więc wprowadza niby-realistyczne oświetlenie, roproszenie podpowierzchniowe, mikrodetale czy wygładzanie w oparciu o modele probabilistyczne (czyli właśnie "AI"), co z kolei prowadzi do istotnych zmian w zakresie percepcji (bez zmiany np. siatki oryginalnego obiektu 3D). Dlatego twarz wydaje się "piękniejsza" (w stylu "AI beauty"), usta stają się pełniejsze, kości policzkowe - bardziej wyraziste, oczy - większe itp. Tego rodzaju efekt może nadpisywać intencję artystyczną, bo model AI jest trenowany na danych, które np. faworyzują pewne kanony urody ("yassified Grace"). I to jest właśnie przedmiotem kontrowersji.
To pokazuje, że nie da się wytłumaczyć działania tej technologii komuś, kto jest na nią całkowicie zamknięty.
Na razie okazuje się, że to Avasilcutei nie do końca poprawnie tłumaczy działanie DLSS 5, gdyż pomija kluczowy element: technologia Nvidii opiera się na modelu generatywnym AI, który jest trenowany na ogromnych zbiorach danych (wiele godzin rozgrywki, fotorealistyczne rendery, sceny z różnymi warunkami oświetleniowymi itp.), a nie działa wyłącznie (co właśnie sugeruje Avasilcutei) na podstawie danych z konkretnej sceny gry. Innymi słowy, DLSS 5 "wnioskuje" i generuje efekty na podstawie wzorców wyuczonych z treningu, co może prowadzić do problematycznych "rozwiązań" ("yassified Grace").
Na razie nie wiemy, w jakim stopniu SDK pozwoli to kontrolować deweloperom (Nvidia obiecuje możliwość zmian w zakresie maskowania powierzchniowego i tonacji kolorystycznej), ale komponent "generatywnego AI" jest wpisany w nową technologię i nie będzie za każdym razem "trenowany" pod specyficzną grę, tylko korzysta z ogromnego zasobu danych (a więc de facto "narzuca" w istotnym zakresie "własną" interpretację danej sceny).
To jest świetna technologia, przełom w grafice komputerowej jak dla mnie. Cieszę się że mogę być świadkiem takich rzeczy :)
Via Tenor
Od jakiegoś czasu wiem, jak działa DLSS 5 i faktycznie wygląda to fantastycznie. Życzę NVIDIA powodzenia.
Problem polega na tym, że to za bardzo przypomina "nałożenie nowe twarzy za pomocą AI" i bardzo łatwo o nieporozumienie. Drugi problem jest to, że wielu ludzie nie rozumieją, czym jest DLSS i jak naprawdę działa. Po trzeci, też nie wiedzą, po co istnieją narzędzi AI? Oraz twórcy gier mają ograniczenie czasu rzeczywistego? Nadal tworzą grafiki ręczne, ale narzędzi AI pomagają tylko oszczędzić czasu i zajmują się powtarzalne czynności za nich. Trzeba tylko wiedzieć, jak robić właściwy użytek z AI. Po czwarty, gry do tej pory pokazują nam twarzy niezgodne z pierwotne wizji twórców i nie zdajemy sobie sprawę z tego. RT i DLSS to są nadal młode technologii i nie są bez wad, a DLSS 5 miał to naprawić bolączki. Niektórzy już zapomnieli, jak wyglądają FSR 1.0 i DLSS 1.0. -.-
Więc nie dziwię się ostre reakcji graczy w Internecie. Nie nadążają się za nowości i są przyzwyczajeni do starych rozwiązań. Nie rozumieją wszystko, co i jak działa. Bardzo łatwo o emocji, nie chłodne kalkulacje i rozumu.
Brak nowe rozwiązanie dla tworzenie grafiki? Źle.
Są nowe rozwiązanie dla tworzenie grafiki? ŹLE!
Ze wszystkich nie da się dogodzić...

Czyli że co? Że jak postać będzie teraz wyglądać prawie jak w rzeczywistości w grach, gdzie ma tak wyglądać, to źle?

Tu masz model Grace z gry (bez DLSS 5) w korzystniejszym oświetleniu:
https://x.com/aquelyrass/status/2033663718064529717
A tak Grace wygląda u mnie ---->
Obrazek bez kompresji:
https://i.postimg.cc/qqC21vcN/GRACE-bez-DLSS5-full.jpg
To samo miejsce, podszedłem tylko nieco bliżej w prawo, w stronę witryny, z której pada światło.

Mimo jak to określiłeś korzystniejszego oświetlenia to model po lewej wygląda jakby był z plastiku.

Określenie "korzystniejsze oświetlenie" odnosiło się do zdjęć z X, a nie do moich zrzutów (bo trudno nazwać "korzystnym" ostre światło z boku, które odbija się na mokrej od deszczu twarzy, tworząc refleksy). :)

I na koniec: niech każdy sobie wybierze faworytkę w tym konkursie piękności. IMHO przydałaby się Grace "pośrednia", gdzieś między Grace w wersji DLSS 5 a Grace "oryginalną". AI mogłaby przesunąć suwaki o połowę w lewo. Wtedy byłoby idealnie. ;)

To, co widzimy u Aquelyrasa, to świadomie stylizowane, profesjonalnie przygotowane ujęcia, a nie reprezentacja tego, jak gra wygląda w ruchu na standardowych ustawieniach. To dokładnie tak, jak różnica między zdjęciem z telefonu podczas biegu a sesją zdjęciową z oświetleniem, obróbką i aparatem za 20k.
Otis_Inf Camera Tools
• pełna swoboda kamery
• pauza gry
• ukrycie HUD
• hotsampling
• dostęp do IGCS DOF
ReShade + IGCS DOF
• fizycznie poprawna głębia ostrości
• bokeh jak z prawdziwego obiektywu
• kontrola nad ostrością, aberracją, bloomem
ReLit / dodatkowe światła
• możliwość ustawienia światła jak w studio
• podkreślenie rysów twarzy
• kontrola nad cieniami i kontrastem
Path Tracing
• najlepsza możliwa globalna iluminacja
• realistyczne odbicia i cienie
• zero skrótów graficznych
Hotsampling (5K–8K)
• ekstremalna ostrość
• brak aliasingu
• perfekcyjna jakość detali
DLAA
• lepsze wygładzanie niż DLSS Quality
• zero rozmycia temporalnego

To prawda. Sam używam tych narzędzi, kiedy "fotografuję" w różnych grach. Niemniej jednak dwie uwagi:
- DLAA i Path Tracing nie są dodatkowymi "narzędziami", których używa VP. To ustawienia w menu gry dostępne dla każdego.
- Narzędzia "fotograficzne" Fransa Boumy z wtyczką IGCS Depth of Field po prostu umożliwiają zatrzymanie rozgrywki, ustawienia kamery w dowolny sposób (jak w trybie fotograficznym w innych grach) i rozmycie tła (plus ewentualne "poprawki" dotyczące np. kontrastu, których można dokonać również w menu gry lub w ustawieniach monitora czy w panelu Nvidii, jeśli ktoś chce mieć podobne "efekty" w czasie rozgrywki), nie zmieniają jednak jakości modelu 3D i tekstur.
Jedyny naprawdę istotny z naszego punktu widzenia element to REFramework z wtyczką ReLit, który umożliwia umieszczenie w scenie dodatkowego źródła światła. Tyle że Grace w trybie normalnej gry naprawdę w różnym oświetleniu wygląda tak, jak na zaprezentowanych ("upozowanych") zdjęciach. Podobnie jak inne postacie. Dodatkowe wrażenia, których nie sposób oddać na zdjęciach, wiążą się ponadto z włączeniem trybu HDR. Innymi słowy, to, że VP użył ReLit, żeby sobie "doświetlić" scenę wedle uznania, nie zmienia faktu, że Grace tak właśnie wygląda w różnych momentach gry w oryginalnych (przygotowanych przez deweloperów) warunkach oświetleniowych (a nie tylko "studyjnych").
Poniżej przykładowe zdjęcia (jeszcze przed sensowną obróbką), które zrobiłem bez ustawiania jakichś dodatkowych źródeł światła (widoczny gdzieniegdzie DOF nie jest wynikiem użycia dodatkowego narzędzia, to efekt występujący w grze).
https://i.postimg.cc/X7TkzJ8K/GRACE-przyklad-oswietlenie.jpg
Do czego zmierzam? Otóż Grace w grze, w ruchu wygląda po prostu znacznie lepiej niż "oryginalna" postać zaprezentowana przez Nvidię w ramach zestawienia z modelem "obrobionym" przez AI. Rzecz jasna, pewne elementy głowy i twarzy wyglądają w trybie DLSS 5 lepiej (np. cała struktura włosów), ale (IMHO) ogólne zmiany poszły w nieco złym kierunku, bo wskutek bazowania na określonych danych "treningowych" (a nie na danych z konkretnej gry) model generatywny zbyt mocno zmodyfikował ogólną aparycję bohaterki (pełniejsze i "podkolorowane" usta, nieco inna linia podbródka itp.) w stylu właśnie "AI beauty". Grace nie do końca przypomina Grace. Przynajmniej w tym ujęciu. Może w innym świetle, w innej scenerii, w innym momencie gry byłoby lepiej. Trudno powiedzieć, bo o tym, jak wyglądać będzie bohaterka w trybie DLSS 5, nie decyduje już w pełni projektant postaci. Ostatecznie to AI (na bieżąco) rekonstruuje całą scenę. I tyle.
model generatywny zbyt mocno zmodyfikował ogólną aparycję bohaterki (pełniejsze i "podkolorowane" usta, nieco inna linia podbródka itp.) w stylu właśnie "AI beauty".
Jest na to dosadniejsze okreslenie. "Bimbofication". ;) ;) ;)
Nie, nie wymyslilem tego. Jest to czesto uzywane w stosunku do wlasnie takiego podkolorowywania pewnych elementow postaci. Okreslenie chyba czesto uzywane w holibudzie i okolicach. ;)
Dla mnie smutne, że tyle szumu robi wspierana AI grafika, a nie jakieś nowości w dziedziny fizyki w grach np. realistyczne ragdolle, systemy zniszczeń, interakcja ze światem, albo sam gameplay. Za to mamy, więcej zmarszczek na twarzach postaci :/
To już było za czasów HL2 czy FEAR i tym podobnych, teraz tylko i wyłącznie grafika 666k i AJAJAJ. Gracze głównie teraz żyją grafiką, a to w sumie najprostsze teraz. Fizyka, a komu to potrzebne... I też mi smutno z tego powodu.