Jak bardzo zamknięty, konserwatywny łeb trzeba mieć by taki postęp hejtować to nie chce się nawet zastanawiać. Wygląda cringowo? No wygląda. Nikt nie karze tego używać, tech wygląda fenomenalnie i się będzie rozwijał kwestia tego kto i jak tego użyje.
To jest niepojęte, że takie korporacje w ogóle istnieją, a co dopiero są warte sryliardy dolarów. Jest mega hejt od lat na generatywne AI. Nie dlatego, że jest to złe, a dlatego, że wszystko wygląda tak samo przy okazji podpierdzielając zasoby często chronione prawem autorskim i wypluwające mix. Doszło do tego, że AI uczy się od… AI, dlatego wszystko jeszcze bardziej wygląda tak samo, niezależnie od modelu AI. Oni zamiast tego zaniechać, albo chociaż zrobić to dobrze, zrobili to w najgorszy możliwy sposób. Zamiast zasobów do uczenia się przygotowanych typowo indywidualnie pod to rozwiązanie (bo wygląda to fenomenalnie, problemem jest to że wygląda jak AI slop), to jako bazę użyli tego, co już jest w sieci. Gdyby deweloperzy sami przygotowali statyczne obrazy czy nawet genialnej jakości modele 3D, których nie musieliby optymalizować więc mogliby zrobić dosłownie wszystko, później zrobili to jako materiał do uczenia się, to faktycznie mielibyśmy przełom i gry wyglądałyby genialnie i zgodnie z zamysłem twórczym, bez ograniczeń sprzętowych. Tymczasem takie podejście pokazuje lenistwo i tylko utwierdza w fakcie, że to się „zateguje” DLSSem.
Ile było płaczu o MFG 3x lub 4x, a przecież jak to odpaliłem np w Cyberpunk 2077 to byłem pod ogromnym wrażeniem. Włączyłem wszystkie opcje włącznie z RT na Full i gra z MFG chodziła mega płynnie bez rwania obrazu, bez jakiś dziwnych artefaktów, bez opóźnień które byłoby czuć pod myszką. Dostaliśmy piękny czysty obraz oraz płynność.
Wszyscy będziemy młodzi i piękni na zawsze - forever young, batman forever young
Jak bardzo zamknięty, konserwatywny łeb trzeba mieć by taki postęp hejtować to nie chce się nawet zastanawiać. Wygląda cringowo? No wygląda. Nikt nie karze tego używać, tech wygląda fenomenalnie i się będzie rozwijał kwestia tego kto i jak tego użyje.
Postęp to by byłby gdyby wszystko zostało stworzone samodzielnie od zera w takiej jakości, a nie podpierdzielenie miliardów plików z internetu które podmieniają później już istniejące modele, grafiki, tekstury nie zawsze na lepsze.
Ci sami ludzie co jacza ze to AI graja w pixeloze gry co sie zygac chce. Zawsze sa tacy co lubia ladna grafike i tacy co lubia brzydka. Nie zwalajcie to na AI.
-Darek1785 - trochę się mylisz, jakby takie coś stworzył człowiek to też by było hejtowane bo to po prostu kiepsko wygląda.
No właśnie problem chyba w tym, że właśnie karze. Developerzy olewają optymalizację, bo klatki załatwi DLSS. I wtedy jak nie chcesz używać DLSS to masz potężne spadki klatek albo musisz mocno redukować detale tak, że gry wyglądają gorzej niż 10 lat temu.
Teraz inaczej gdyby nie FSR w niektórych grach na konsole oglądał byś pokaż slajdów.
A grafika wcale nie wygląda lepiej niż 5 lat temu. W tym problem - twórcy sobie odpuszczają optymalizację i teraz gracz musi kupować karty z DLSS by mieć to samo, co 5 lat temu - inaczej ma pokaz slajdów. Mi, na przykład, bardzo przeszkadzają wszystkie artefakty z DLSS
Żeby z tych 60 przy max detalach uzyskac np. powyżej ~100/120fps.
A jest używane tak żeby z 20 klatek zrobić iluzję 60, bo twórcom nie chce się optymalizować do 60 klatek, zrobią do 20 a resztą zajmie się DLSS / MFG
edit: o kurde, czytam inne komentarze, ale nerwus. Zrobił się straszny ściek w tym temacie
Chyba lepsze to, niż inwestowanie w drogie karty graficzne
Podkreśle ci coś jeszcze synku. DLSS jest OPCJONALNE. Pajacyki wszędzie pajacyki.
Ale ten problem można bardzo łatwo rozwiązać i nikt nie będzie płakać.
Skoro NVIDIA dali Frame Generation i Ray Reconstruction jako oddzielne opcji do wyłączenie, a DLSS można zostawić włączony... To czemu nie mogą dać "ulepszenie twarzy" jako oddzielna, opcjonalna opcja? Nie musi być domyślny w środku DLSS jako wersja 5.0.
Zgodzicie się ze mną, że "ulepszenie twarzy" może sprawiają, że postaci w Starfield wyglądają bardziej naturalne i realistyczne, ale... Nie zawsze działają perfekcyjnie w każdego gry zgodnie z oczekiwanie graczy i twórcy, np. Grace w Resident Evil 9. To zależy od tytułu gry i silnika.
Zaleta gry PC jest takie, że niektóre opcji graficzne możemy włączyć i wyłączyć wedle naszych uznanie, np. wyłączenie ziarno filmowe.
Więc "ulepszenie twarzy" powinno być opcjonalny, a nie obowiązkowy. Graczy mogą to włączyć i wyłączyć zgodnie z gustami. Czy to trudne dla NVIDIA i twórcy gier?
P.S. Na szczęście możemy podmienić nowsze pliki DLSS na starsze dla "starych gier" w razie potrzeby. No, nie dotyczy to posiadacze karty AMD. Więc nie ma powodu do paniki.
Ile było płaczu o MFG 3x lub 4x, a przecież jak to odpaliłem np w Cyberpunk 2077 to byłem pod ogromnym wrażeniem. Włączyłem wszystkie opcje włącznie z RT na Full i gra z MFG chodziła mega płynnie bez rwania obrazu, bez jakiś dziwnych artefaktów, bez opóźnień które byłoby czuć pod myszką. Dostaliśmy piękny czysty obraz oraz płynność.
Wiem, co masz na myśli.
Musieli opracować Frame Generation i DLSS od nową, żeby działają lepiej bez artefaktów. Nie działają perfekcyjnie w wersji 1.0. Musieliśmy trochę poczekać, aż wydali ulepszone i poprawione FG i DLSS.
Tak samo było z FSR, gdzie różnica 1.0 a obecna wersja jest ogromna.
Tak samo było z "ulepszenie twarzy", co jest tylko w wersji alpha lub beta. Jeszcze nie będą 100% dopracowane. Dlatego nie dostaniemy DLSS 5 od razu w tym miesiącu. Potrzebują więcej czasu. Wiadomo.
Takie są uroki nowe technologii, co są "zbyt młode".
Ile było płaczu o MFG 3x lub 4x, a przecież jak to odpaliłem np w Cyberpunk 2077 to byłem pod ogromnym wrażeniem. Włączyłem wszystkie opcje włącznie z RT na Full i gra z MFG chodziła mega płynnie bez rwania obrazu, bez jakiś dziwnych artefaktów, bez opóźnień które byłoby czuć pod myszką. Dostaliśmy piękny czysty obraz oraz płynność.
Przyszło ci choć trochę przez głowę, że te problemy z płynnością i rwaniem ktoś stworzył celowo (domyśl się kto) i wcisnął ci różne technologie które byłyby niepotrzebne gdyby przedtem tego problemu nie stworzono?
Prawda jest taka ze jak gry wydja z ta technologia na mysli to benda wygladaly zajebiscie. Np Starfield co pokazali to bym z checia go jeszcze raz przeszedl jakby lightning i postacie tak wygladaly bo najwiekszy problem tej gry to wlasnie lightning i postacie co wygladaja jak z dupy wyciagniete.
Widzę, że nawet T-bone'owi dopisuje humor z DLSS 5.0 (o ile można to (DLSS) tak nazwać)
Osobiście, nie widzę tego dobrze zwłaszcza w JRPG'ach, gdzie najczęściej (nie zawsze, ale często) dominuje rysunkowa grafika.
Pytanie, co będzie dalej? Przede wszystkim gry mają dawać klimat, a w części przykładów wygląda, jakby klimatu nie było (wiem, wiem, AI to robiło).
Po 3G, 4G, 5G, szczepionkach, biochipach, samochodach elektrycznych, kryptowalutach itp. itd., mamy nowy rodzaj szurii - foliarstwo AI. ;)
A co IQ na z tym wspólnego? Od kiedy inteligentne osoby negują zdobycze technologiczne?
AI jest już np w medycynie czy farmakologii. Mądrzy ludzie jakoś tego nie negują.
Ale prawda jest inna. Prawda boli. Negują AI osoby które się boją o własną pracę. A z ciebie pi*da a nie programista. Jesteś upadającym informatykiem który rozkładając nogi krzyczy AI oszczędź nie odbieraj mi pracy.
Miałeś na myśli Grok czy Gemini?
Programisto pokaż zatem swoją twórczość AI. Ostrzegam. Dobrze przeszukuje grafiki w internecie. ;) czekam do 20;00 myślę wyrobisz się z 10ss.
Możesz zaprezentować teraz swoją wyższość. Swoje IQ.
Chociaż pewnie w moim smartphonie Gemini zrobiło by to lepiej.
"Twórczość AI"? Tylko się ośmieszasz. AI nic nie potrafi stworzyć, potrafi tylko odtworzyć to co zrobił ktoś inny, na podstawie ukradzionych przez korporacje informacji.
Jak nie jest się artystą to rzeczywiście wygląda atrakcyjnie. W końcu można się łudzić, że coś się potrafi, gdy tak naprawdę bezmyślne narzędzie robi za Ciebie.
Btw miłego bana. Może wytrzeźwiejesz w międzyczasie.
nie wyobrażam sobie spędzać wiele godzin na odnajdywanie funkcji lub rozwiązywania zagadnień których nigdzie w necie nie znajdę
W tym problem - AI uczy się na podstawie tego, co ludzie napiszą - na stackoverflow, w dokumentacji, na forach. W sytuacjach, dla których "nic w necie nie znajdziesz" AI też nie będzie miało tej wiedzy. Już się przejechałem nieźle na AI halucynującym API do jakiejś usługi amazonowej, zwyczajnie dlatego, że ta była na tyle nowa i jeszcze nieużywana, że w necie nie było o niej informacji. Więc AI po prostu wymyśliła funkcje i metody, jak uczniak przy tablicy, sklecając ich nazwy z mojego prompta podczas gdy takie funkcje w ogóle nie istniały xD
No nie wiem. Jest w tym wszystkim jakiś AI-look, trochę uncanny valley, ale koniec końców, w przypadku niejednej z tych pokazanych gier (nie wszystkich), kiedy zadaję sobie sam pytanie, w który wariant wolałbym zagrać, to niekoniecznie skłaniam się ku oryginałowi.
Nie wszystko wygląda tu dobrze, ale w niektórych przypadkach (np. AC Shadows) trudno mi zaprzeczyć, że scena z DLSS 5 prezentuje się bardziej realistycznie i mniej "płasko".
IMO wszystko rozbije się o to, jak dużą kontrolę będą mieć twórcy nad zakresem i działaniem tego narzędzia. Jeśli będą mogli wykorzystać DLSS 5 jako pewną bazę i modelować otrzymany rezultat, to efekty mogą być całkiem imponujące.
No i oczywiście pozostaje jeszcze pytanie, jaki będzie faktyczny koszt tej funkcji w zakresie wydajności (na DF wspominali, że zaprezentowane dema działały na DWÓCH RTX-ach 5090, choć ponoć Nvidia wewnętrznie uruchamia to na pojedynczej karcie).

A można se marudzić, ale za parę lat to i tak będzie standard. Tak samo jak stało się ze skalowaniem rozdzielczości i frame generation.
To jest niepojęte, że takie korporacje w ogóle istnieją, a co dopiero są warte sryliardy dolarów. Jest mega hejt od lat na generatywne AI. Nie dlatego, że jest to złe, a dlatego, że wszystko wygląda tak samo przy okazji podpierdzielając zasoby często chronione prawem autorskim i wypluwające mix. Doszło do tego, że AI uczy się od… AI, dlatego wszystko jeszcze bardziej wygląda tak samo, niezależnie od modelu AI. Oni zamiast tego zaniechać, albo chociaż zrobić to dobrze, zrobili to w najgorszy możliwy sposób. Zamiast zasobów do uczenia się przygotowanych typowo indywidualnie pod to rozwiązanie (bo wygląda to fenomenalnie, problemem jest to że wygląda jak AI slop), to jako bazę użyli tego, co już jest w sieci. Gdyby deweloperzy sami przygotowali statyczne obrazy czy nawet genialnej jakości modele 3D, których nie musieliby optymalizować więc mogliby zrobić dosłownie wszystko, później zrobili to jako materiał do uczenia się, to faktycznie mielibyśmy przełom i gry wyglądałyby genialnie i zgodnie z zamysłem twórczym, bez ograniczeń sprzętowych. Tymczasem takie podejście pokazuje lenistwo i tylko utwierdza w fakcie, że to się „zateguje” DLSSem.
Nie ma to jak zestawić twórczości internetowych wsrywow z gorka czy innego Nanobanana 2 z technologią za którą implementacje i zakres jej wykorzystania będą odpowiadać producenci gier.
Logika myślenia autentycznie z piaskownicy. Jest tyle płaczu i lamentu na połamane plastikowe szpadelki. A mimo to się je produkuje. Sprzedaje i liczy zysk. Rekiny biznesu.
Chcesz jeden z drugim narzekaj płacz.
Jak połowa debili z tego portalu.
Tylko to firmy uciekają z rynku gamingowego do AI.
Dla ciebie to nic a dla innych przyszłość. Ale może kiedyś dziecko to zrozumiesz.
Zostawmy tu słynne kilka słów:
1. Najpierw Cię ignorują.
2. Potem się z Tobą śmieją. <---- byliśmy tu.
3. Potem Cię zwalczają. <---- aktualnie jesteśmy tu.
4. A na końcu wygrywasz. - i już wiecie jak to się skończy ;)
Masz do mnie pretensje bo większość ludzi skrytykowała mierną jakość tego filtra?
https://www.ign.com/articles/nvidias-dlss-5-is-a-slap-in-the-face-to-the-art-of-video-game-design
Jakoś Nvidii nie wierzę.Oni się juz odkleili od rzeczywistości,stali się podkomorzymi ai którzy odpłyneli,swoje mózgi na czipy wymienili
Realistyczna nie będzie,będzie sztucznointeligencka grafika,jak z czatów ai,genera dla mnie i rak
Szkda ryja szczępić

Dla mnie to przesada, nie wiedziałem że Kurteczka aż do takiego czegoś się posunie. Szanuje kreatywność.
Ray Tracing też był powszechnie krytykowany, kiedy pojawił się po raz pierwszy w grach 7 lat temu. Dzisiaj pojawiają się pierwsze tytuły, które go wymagają (choćby Doom The Dark Ages). Czyli staje się to standardem. Tutaj będzie podobnie. Po zastosowaniu DLSS 5 twarze wyglądają fotorealistycznie. Tak, fotorealistycznie, wbrew opinii niektórych malkontentów. Obecnie AI potrafi przy odpowiednim wykorzystaniu modeli generować fotorealistyczne obrazy. DLSS 5 wygląda, jak zrobione przez AI, bo jest fotorealistyczne. W perspektywie kilkunastu lat osiągniemy kres postępu graficznego w grach, bo dzięki AI będą one wyglądały jak rzeczywistość. Czepianie się, że to niezgodne z wizją artystyczną to absurd. To tak jakby się czepiać, że filmy są niezgodne z wizją artystyczną ich twórców, bo każdy wygląda jak rzeczywistość. Niestety trzeba się z tym pogodzić, że fotorealizm będzie oznaczał mniejsze pole dla popisu dla artystów. Tak, jak w filmach.
Tak, za kiepską wydajność i niewystarczający wzrost jakości grafiki w porównaniu z rasteryzacją. A później dodali Path Tracing do CP2077 i ucichły narzekania. Jestem gotów założyć się, że w przypadku DLSS 5 schemat będzie podobny. Co ciekawe, narzekania mogą ucichnąć tym razem przy Wiedźminie 4. Muszę przyznać, że byłem dotąd sceptyczny wobec dema technologicznego W4, które wypuszczono jakiś czas temu. Teraz w świetle DLSS 5 ta grafika może faktycznie stać się rzeczywistością.
Nie, nie stanie się jeszcze bardzo długo.
Ja tam nie krytykuje jesli bedzie mozna to wlaczyc i wylaczyc. Moze sie przydac w niektorych grach Sony gdzie postaci wygladaja coraz gorzej np Aloy.
Źle to wyglada. A tym, którym ta technologia odpowiada zakładam, że odpowiadaja im również nowe ceny podzespołów.
Na tę chwilę wygląda to dosyć sztucznie. Bardzo przypomina mi to początki midjourney i stable diffusion kilka lat temu. Ma to jednak potencjał i gdyby udało im się rozwinąć ten model tak, jak rozwinęły się modele tworzące grafikę, które użyte w odpowiedni sposób potrafią dzisiaj wygenerować praktycznie fotorealistyczne zdjęcia, to może coś z tego będzie.
Jednak gdybym miał w tej chwili w coś zagrać, to bym tej opcji nie użył.
Uh. Okropne. Chyba jednak nie chce fotorealizmu. Gra ma wyglądać jak gra i niech już tak pozostanie.
Przez chwile wczoraj pomyślałem że przegapiłem fakt że jest prima aprilis.
Oczywiście, to się kiedyś rozwinie i będzie lepiej nie mniej jednak chyba nie chciałbym żeby rozwój grafiki w grach był poświęcany = zmarnowany, na to.
imo mogliby to zrobic jako osobna opcje, tzn niech dlss pozostanie technologia zwiekszajaca ilosc klatek na sekunde, a to jako inna opcje graficzna, kto bedzie chcial to wlaczy, a kto nie to wylaczy, samo w sobie nie jest to zle w sumie patrzac na starfielda, gorzej z hogwarts legacy albo RE 9 chociaz leon wyglada spoko przy wlaczonym dlss 5
Właśnie ostatnio widzę w internecie spore poruszenie i jakieś debilne komentarze o tym, że ten dlss wygląda tragicznie.
Ja nie wiem gdzie ci ludzie mają oczy, przecież to tak bardzo poprawia wygląd grafiki, że można śmiało powiedzieć, że powoli wchodzimy w ere gier naprawdę realistycznie wyglądających.
Trzeba mieć naprawdę chyba dwie szare komórki aby hejtowac tę technologie. Ludzie już naprawdę mają wyprane mózgi...
Zobaczymy jak sie to bedzie rozwijalo. Na te chwile przypomina to mocny filtr z jakiegos instagrama czy innego snapchata. Moim zdaniem w tej prezentacji wypada slabo i nie podoba mi sie “kreska” charakterystyczna dla AI. Nie chcialbym zeby za pare lat wszystkie gry zaczely przez to wygladac jeszcze podobniej do siebie niz teraz.
Teraz wygląda średnio delikatnie mówiąc, a za kilka lat będzie pewnie wyglądać świetnie.
I bardzo mnie cieszy reakcja internetu. Te AI slopy z wczorajszej prezentacji wyglądają po prostu obrzydliwie. Cały styl artystyczny zakopany pod ziemią, a modele postaci zamienione na mordy z instagramowych reklam. Z Grace to w ogóle zrobiło totalnie inną postać. Z daleka od tego. Wszyscy narzekają, że gry na UE5 wyglądają tak samo, a z tymi slopami to wszystkie postacie zaraz będą wyglądać tak samo. Obrzydlistwo....
Jedna rzecz dziwi, dlaczego zawsze jest DLSS Off i DLSS najnowszy numer, powinno być DLSS 4,5 -DLSS 5 w tym przypadku bo fakt różnica kolosalna kiedy inne poprzednie DLSS już się nie liczą.
Postępu ciąg dalszy, trzymam kciuki aby Nvidia rozhuśtała ten ficzer jak najszybciej. A jak sie komuś nie podoba...cóż, można grać w warcaby. Nic na siłę:)
Zgadzam się, po zalewie sieci gównianymi wysrywami od AI które jeszcze na dobre się nie rozwinęło, a już ludzie mają jej dość to takie podejście NVIDII jest do dupy, szacun dla ludzkości która w zarodku tłamsi gówniane sztuczne podroby
Przeciez od zawsze to bylo opcjonalne, kosmiczny wylew pomyj, najlepsza metoda sprzeciwu jest zaglosowanie portfelem, ja od zawsze jak wymieniam sobie kompa co 3 lata, kupuje rtx xx70, i czy mo dziala to na srednich czy na wysokich mam w pompie, ludzie sie sraja o ta grafike jakby zapomnieli po co sie gra!
Gra sie dla przyjemnosci! 50 mil graczy raczej stardew valley nie kupilo dla grafiki, jestesmy w takiej erze, ze chcemy czy nie AI juz wchodzi wita sie z nami co raz mocniej, placz w internecie nic nie da, jezeli spplecznosc ktora sie temu sprzeciwia a wynika z tego ze jest mniejszoscia nie spowoduje spadku rnetownosci takich zmian
Widzę, że sporo ludzi lubi sobie porozmawiać o czyms o czym nie ma pojęcia i używać słowa "slop" gdzie sami a pracy robią gówno I myślą, że posiadają jakikolwiek wewnętrzny system jakości xD
Chyba już wszyscy w 2026 powinni zrozumieć, że casuale jedyne co powinni robić to milczeć.
Niech wszystko zniknie pod sosem AI, niech nic co zrobi człowiek nie ma już znaczenia... co za durny filtr.