TLDR: gracze odpalali grę na procesorach niespełniających wymagań sprzętowych i nagle są zdziwieni, że gra przestała działać.
Developer nie ma obowiązku utrzymywać gry na procesorach, gdzie explicite podał wymagania.
Jedyny problem to ten nieszczęsny Pentium.
Wystarczy kliknąć "parallelize render" w edytorze Unreala i już gra jest zoptymalizowana i jest szybciej. Tak było, nie zmyślam, "dziennikarze" growi niech lepiej o developmencie nic nie piszą
Dobrze że Microsoft™ kupuje developerów i wydawców, dzięki tak dużej firmie będą mieli kreatywną wolność a dzięki Xbox™ GamePass™ Microsoft™ nie musi patrzeć na wyniki finansowe poszczególnych gier, developerzy dzięki temu nie będą się musieli martwić o przyszłość. Welcome to the Family™
nie ma co sie dziwić skoro to creation engine używany od czasów morrowinda
To jak każdy silnik, myślisz, że UE5 (albo nawet 4) były pisane od zera?
Ludzie w kometarzach widzę nie zrozumieli czym te sześć godzin jest.
Nie, to nie jest czas instalacji aktualizacji na komputerze.
To średni czas, jaki potrzebuje komputer, by dostać aktualizację z serwerów Microsoftu, od momentu jej udostępnienia. W tym jest uwzględniony czas przede wszystkim czas oczekiwania na samo powiadomienie o aktualizacji.
Szybkość waszego komputera czy łącza internetowego ma zerowy wpływ na to, o czym ten gościu z Microsoftu mówi.
Ale wiesz, że wszyscy podwykonawcy Apple robią też dla innych firm?
Myślisz, że Sony, Microsoft, Nvidia, Samsung i cała reszta ferajny to gdzie swój sprzęt produkuje?
Kupując jakąkolwiek elektronikę wspierasz wyzysk ludzi z biednych krajów
QA nie naprawia bugów tylko je znajduje i raportuje
A zrobić taki filmik to kwestia kilku minut, można to zrobić na przerwie w pracy albo w domu, ponieważ - uwaga - nikt nie pracuje 24 godziny na dobę
SDK do konsol to co innego niż SDK do silnika, które obiecali.
SDK do konsol to zestaw narzędzi i bibliotek, które umożliwiają tworzenie gier na konsole. SDK do silnika pozwala na tworzenie modów do niego.
Uwielbiam jak osoby nie siedzące w silnikach do gier i temacie licencji do nich wypowiadają się na temat tego, że międzynarodowego korpo nie stać na to xD
Zwłaszcza, gdy UE4 używają znacznie mniejsze firmy a ta sama firma wydaje lekką ręką paręset milionów dolarów na dofinansowanie producenta tego silnika albo parę miliardów na portal z anime xD
Also, na cholerę wersji UE4 na której leci Days Gone plugin ze wsparciem Switcha potrzebny to ja nie wiem
Rosetta niby fajna, ale wszystko się sypie, jeśli program robi coś więcej niż benchmark, lub ma coś bardziej zaawansowanego niż rysowanie interfejsu.
Kurde, dlaczego mi o tym żaden ekspert z GoLa nie powiedział jak odpalałem projekt na UE4 na Roseccie i śmigało aż miło xD
Nie wiem jak system Microsoftu, ale na M1 odpalałem projekt na UE4 skompilowanym pod x86 i dawało to radę.
Zastosowanie ARM nie blokuje osiągnięcia wstecznej kompatybilności. Apple ma Rosettę, Microsoft ma swój system tłumaczenia skompilowanej na x86 binarki na ARM.
Gry na ARM pisze się dokładnie w taki sam sposób jak na x86, czasy wstawek assemblerowych minęły bezpowrotnie a zdecydowana większość intrinsiców, jeżeli w ogóle jest stosowana, jest podobna między obiema architekturami. To nie czasy PowerPC i zastanawiania się, czy coś jest big czy little endian
Xeon != Xenon. To zupełnie inne procesory na innej architekturze. X360 obok Xeona nie stał
Dyski SSD istnieją nie od dziś, ale zdecydowana większość gier jest tworzona pod sprzęt z HDD mającym transfer 100MB/s i ogromnym czasem dostępu.
Ale wiesz, że nawet jak konsola jest wydana to nadal są devkity? Ty myślisz, że na czym developerzy odpalają u siebie gry? Na normalnych konsumenckich konsolach?
Devkit to specjalna wersja konsoli dla developerów, która pozwala na uruchomienie niepodpisanego kodu.
UE4 przecież jest popularne, tona gier na nim stoi. I nie tylko, bo Disney tego używał chociażby przy produkcji Mandaloriana.
W przypadku kart graficznych wincy rdzeniuff zawsze działało, bo te obliczenia są łatwe do zrównoleglenia.
Gorzej z chipletami, ale jak widać z tym sobie poradzili.
Nasa już dawno przestała się bawić w śmieszne rakiety i zajmuje się poważniejszymi zadaniami.
Obudź mnie jak SpaceX opuści LEO.
Sony i Microsoft akurat dla swoich platform robią znacznie więcej niż Volvo dla swojej, przy okazji wydając jeszcze tonę gier
Twój znajomy może mieć twój numer w książce telefonicznej wraz z adresem e-mail i innymi danymi i później ją zsynchronizować z daną usługą.
Zarówno Google jak i Facebook mają tzw. ghost profiles. Nie musisz mieć u nich konta, by gromadzili to tobie dane.
Jesteś tak dużym przeciwnikiem nowości, że polecasz komuś najnowszego Radeona i Ryzena.
Portowanie aplikacji z iPada ma się nijak do tego, czy system obsługuje odpowiednie DRM czy nie.
Prawie pudło, tylko część sprawy jest o prowizję. Drugą częścią sprawy jest kwestia alternatywnych sklepów a raczej ich braku na iOS. No i dodatkowo - sprawa jest o prowizję właśnie ze względu na to, że na iOS można pobierać aplikacje tylko przez AppStore, z którego Apple bierze 30% prowizji od każdego zakupu (czy to aplikacja, abonament czy mikrotransakcje) i dodatkowo kasuje 99$+ rocznie za konto developerskie za możliwość wydania aplikacji i dostępu do bardziej zaawansowanych API (bo proste aplikacje z podstawowymi API można pisać za darmo). Ani jako developer ani jako konsument nie masz żadnej możliwości obejścia tego ograniczenia.*
EGS w żaden sposób się pod to nie łapie, podobnie jak Steam, bo operują w ramach otwartej platformy.
Steam to monopol, ale ich pozycja jest krucha, bo opierają się na otwartej platformie i nie zmuszają nikogo do używania swojego sklepu ani nawet swoich standardow (bo SteamAPI w większości przypadków można olać). MS i Google oberwali, bo albo wymuszali używanie swojej przeglądarki/standardów instalując ją domyslnie na ich systemie, albo używali kontraktów z producentami sprzętu do instalacji swojego oprogramowania na telefonach innych marek.
*Jailbreak się nie liczy, certyfikaty korporacyjne też nie, zwłaszcza że to ostatnie Apple może zdalnie zablokować, bo oni te certyfikaty wydają.
Na Epic Store by to miało taki wpływ, że mogliby stworzyć sklep na konsolach i urządzeniach Apple. Obecnie EGS jest dostępny na otwartej platformie i nie ma żadnego paragrafu zakazującego oferować produkty tylko w tym sklepie i w żadnym innym.
System lootu (otwieranie skrzynek zajmuje czas, czasem liczony w godzinach, można oczywiście sobie skrócić używając realnych pieniędzy) skreśla tę grę, a szkoda, bo wygląda naprawdę ładnie.
Po raz kolejny to pokaz, że gier mobilnych nie można traktować poważnie.
Bo smartfony z telefonami komórkowymi mają wspólne tyle, że potrafią wysyłać SMSy i dzwonić. Dla większości ludzi spokojnie zastępują PCta do konsumpcji treści.
@kaszanka9:
"Co za brednie, ktoś kto robi gry z palcem w tyłku zna vulkana."
xDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDD

W Warszawie jest kilka takich operatorów, z dużych to UPC lub Orange, z mniejszych lokalne kablówki.
@prekor: QD ma prawa tylko i wyłącznie do Heavy Rain. Detroit i Beyond należą do Sony (podobnie jak Journey, które na EGS też ma się pojawić).
Nie pogrzało, bo są chętni za zakup takiego telefonu w takiej cenie.
Dla osób, które uważają, że 7 tysięcy na telefon to dużo są inne, tańsze telefony. I osoby, które kupują takie telefony albo PC nie używają (i stąd mają na to pieniądze) albo stać ich na PC znacznie droższe niż za 7 tysięcy.
Czyli rozumiem, że każdego producenta czegokolwiek masz w tyłku?
Bo mam dla ciebie ciekawostkę - każdy producent ma coś lepszego w zanadrzu.
Bo PC ostatecznie nie są do grania.
spoiler start
podpowiem: gry z PlayStation na innych platformach nie wychodzą, bo nie jest to w interesie Sony, który jest producentem tej konsoli. Gry na PC wydawane są przez firmy, których w interesie leży wydanie gry jak największej liczbie ludzi, bo nie mają hajsu ze sprzedaży sprzętu
spoiler stop
Tak, a w tej bajce były smoki.
Prawda jest taka, że Vega to zła i prądożerna architektura i Nvidia w tym samym budżecie energetycznym potrafi sporo więcej.
Ta "nędzna" wydajność Nvidii w ray tracingu to wciąż więcej niż brak wsparcia dla technologii u AMD :>
Równie dobrze można się pytać na cholerę komu były sprzętowe T&L, programowalne shadery, zunifikowane shadery czy tesselacja, gdy wychodziły pierwsze karty z tymi technologiami.
Ba, można się pytać na cholerę komu GPU, przecież mocny procesor wystarczy, c'nie? To tylko dodatkowy dodatek krzemu, który trzeba kupić i nikt tego nie będzie używać /s
Nie wiem, gdzie ty masz podobny pobór mocy.
https://www.guru3d.com/articles_pages/geforce_rtx_2080_ti_founders_review,9.html
Dodajmy też, że ta Vega jest w znacznie nowszym procesie technologicznym, co miało się przełożyć na niższy pobór mocy a AMD nie ukrywa, że ma mieć ten sam, co Vega 64. Ta nowa krata pokazuje, jak AMD jest za Nvidią jeżeli chodzi o architekturę.
@hydzior: oferuje nieco lepsze sterowniki niż GeForce (od czasu Titana XP) + ma pełne FP16 do uczenia maszynowego. To nie jest karta do grania, chyba że ktoś koniecznie chce ją do tego kupić.
2499 USD.
No i to nie karta gamingowa, ale półprofesjonalna, więc target, który to kupuje raz, że na takie GPU stać, dwa, szybko im się inwestycja zwróci.
@A.l.e.X: Xbox One X nie ma lepszych tesktur od PS4 Pro, o czym zresztą mówiło Digital Foundry. Róznica jest spowodowana checkerboardingiem a to akurat spatchować można.
@Ogame_fan
Sama emulacja nie wystarcza do tego żeby naprawić kod gry skoro gra dzial a perfekcyjnie na emu i dostała spory update do jakosci to znaczy ze ten kod jednak nie jest zbyt zabalaganiony.
To, że emulator z podmienionymi libkami uruchamia grę i powoduje, że gra działa wydajniej/wygląda lepiej nie oznacza jeszcze, że kod gry jest w stanie, który umożliwia jego proste zrozumienie i sportowanie na inne platformy.
Just sayin'.
PS. Nie twierdzę, że RDR taki był, chociaż patrząc na development hell i fakt, że silnik RDR to sklejka trzech wersji silnika, wcale bym się nie zdziwił, gdyby bałagan mieli.
Nvidia i ich super technologie, które nic nie wnoszą, zawsze mordowały wydajność; nic nowego przecież.
Bo przecież GPGPU, T&L czy programowalne shadery to technologia, która nic nie wniosły.
Architektura kart 100 lat za murzynami
xDDDDDDDDDDD Niby kto ma technologię i architekturę lepszą od Nvidii jeżeli chodzi o GPU? Bo na pewno nie AyyMD.
B-b-b-b-ut mah async compute. AMD nie potrafi sobie nawet poradzić z tiled rendering i primitive shaders w Vedze, mają żałośnie mało ROPów a ich tesselatory ssą od samego początku xD
optymalizacja skopana
Rozumiem, że widziałeś kod i odpalałeś grę w profilerze, by wiedzieć cokolwiek o tym, jak jest zoptymalizowana? xDDDD
Patrząc na to, że wg informacji RTX 2080Ti ma problem z FHD i 60FPSami z RT w Tomb Raiderze, to na 1080Ti sobie z RT w ogóle komfortowo nie pograsz. Brak tensor cores i jednostek do ray tracing dobije tę kartę.
Ale techdemko SW z RT było odpalane na trzech gtxach, a nie RTX'ach, co świadczy o tym, że działa.
Mówimy o tym demie Star Wars na UE4? To nie były GTXy, tylko Tesle V100 (kosztujące +/- 9000 dolarów każda) i nie trzy, tylko cztery i wyciągały mniej niż 30FPS w FHD. V100 to mocniejsze karty niż 1080TI i w dodatku mające jeszcze jedną rzecz, której 1080Ti nie ma - tensor cores. To samo demo leciało w podobnej jakości i frameracie na jednym 2080TI. Więc jak ty chcesz mieć RT w odpowiedniej płynności na jednym Pascalu, to nie wiem.
To, że coś wymaga dużo mocy obliczeniowej nie oznacza jeszcze, że jest słabo zoptymalizowane
nie dostały bo były już na rynku / Rise of the Tomb Raider był przepisany dla XO dlatego dostał HDR,
Nie był nigdzie "przepisany". Dodanie obsługi konsol w wersji + (nazwijmy tak PS4 Pro i XBO X) nie wymaga tak wielkich nakładów pracy. Już nie wspomnę o jednej rzeczy:
https://developer.nvidia.com/implementing-hdr-rise-tomb-raider
O tej. O ile wiem patch do ROTR na PC nigdy nie został wydany, ale obecnie bez PCta nie mogę tego u siebie potwierdzić.
Wiedźmin III ma b. słabo dodane HDR i też jest to dodane patche, wprowadzenie HDR w wersji pełnej do Wiedźmina III dla PC to masę zasobów
Ale HDR ma. No i dodatkowo - słaba implementacja =/= niepełna implementacja.
bo akurat pctowcy oceniali by to bardzo dokładnie.
Fanbojskie pierdololo.
Gears of War 4 nie dostał wiadomo dlaczego
Patrz wyżej - bo HDR na PC to jeden wielki bałagan.
Wszystkie nowe będą miały HDR tak samo jak na konsolach.
Ja temu gdzieś zaprzeczam? Mi chodzi o to, że dopóki konsole z RT nie ruszą, to wsparcie dla RT będzie ograniczone tylko do wybranych gier. A jeżeli Microsoft/AMD/Nvidia będą sobie nawzajem przeszkadzały (np. to, co się działo na Nvidiach po wydaniu W10 1803), to RT w grach sobie poczeka jeszcze długo.
A co do HDR na PC - fajnie, że jest tyle tytułów - ale konsole mają ich więcej i obsługiwały technologię znacznie wcześniej.
@A.l.e.X
Hellblade nie dostał, Rise of the Tomb Raider nie dostał (a miał dostać), podobnie Gears of War 4, Sea of Thieves, Wiedźmin 3 i mnóstwo innych na konsolach HDR mają a na PC nie. Pod tym względem PC jest straszliwie opóźniony.
VESA HDR to standard specyfikacji monitorów i ma się nijak do tego, jak sterownik graficzny, system operacyjny i API graficzne obsługują HDR.
@Marcus06: HDR jest już obecny w praktycznie każdej większej grze na konsolach. Na PC nie, bo jak zwykle jest bałagan a to w systemie a to w sterownikach a monitorów zgodnych z HDR praktycznie nie ma. Ba, są gry, które obsługują HDR na konsolach a na PC nie, bo nikomu nie chce się babrać w bałagan, który narobił Microsoft.
RT też się pojawi, bo to nie dodatek jak PhysX - RT jest obsługiwany zarówno przez DirectX jak i Vulkana. Ale najpierw muszą zacząć obsługiwać to konsole.
Zwiekszona przepustowość VRAMu nie oznacza, że gra będzie mieć mniejsze zużycie pamięci.
Nie żeby coś, ale EA zabiło C&C już lata temu.
Teraz to po prostu granie na emocjach graczy i podpinanie znanej marki pod grupę docelową, która serii kompletnie nie kojarzy.
Abstrahując już całkowicie od tego, że PUBG to nie jest szczyt jakości grafiki...
xDDDDD
Nie wiem, w którym miejscu wersja mobilna wygląda podobnie do konsolowej, ale to nie jest ta rzeczywistość.
A co do tematu newsa - Kolejny bezsensowny telefon, który dodatkowo zostanie zabity polityką aktualizacji a raczej ich brakiem.
CPU to Phenom II?
Obstawiam brak obsługi nowszych wersji instrukcji SSE.
I dla przypomnienia, filmik w którym występują trzy cylindry.
Tylko że Ray tracing na Keplerach był w znacznie niższej jakości (mniej promieni, mniejsza precyzja) niż to, co osiąga Volta.
I uwaga, na razie nikt kart dla konsumentów nie reklamuje. Technologia została pokazana na GDC a nie na E3 czy jakiejś dedykowanej zapowiedzi GeForce'ów.
Teselacja jest używana cały czas, ale ze względu na to, że Radeony wydajnością w tym nie grzeszą (a te są także w konsolach), to nie używa się tego na potęgę. Dodatkowo nie zawsze teselacja ma sens.
Dlaczego najlepiej wyglądające współczesne gry, to jest prawdziwy Next-Gen, są zrobione przez dość niewielkie studia ? Mówię tu o Horizon Zero Dawn (Guerrilla Games) i Hellblade: Senua's Sacrifice (Ninja Theory). A w tym samym czasie duże studia, z górą pieniędzy, odwalają kaszanę w stylu ME Andromeda.
GG to nie jest małe studio. Dodatkowo to firma, która ma za sobą całe zaplecze producenta konsoli, na którą gra docelowo powstaje.
Ninja Theory z kolei tworzy grę na gotowym silniku. Owszem, skilla mają i ogarniają silnik, ale to wciąż cudza technologia, której potencjał jest znany. Mass Effect Andromeda z kolei to przykład zepsutego zarządzania (przesiadka z 3DS Maxa na Mayę w połowie projektu), braku finalnej wizji, czym gra ma być i wykorzystywania niedostosowanej do danej gry technologii (Frostbite).
I kolejna sprawa - VXGI to nie jest ray-tracing. To aproksymacja tego procesu.
Also, to, że coś w silniku jest nie oznacza jeszcze, że działa dobrze i jest dobrze przetestowane.
Ale to jest rzeczywisty rozwój grafiki.
Ktoś te wszystkie technologie wykorzystywane w grach musi stworzyć i światu zaprezentować, by developerzy zaczęli ich używać.
Jedna mała uwaga - GPU przestają być potrzebne do kopania kryptowalut w momencie znalezienia metody, jak obliczyć sprzętowo danych algorytm dedykowanym układem (ASICi - Application Specific Integrated Circuit). Bitcoinów już dawno na GPU się nie kopie, paru innych popularnych kryptowalut (Litecoin m. in.) również.
De facto utrzymują sieć danej kryptowaluty szyfrując transakcję (w uproszczeniu) a w nagrodę za to otrzymują parę groszy.
Quad SLI z Pascali nie jest wspierane, więc żaden developer nie będzie pod to silnika modyfikował. To nie ma nic wspólnego z lenistwem.
Besides, quad sli wymaga naprawdę mocnego procesora i wcale nie masz gwarancji, że wszystko będzie się dobrze w silniku skalować.
Abstrachując od tego, że bankomaty są podpięte do Internetu i można je zaktualizować...
Procesory w bankomatach to zwykle proste jednostki są (głównie x86), nie zawierające sprzętowych funkcji, które są powodem tych błędów.
Napisz lepsze gry/stwórz lepszy procesor, o wielki deweloperze ;). Soft do tego masz dostępny w sieci, często za darmo. Śmiało, pokaż co potrafisz xD
Jakbyś przeczytał opisy błędów, to wiedziałbyś, że było to niesamowicie trudne do odkrycia. Takich nieodkrytych błędów jest mnóstwo.
Poza tym, druga amerykańska firma (AMD) jakoś podatna na to nie jest. Nie każdy błąd sprzętowy w procesorze to dziura NSA/CIA/innej trzyliterowej organizacji.
W grach po tej poprawce nie będzie 30% spadku wydajności u Intela. 30% było tylko w bardzo specyficznych testach i aplikacjach, które 99% użytkowników komputera na oczy nie widziała.
Może poczytasz o tym błędzie (a raczej błędach) zamiast pieprzyć o spisku?
Już nie mówię o tym, że Google/Amazon/Microsoft na pewno pozwoliłby na coś takiego Intelowi a to jego najwięksi klienci.
No to wybierasz starszy system i nie masz DX12, taka wada starych systemów, że się ich nie wspiera.
A teraz weź swoją kartę, pobierz jakiś benchmark cuDNN i zobacz jak twoja karta za 2 tysiące jest wydajna w porównaniu do tej xD To nie jest GPU do gier.
O FP64 nie wspominam nawet, bo idę o zakład, że twój Geforce ma jakiś ułamek wydajności tej karty.
Kek.
To nie jest karta dla graczy a jedyne wydajniejsze GPU od tego w deep learningu kosztuje 10 tysięcy dolarów. I nie potrafi wyświetlić obrazu. 3 tysiące dolarów za Titana V to wręcz okazja dla osób, które wiedzą, do czego tę kartę wykorzystać, bo wiedzą, że świat nie kończy się tylko na gierkach.
Te 100TFLOPS jest w obliczeniach na macierzach w przypadku uczenia maszynowego. Do gier masz +/- 14TFLOPS.
Cena akcji Apple'a na małym minusie, czyli konferencja nie zrobiła dobrego wrażenia
Ale wiesz, że akcje Apple spadają po każdym keynote, włącznie z keynote, na którym zapowiedzieli pierwszego iPhone'a?
Jeszcze dzisiejsze zerowanie na dorobku Steva Jobsa, sorry ale do Jobsa to wy do butow nie dorastacie i to co zrobiliscie z jego firma to zenada.
Co niby zrobili? To jest dokładnie to, czego chciał Jobs. Apple to obecnie najbogatsza firma świata, to co robią się sprzedaje, ludzie tego chcą, to robią tego jeszcze więcej.
Przecież ten obrazek to manipulacja. Pasek Start w W10 wygląda tak tylko, gdy go tak ustawimy (na pełen ekran) lub będziemy w trybie tabletu. Kogo chcesz nabrać?
Nie, nie można. Sposób backupowania Androida jest 100 lat za Apple.
Mowa tu o oficjalnych sposobach a nie rozwiązaniach pokroju Titanium Backup.
Podawanie tam wyżej w komentarzach Indii, Brazylii i Rosji jako krajów, gdzie da się gry sprzedawać taniej...
Polecam zobaczyć ich PKB, ich skalę piractwa i liczbę mieszkańców i jakim kosztem te gry są tańsze (za blokadą regionalną), by się dowiedzieć, dlaczego w Polsce tego nie będzie. To + fakt, że jesteśmy w UE.
Pudło. Posiadanie "kopii zapasowych" oprogramowania (w tym gier) na własny użytek bez posiadania oryginału nie jest legalne.
Ty zdajesz sobie sprawę z tego, jak kosztowna pod względem obliczeń jest implementacja luster w nowoczesnym silniki graficznym?
1080Ti jest podane dla wymagań Ultra, które Microsoft podaje dla 4K. W rekomendowanych jest 1060. 770 Wiedźmina 3 w 4K na najwyższych detalach nie uciągnie.
Ale widzę, że jesteś ekspertem w sprawie optymalizacji xD
@kaszanka9:
Rynek gier na PC ciągnie F2P i Azja. Bez tego wyglądałoby to słabo. AAA konsolami stoi, nawet twoje dane to pokazują xD
Już pominę tu fakt, że większość tych zysków na PC zbiera kilka gier (Crossfire, LoL, Dota). Reszta ma mizerny zysk.
Pomijając oceny tego drugiego - gdyby odniosły sukces, to Crytek byłby w lepszej sytuacji finansowej niż jest teraz i nie musiałby zamykać swoich studiów, zostawiając jedynie dwa.
Ja to wiem przecież xD Ale ja cały czas piszę o tym, co wprowadza standard, który będzie wykorzystywany a nie samym HDR, którego nikt pewnie nie wprowadzi (chyba że Sony w klasycznym PS4, ale tam też jest chyba HDR10).
W10 natywnie tego nie obsługuje (jeszcze - ma być update) - możesz włączyć to tylko we wspieranych grach (Tomb Raider i Shadow Warrior) na wspieranym sprzęcie (czyli u Nvidii Maxwell w górę, u AMD Radeony od serii 300 bodajże).
@kaszanka9: poszerzona paleta kolorów ma ze standardem HDR wiele wspólnego właśnie, bo standard HDR10, który jest używany (i DV) jej wymagają ;)
Akurat poszerzoną paletę widać doskonale zwłaszcza w przejściach między kolorami - w przypadku 8 bitów widoczny jest bardzo często tzw. color banding, którego nie widać już tak bardzo w przypadku 10 bitów+. HDR dla mnie to o wiele bardziej rewolucyjna technologia niż bezmyślne zwiększanie rozdzielczości.
HDR to nie jest "gimmick" a znacząco poprawia jakość obrazu, zwłaszcza w kombinacji z poszerzoną paletą kolorów, jaką oferuje HDR10 (bo tylko ten standard na PC jest realny, Dolby Vision jest wręcz niemożliwy, bo wątpię czy AMD/Nvidia będą montować chipy od Dolby na GPU). Polecam zobaczyć dobry wyświetlacz z HDR, by zrozumieć różnicę.
Ty w ogóle widziałeś materiał, czy rzucasz idiotycznym i ignoranckim memem?
Obecnie nawet nie ma gamingowych monitorów zgodnych z HDR xD
Kompaktowy i mocny smartfon?
Odpowiedź jest tylko jedna -> iPhone SE. Xperia X Compact zupełnie nie ma sensu a Z5C cholernie się przegrzewa (810 robi swoje). Reszta producentów kompletnie olewa temat.
Odróżnij renderowanie oświetlenia HDR od wyświetlania tego HDR na ekranie. W grach dotychczas i tak trzeba było zmapować to wszystko do standardowego, SDRowego wyświetlacza.
Ale wiesz, że ostatnie fazy robienia gry to fixowanie bugów a artyści, scenarzyści i cała reszta w tym procesie zwykle nie uczestniczy? Coś muszą robić, nie będzie nikt im płacił za nic, zwolnić też ich nikt nie zwolni.
Bardzo drastycznie. Szukaj telefonu na 808 (który pod obciążeniem radzi sobie lepiej niż 810, chociaż jest słabszy) lub 820. Ewentualnie kupuj coś na Kirinie lub Exynosie.
Poczytaj o czymś takim jak checkerboard rendering (wykorzystane chyba w multi w KZ: Shadowfall gdzie dopiero po miesiącu się zorientowano, że ten tryb w FHD nie chodzi)
Nie musi, ale w przypadku telewizorów i standardu HDR10 (a ten jest w PS4P i XBOS) już musi. Dolby Vision to już chyba nawet więcej.
Kek, bo ty myślisz, że gra jest skończona i momentalnie pojawia się w sklepach i nie ma wcale kilku tygodni przerwy od czasu osiągnięcia Golda do wydania gry xD
Akurat w głowie miałem głównie Megatonę czy Diamond City. Oni też żyją tam jak żule, nie mają żadnych życiowych ambicji, jakby dzień i noc nie przestawali palić marihuany. Spójrzmy na przykład na to, że wszystko jest zrobione z blachy, pordzewiałej, to groźne dla życia i trudno żyć w takich warunkach. Czy naprawdę nie mają pojęcia o przetwarzaniu surowców naturalnych żeby 200 lat po wojnie zacząć tworzyć jakieś cywilizacyjne zalążki chociażby w budownictwie?
Problemem jest tutaj głównie sama Bethesda. W Falloucie 2 zalążki cywilizacji zaczęły już powstawać na nowo. Bethesda uznała, że to nie ma sensu i cofną serię w rozwoju (czy tam raczej świat -> stąd te szkielety niesprzątnięte po 200 latach).
Oni sobie egzystują w tym świecie jak kompletne zwierzęta skupione tylko na tym, by przeżyć kolejny dzień, bez jakiejkolwiek dawki estetyki czy ambicji odbudowy skończonego świata. Przeważnie ludzie zabierają się za odbudowę zniszczeń mniej więcej dzień po skończeniu wojny, tymczasem bejowie ze świata Fallouta najwyraźniej nie mają bladego pojęcia o świecie, cofając się w rozwoju o jakieś 6000 lat i korzystając jedynie z dorobku przodków.
Do odbudowy potrzeba technologii i wiedzy a ta w większości zniknęła po wojnie z 2077 roku i niewiele jest grup, które zajmują się jej odzyskaniem. A jak już to robią, to się rzadko dzielą z innymi (BoS).
Klasyczny argument.
Brakuje jeszcze mówienia o tym, że zainstalowali tylko dla sprawdzenia i zaraz odinstalują, by wrócić to Windows 7 xD
Pogódź się z tym, że wśród graczy Win10 zaczyna wygrywać z Win7. Ba, za Win7 nie ma żadnego argumentu by zostać, także dla zwykłego użytkownika i profesjonalistów (no co niby? Brak virtual desktop? Brak porządnego cmd line'a? Brak wsparcia dla DX12? Brak porządnego wsparcia dla wielu monitorów?)
Czym innym jest podstawowe działanie PCta a czym innym jest pełne i poprawne działanie.
Podobnie jak kwestia uruchomienia gołego systemu bez OSu (za co odpowiada BIOS/UEFI/później instalator systemu, bo to on ładuje początkowe sterowniki) a działanie OSu na tym komputerze (do czego potrzebny jest sterownik, albo generyczny albo od producenta).
Powodzenia w poprawnym działaniu komputera, gdy nie bedzie do niego sterowników (zwłaszcza chipset) xD
@niesmiertelny21: jak się pisze bzdury to się nie dziw, że to poprawiam. I nie wyśmiewam użytkowników ze słabym sprzętem, gdzie niby ja to robię? Cytaty poproszę.
A raportowałem cię na gramie całkiem zasłużenie, bo trollowałeś.
Fanboje i tak kupią, jednocześnie twierdząc, że DICE i EA dbają o graczy, nie to co Activision
970 to już średniak patrząc na to, co oferuje Nvidia. Ta karta ma ponad rok i wyszło już od cholery wydajniejszych kart od niej.
Zarówno Doom jak i W3 nie posiadają kilku efektów, które DE posiada i które wymagają mocnego sprzętu.
Użyj opcji, po to są.
A jeżeli chodzi o kwestię rozszerzeń - graj dalej. Spoilerować nie będę.
Bo używa wymagających efektów a nie ma słabą optymalizację. No ale lepiej by było, gdyby Nixxes wyciął te efekty i zastąpił prostszymi (albo w ogóle alternatyw nie dał). Wtedy gawiedź by się cieszyła, że ma 100FPS na Ultra w kosmicznej rozdzielczości
@Camelson: a skąd wiesz, że nie przetestowałem?
Wszystko na Ultra + MSAAx8 daje w 1440p moim dwóm podkręconym Titan Xom 20FPS w pierwszej lokacji.
Pascale mam w planach, ale na razie mam inne zakupy na głowie i przeprowadzkę z Krakowa do Warszawy.
No i magisterkę na głowie i nie chcę zmieniać Maxwella na Pascale, żeby mi jakieś bugi przy niej wyszły (CUDA).
A z Twojego wykresu nie wynika jakie jest miejsce testowe. Na początku mam 20FPS, potem jest lepiej. Ale długo nie grałem.
Opcje graficzne ustawione wszystko na prawo? Jaka rozdzielczość? MSAA włączone?
Bo gra w 1440p ze wszystkim na max (każdą jedną opcją) na dwóch Titan Xach Maxwell i podkręconym 5960x ma 20FPS.
W tym temacie - ludzie myślą, że jak mają GF970 to każda gra ma im na Ultra chodzić i nie mają zielonego pojęcia jak niektóre algorytmy są wymagające względem sprzętu (cienie na Ultra w DE mordują FPS).
Nie wiedzą też, że istnieją suwaki detali, by je obniżyć do zadowalającego poziomu FPS.
Bo ludzie myślą, że jak mają GF970 to nagle każda gra ma im na Ultra chodzić w 1080p w 60FPS niezależnie od tego, co Ultra sobą reprezentują. A w DE akurat cienie na tych ustawieniach zabiją każdą grafikę - i nie ma to nic wspólnego ze słabą optymalizacją - tyle po prostu to wymaga.
A to już kwestia popularności telefonu bardziej, bo Sony open sourcową społeczność wspiera.
Also, kiedy będziesz dostępny na Battle-necie? :D
Wsparcie pod jakim względem? Serwis/helpdeks czy wsparcie pod względem aktualizacji?
Bo jeżeli chodzi o to drugie, to Sony z Samsungiem wygrywa i bije ich na głowę, zarówno czasem wsparcia jak i dodatkowymi bajerami (ot, chociażby N Developer Preview na Z3).
Tak czy inaczej, jak ktoś ma do wyboru X Performance i S7E, to wybór jest oczywisty - S7E.
Każda desktopowa aplikacja na WIndowsie korzysta z Win32 w ten czy inny sposób (pomijam UWP, ale to nowość*). To się tyczy zarówno gier jak i innych programów,
A MS tak szybko Win32 nie zabije, bo raz, że od cholery klientów biznesowych mają, którzy mają tonę softu pisanego pod to, a dwa, oni sami mają taki soft (ot, chociażby Visual Studio, a wątpię, czy ktokolwiek wyłoży u nich hajs na pisanie/portowanie IDE pod UWP, gdy nawet VS nie ma wersji 64 bitowej).
*Żeby było śmieszniej, UWP też korzysta z Win32.
@alchemiakr:
Ale wiesz, że Jedi Knighty wychodziły na konsole? Republic Commando też, KotOR powstawał jako exclusive na Xboksa. Ale hurr, durr, konsolowe gnioty.
Rany boskie, co za bzdury. Następcą jest karta, która jest pozycjonowana tak samo w serii jak poprzednik. A 1080Ti i Titan Pascal mają wyjść, ergo 1060 to następca 960 a nie 970. Równie dobrze można pisać bzdury jak to 1070 jest następcą Titana X, bo przecież to ta sama wydajność (bo przecież osoba chcąca kupić taką kartę na pewno kupi tańszą zamiast czekać na pełnoprawnego i wydajniejszego nowego Titana) xD
Dlatego:
Titan lub Black -> Titan X (aczkolwiek Titan Blacka można traktować jako anomalię. Titan Z z kolei następcy nigdy nie dostał).
780Ti - 980Ti
780 - 980
770 - 970
760 - 960
Itd. To jest oficjalne pozycjonowanie GPU przez nVidię i aplikowanie do nich śmiesznych pułapów cenowych nie ma najmniejszego sensu, bo ceny się zmieniają. Seria 900 była tańsza niż poprzednicy (przykładowo 970 to była najtańsza karta w tym segmencie od Nvidii, bo kosztowała 329 dolarów zamiast zwyczajowych 379/399 jak praktycznie każdy jej poprzednik do serii 8000 włącznie - głównie dzięki temu, że leciała na starym 28nm procesie). A tego samego powodu też następcą iPhone'a 5 jest iPhone 5S a nie 5C. Tak samo jak następcą 5S jest iP6 a nie SE i nie 6+.
Ale wiesz, że istnieją techniki takie jak ray-tracing, które pozwalają praktycznie na fotorealizm? I renderuje się wtedy klatka w parę minut do paru godzin na renderfarmie a nie śmiesznym gamingowym PCciku.
A co do tego przywracania zabitych postaci - podasz jakiś przykład? :)
spoiler start
Leliana - możliwa do zabicia w Origins, powraca do życia w dwójce i Inkwizycji. Celowy retcon.
Morrigan - do zabicia w Witch Hunt, ale tu Bioware sprytnie zrobiło -> wpada w Eluvian
Zevran - do zabicia w Origins, wraca w DA2. Podobno bug w imporcie, ale o ile wiem tego nie naprawili
spoiler stop
CD Projekt RED poszedł po linii najmniejszego oporu, zamiast wziąć przykład chociażby z BioWare, które w trylogii Mass Effect potrafiło ciągnąć z gry na grę nawet najmniejsze wątki, przenosząc konsekwencje naszych decyzji.
Hola, hola, hola, tak daleko to bym się nie zapędzał, bo Mass Effecty to akurat przykład jak koncertowo spieprzyć możliwość, jaką daje import zapisu stanu gry z poprzednich części (przoduje w tym zwłaszcza trójka). Tu jest dokładnie to samo - postacie kluczowe dla poprzednich części albo są wspomniane w logach/mailach albo co najwyżej dają zadanie do wykonania (poza kilkoma wyjątkami, które są na zawsze w drużynie). Podobna sprawa tyczy się też Dragon Age'a, gdzie Bioware poszło o krok dalej, przywracając zabite postacie, gdy im to pasowało.
To nie jest mocniejsza wersja tylko Slim. Mocniejsza została zapowiedziana dosłownie przed chwilą i wychodzi w przyszłym roku.
Cena 970 w trakcie premiery (329 dolarów - poprzednicy, czyli 770 i 670 to już 399$)
Kurs dolara we wrześniu 2014 - 3,25 zł
Cena 1070 - 379 dolarów
Kurs obecny dolara - 3,95 zł.
@kaszanka: to ty byłeś tym co na wykopie zarzekał się, że 1060 to następca 970, mimo że to zupełnie inny segment rynku i że 1060 to będzie highendowym GPU, bo zapewni 1080@60 na wysokich w grach i dlatego to high-end?
Może jeszcze twierdzisz że następcą iPhone 5 był 5C a nie 5S, bo był tak samo wydajny ale tańszy? xD
@Imrahil8888
niektórzy do teraz nie mogą pojąć, że są mody i ważniejsze zmiana rozdzielczości.
No fajnie, są mody. Ale twórcy gier na PC jakoś tego nie wprowadzają z tych czy innych powodów. A rozdzielczość? Co mi nawet po 16K, jeżeli dbałość o detale w reszcie gier ma się nijak do tego, co robi ND w swoich grach? Sorry panowie, ale ND pozostałych developerów zwyczajnie ośmiesza (no, poza Rockstarem i po części CDPR).
Hurr durr, a ile z nich to zainstalowało do testów a potem odinstalowało?
spoiler start
Pamiętam jak pojawił się pierwszy news o paru milionach instalacji, to co drugi komentarz był, że tylko sprawdzą i wrócą do Win7. Coś wracać nie chcą
spoiler stop
@kaszanka9:
CDPR jak widać wie jak zrobić to tanio i dobrze, wystarczy to powtórzyć.
Nie dziw się, że mają tanie koszty produkcji, gdy zarobki mają dostosowane do polskich realiów a nie zachodnich (a i tak budżet W3 jak na nasze warunki był zwyczajnie ogromny). Równie dobrze można mówić, że Metro Ukraińcom wyszło taniej niż Doom. No owszem, wyszło, ale w id zarabia się więcej, i to znacznie.
Języki - wszystkie (chociaż C przy C++ można sobie raczej odpuścić), dorzucić do tego dodatkowo Javę i jakiś język funkcyjny (jak Haskell lub Erlang). Zamykanie się w jednym języku nie ma sensu a jak koniecznie chcesz to zrobić - zapytaj samego siebie, co chcesz kodzić i znajdź najlepszy język do tych zastosowań (bo stron internetowych w C++ raczej nie chcesz pisać, można, ale po co?).
>2016
>granie w gry dla fabuły
Jak ktoś chce fabuły, to niech leci do ambitnego kina lub książek, bo w grrach od zawsze najważniejszy był gameplay. Fabuła to tylko pretekst.
Symfonia C++ od lat nie nadaje się do porządnej nauki C++ (programowania zresztą też nie, są lepsze książki).
Myszki też w parze z FPSami nie szły. Kto to widział w ogólę myszkę do komputera mieć. Dawniej w FPSy grało się tylko na klawiaturze.
Płyty są wciąż tańsze w produkcji niż pamięć flash per GB.
Płyty to tłoczony kawałek plastiku i folii. Kartridż musi mieć obudowę, elektronikę (w sensie samą pamięć), kontroler a potem trzeba zawartość zaprogramować. Koszty są nieporównywalnie większe przy masowej skali produkcji nośnika.
W przypadku VR manipulują przy viewportach co daje nieproporcjonalny wzrost wydajności.
A następcy Titanów to chyba dopiero przyszły rok.
Ale co mnie obchodzi, że realiów jeszcze nie było (ale były - choćby Verdun i fragmenty Darkest of Dayse), skoro w grę będzie się grało dokładnie tak samo, jak w poprzedników? W grach liczy się głównie gameplay a po wszystkich BFah, w które grałem (od BF1942) seria mnie zwyczajnie nudzi.
Gameplayowo to niczym wyróżniać się nie będzie. Jedyną różnicą jest setting. Czym to się różni od zmieniania settingu co 2-3 części CoDa?
Co tutaj jest takiego nowego?
Rany boskie, jak niektórych łatwo zadowolić i spowodować, że zapomną o braku contentu w Battlefroncie, słabości Hardline i zabugowaniu BF4 xD
Darowizny, reklamy, sprzedaż danych osobowych, dofinansowanie od rządu lub korporacji, kasa za wdrożenia, wsparcie techniczne lub licencje za komercyjne użytkowanie.
Ewentualnie oprogramowanie jest robione po godzinach i programiści zarabiają na normalnym etacie/z innego softu.
The PS3 hasn't had BC since 2007/2008 ! The 2006 launch models the 20GB and 60GB and a 2007 80GB models are the only 3 BC PS3 models ! Sony removed the BC feature after 2007/2008 !
Nowe modele nie miały, jak ktoś posiadał któryś z tej trójki, to mógł w gry z PS2 grać w zawsze. Sony nic nie usunęło. BC to zawsze był dodatek. Kompatybilność była hardware'owa, w nowych modelach HW nie było. Przestań szerzyć jakieś bzdurne mity.
PS. Wiem, bo w zeszłym roku jeszcze miałem 60GB wersję PS3 z aktualnym softem. Widać, że nie masz pojęcia o temacie.
Normalne wymagania. To, że oryginał wyszedł w 2006 roku nie oznacza, że ma mieć wymagania z 2006 roku. Assety się zmieniły, renderer też. Jakby to się nie zmieniło, to należałoby oczekiwać starych wymagań a tak -> nie. Ale po co ja się wysilam.
Dobry żart. Już na screenach widać, że Battlefront ma lepszą roślinność a Unity znacznie większą dbałość o detale (już nie mówiąc o tym, że Unity nie ma paru NPCów na ekranie na krzyż a setki). To ty żyj dalek urojeniami, że na rynku nie ma nic ładniejszego od Crysisa. Ten tytuł już nawet geometrią nie zachwyca (skały!) a co dopiero efektami (brak PBR robi swoje). Jest ładny, ale tylko tyle.
Jak zakup przyszłościowy to raczej iPhone 6/6 Plus, bo przynajmniej nie ubiją supportu po 18 miesiącach. Ale to wymagałoby przesiadki na inny system.
W innym wypadku raczej Xperia Z3. SGS6 ma tendencję do mulenia.
Przeiceż to, co pokazałeś tutaj nie zachwyca (albo światło wali centralnie w oczy i kryje wszystko), albo pokazuje wodę, którą na głowę bije woda chociażby z GTAV (i to nie tylko jeżeli chodzi o wygląd, ale także samo zachowanie) lub Watch Dogs. Jeżeli chodzi o oświetlenie, to już AC: Unity robi swoje, podobnie jeżeli chodzi o dbałość o detale.
http://i.minus.com/igjwooyfwHvIS.jpg
https://i.ytimg.com/vi/gbCUDtcJS4U/maxresdefault.jpg
No i jest jeszcze SW: Battlefront:
https://c2.staticflickr.com/6/5702/22662870807_2d5c4b4ec8_o.png
https://c1.staticflickr.com/1/597/22458447234_98a12e4bc3_o.png
Nie przegonią jeżeli chodzi o GPU, przegonią jeżeli chodzi o CPU, bo Jaguary to kupa o mizernej wydajności, którą bije już układ ARM obecny w iPadzie Pro.
Jeszcze inną kwestią jest utrzymanie tej mocy w telefonie, bo większość nie potrafi trzymać SoCa na pełnym zegarze przez więcej niż dwie minuty.
Odpalone na dwóch Titan Xach. Uwierz mi, ja doskonale wiem, jak ta gra wygląda. Obecnie grafiką nie zachwyca, już dawno większość produkcji poszła dalej jeżeli chodzi o zaawansowanie silnika graficznego.
Lol, ludzie wciąż myślą, że pierwszy Crisis to wciąż najładniejsza gra i nie wyszło nic ładniejszego i technicznie zaawansowanego? Polecam tę grę odpalić teraz i się przekonać, jak bardzo się mylicie. Ta gra zestarzała i w niektórych miejscach graficznie wręcz straszy.
Jak nie wspierają DX12 jak wspierają? Ty wiesz w ogóle o co chodzi z tier levels, feature levels, itp? To, że nie ma wsparcia Tiled Resources w wersji Tier 3, to nie oznacza jeszcze, że karta DX12 nie wspiera.
PS. Hardware'owo DX12 nvidia wspiera. Async compute to nie jest wszystko, co ma to API do zaoferowania.
PS2. AMD ma dużo do nadrobienia, bo ich sterownik dla DX11 jest tragiczny. Nvidia takiego problemu nie ma - w DX11 dobrze się skalują z wieloma rdzeniami.
PS3. AMD z kolei nie wspiera feature_level 12_1 a Nvidia tak. Także tego ;)
Bo Microsoft wydaje te gry na PC z dobroci serca a nie dlatego, że chce, by ludzie przesiedli się na Windowsa 10 xD
Im właśnie chodzi o to, że wymienią, ale nie będą mogli na tym przestarzałego systemu zainstalować, albo będzie działał średnio, bo nikt sterowników nie będzie pod ten system robił.
Działać to sobie będzie, ale jak dla starszych Windowsów pod nowe układy nikt sterowników nie dostarczy i sam system nie będzie obsługiwał chociażby wszystkich stanów procesora, to wykorzystanie takiego PCta będzie raczej średnie.
Większość PCtów (a nawet wszystkie) w real-time takiej destrukcji otoczenia nie uciągną, zwłaszcza że wg tej plotki miała nie być oskryptowana jak w Bad Company 2. A tu jeszcze open-world. To mokry sen jakiegoś fana HL.
Co do argumentu o tym, że Komorowski nie pozwał Sumlińskiego - gdyby go pozwał i wygrał, to prawica momentalnie zaczęłaby płakać o kupionych sądach i sędziach z układu. Proszę was.
IMO ten plagiat całkowicie skreśla autora i przekreśla jego wiarygodność a zwłaszcza już obrona tego zerżnięcia cudzego dorobku autorskiego (no ale teraz to służby go atakujo i próbujo zdyskredytować!!111one)
Stanieje w czasie, tak jak telewizory FullHD, napędy Blu-Ray, dyski SSD czy monitory IPS. Wszystko to kosztowało na samym początku krocie, obecnie jest dostępne dla zwykłych śmiertelników. Nikt wam do głowy broni nie przystawia, by kupować OR.
I lol @ludzie, którzy mówią, że za cenę gogli można kupić PCta z GF970. No można, tylko co z tego, skoro będzie bez gogli i nie da tego samego?
ME1 również miało ten sam problem, ale dodatkowo dobijało to, że lokacje są bliźniaczo podobne żeby nie powiedzieć takie same, zwłaszcza w przypadku questów pobocznych.
Ja rozumiem, że kolonie powstawały na bazie modułowych budynków, ale w ME2 jakoś nie przeszkadzało im jednak trochę lepiej te bazy na poszczególnych planetach zaprojektować.
Klimat pierwszego ME pokochałem, ale z gameplayowego punktu widzenia czy designu poziomów ta gra to dno dna. ME2 zrobił to o wiele lepiej i jeżeli chodzi o rozwój postaci nawet nie próbował udawać ambitnego RPGa. Większość statystyk w pierwszym Mass Effect można spokojnie wyrzucić. Pod względem broni i ich balansu gra też ssała - broń Spectre + Snowblind Rounds i cała mechanika przegrzewania broni przestawała działać, bo można było chodzić z naciśniętym spustem przez cały czas. No i brakowało hitboksów, co powodowało, że granie snajperem wiele sensu nie miało, bo zwyczajnie headshot nic nie dawał.
No i wydajność na X360 wołała o pomstę do nieba.
Gra jest zoptymalizowana (po czym wnioskujecie, że nie jest? Bo grafika średnia? W F4 jest całkiem spory narzut na procesor, bo skrypty w tle lecą).
Problemem jest to, że powyżej 60FPS gra jest niegrywalna i trzeba blokować FPSy w sterownikach lub przez Riva Tuner, bo inaczej fizyka się psuje. Latające konie w Skyrimie były spowodowane dokładnie tym samym.
@Ravios:
Oczywiście, że to wszystko trzyma 30FPS bez dropów. Oczywiście
https://youtu.be/HAal2d6_Tdg?t=43s - pierwszy z brzegu Wiedźmin 3 na patchu 1.10
Jako że kombinacja i3 i Geforce 750 radzi sobie lepiej od PS4, jestem gotów się założyć, że problemem znowu okazał się Jaguar i jego żałosna wydajność.
PS. @Ravios: nie porównujmy Batmana do F4, bo w tym drugim przypadku bardzo dużo rzeczy dzieje się w tle (skrypty w sąsiednich gridach) i to powoduje słabo widoczny gołym okiem narzut na sprzęt.
Pokaż mi też sandboksa działającego na i jednej i drugiej konsoli bez dropów. Unity- dropy. FC4 - dropy. GTAV - dropy. W3 - dropy.
@A.l.e.x
Tak, wiem o AFR2, ale to wciąż jest proteza a nie natywne obsługiwanie przez Nvidię i samą grę. Nie bedzie to tak wydajne rozwiązanie, aczkolwiek pomoże z wydajnością.
Gridy na 13 to maks dla ludzi z jedną wydajną kartą i normalną ilością RAMu a nie dla ludzi z kompami złożonymi bez kompromisów :D swoją drogą, exec gry jest chyba 64 bitowy, więc nie będzie takich problemów jak w Skyrime, że procesowi kończy się pamięć. Za parę lat bedzie można poszaleć :D
Generalnie to dopóki ktoś nie zacznie kombinować z trawą i zwiększać wartości na wyższe niż Ultra lub z gridami (9 to maks, by mieć jeszcze jako-taką płynność), to gra będzie na Ultra chodzić sensownie na standardowym high-endzie. Zmiana wymienionych ustawień dorżnie 980Ti i Titan Xa. No ale jak zmieniamy wszystko na dwukrotnie większe wartości to nie dziwmy się, że wymaga w uproszczeniu toto dwa razy szybszego sprzętu.
Dodam, że gra nie obsługuje SLI nawet z nowymi sterownikami.
EDIT: a, odblokowany framerate powoduje problemy z fizyką. FPS rzędu 300 powoduje przyspieszone poruszanie się postaci.
EDIT2:
http://images.nvidia.com/geforce-com/international/images/fallout-4/fallout-4-ugridstoload-fully-tweaked-performance.png
Wydajność przy zabawach z gridami.
Na i3 i GF750 gra pójdzie w takiej samej jakości jak na PS4/XBO lub lepszej (albo płynniej albo jedno i drugie), więc nie ma się czego obawiać.
@Irek22
Jestem pozytywnie zaskoczony, że Bethesda jako jedno z nielicznych obecnie studiów tworzących tzw. gry AAA nie olała wersji PC i okazuje się, że to po prostu current-genowe konsole gdzieniegdzie mają problemy z doczytywaniem tekstur i obiektów w grze na silniku Morrowinda.
Mówienie, że to ten sam silnik, co w Morrowindzie, podczas gdy od czasu Skyrima wymieniono cały renderer na deffered, jest trochę nie na miejscu.
Jeżeli chipset w laptopie obsługuje 1600MHz RAM, to zadziała, w innym przypadku przestawi się na 1333MHz.
@spidi24:
Crysis wcale nie wygląda 20 razy lepiej (ba, powiem więcej - nie wygląda w ogóle lepiej od BO3). Pora odinstalować mody i zobaczyć, jak naprawdę ta gra dzisiaj wygląda.
Ludzie z kartami z VRAMem o pojemności 2GB i 8GB RAMu w kompie (bo przecież gry wymagające więcej nie powstaną! :D) mają problem, bo myślą, że na ultra ich sprzęt da radę, reszta sobie radzi. RAM się kończy wszędzie, trzeba dane przepchać przez wąskie szyny PCI/SATA i FPSy lecą na szyję.
Chryste, a pamiętam, jak wszyscy mówili przed premierą konsol, że GF570 i 580 wystarczy na całą generację xD
EDIT: a jak ktoś narzeka, że w grze PCtowej coś trzeba zmieniac lub ustawiać, by działało to płynnie na jego konfiguracji... Może pora zwyczajnie zainwestować w konsolę?
@A.l.e.X:
Prawie dobrze. 5960x i SLI z dwóch Titan Xów ;) AC:Unity za Chiny 5,5GB VRAMu przekroczyć nie chce. Pewnie tyle materiału ma do załadowania i więcej nie dostarczy.
Natomiast procentowe zużycie pamięci w Afterburnerze mam jakoś skopane, bo pokazuje złe wartości (właśnie te okolice 90% przy 5GB zajętego VRAMu).
I gratuluję procesora :D

Swoją drogą - "zoptymalizowany" Crysis* -->
Mniej FPS na tym samym sprzęcie co Unity a w tym przypadków sterowniki nie były ruszane
*
spoiler start
No sorry, ale otwarty teren trochę bierze. W scenie nocnej było spokojnie 80FPS, tutaj framerate leci na łeb. Potem pewnie będzie gorzej. Mówimy tutaj o podkręconym 5960x i dwóch Titan Xach. Tak, Crysis jest na Ultra, puszczany z 64 bitowej binarki
spoiler stop

@Bambooocza -------->
1440p, wszystko na Ultra + pierdoły w sterownikach załączone. Jakoś tego słabego działania nie widzę :D
PS. Odpisywanie do Alexa się nie liczy. Gadaj zdrów.
PS2. Lol @ optymalizacja Crysisa. Crysis się dobrze skalował i tylko tyle. To nie to samo.
@A.l.e.X
Zaraz ci powie, że masz mocny i drogi sprzęt i że jakiś promil populacji ma dostęp do czegoś takiego, chociaż wcześniej pisał, że PCty to otwarta architektura i można wszystko ulepszyć (jednocześnie zapomniał, że większość ludzi trzyma budżet):E
Ale on ma za słaby sprzęt do Unity i narzeka na optymalizację, bo na jego komunijnym komputerze to nie działa a u nas tak i widzimy, jak ta gra naprawdę wygląda. Coś za coś.
Już nie wspomnę o tym, że Unity to pożeracz VRAMu a GF970 jak osiągnie 3,5GB to zaczyna się to GPU ciekawie zachowywać. A jak osiągnie 4GB to już są cuda, bo trzeba przez PCI-E dane przepchać i wydajność spada.
@Bambooocza: pisałem o tym, że ludzie chcą świetnie wyglądajacych sandboksów a potem są na nie zupełnie nieprzygotowani (vide "słabo zoptymalizowane" Unity) i większość sandboksów wygląda jak wygląda.
F4 wygląda średnio i jakoś mnie to nie dziwi. Wielkość świata wymaga zasobów, których większość PCtów i konsol zwyczajnie nie ma (a żaden poważny developer rynku sobie nie ograniczy). Tak, można zrobić na te platformy gry, które wyglądają lepiej. Ba, nawet takie są. Problem w tym, że są ograniczone (nie, nie chodzi mi tu tylko o The Order 1886, wystarczy spojrzeć na BF4 - niby duże mapy, wszystko fajnie pięknie, ale to nie ta skala co F4).
Fajnie, że o tym wszystkim piszesz, ale nadal nie wiem niestety, jak teza o unity potwierdza twoją tezę o słabości pecetowych rydwanów, gra skopana na każdej platformie.
Zdefiniuj skopanie. Nie, nie chodzi mi o bugi w postaci latających NPCów. Na odpowiednio mocnym sprzęcie ta gra wygląda i działa dobrze. To nie PCtowy Arkham Knight, który ma problem ze wszystkim, brakuje mu nawet niektórych efektów względem wersji konsolowych (lub brakowało - patrz AO czy efekty deszczu).
i cięć nie było? Jak ta gra wyglądała przed, a jak po?
Obcięli jedynie ogólną jakość grafiki, tłumów nie ruszali prawie wcale (poza poppingiem). Myślisz, że takie tłumy są proste do obliczenia? :D
nie tłumacz się, nie skrywaj w sobie gimba
Napisała osoba, która w pierwszym swoim poście stosuje emotikony pokroju xDDDD... (gdzie D idzie w nieskończoność) i zaczyna wyskakiwać "Co Ty dajesz w ogóle, uderz się w ten pusty dzban, może się coś naleje XDDDD".
Dyskusję kończę, bo z takim trollem nie ma co dyskutować. EOT.
@Bambooocza:
Czyli widzę wciąż nie łapiesz. Optymalizacja w tym przypadku oznaczałaby cięcia (co zresztą widać po Syndicate -> mniejsze tłumy) i nie dostarczenie wizji. Tyle się mówi o konsolach ograniczających rynek, ale jak się okazuje, ludzie wolą "zoptymalizowane" produkcje, gdzie nic nie ma, także na PC. Na ARMĘ3 też narzekasz, że gra na GF980 potrafi chrupnąć, bo twórcy dali opcję na 20km draw distance?
A poziom humoru, styl gimbo-pisania i ilość iksde dostosowałem do twojego stylu xDDD
PS. Wciąż czekam na te sandboksy. Unity wciąż bije skomplikowaniem konkurencję (nie gameplay'u, co to to nie, bo gra pod tym względem jest średnia, piszę tylko i wyłącznie o silniku)
PS2. Nawet 3 albo 4 Titan Xy są do niektórych graficznych zastosowań w renderingu realtime za słabe. Nic nowego i nie ma to wspólnego ze słabą "optymalizacją".
@Bambooocza
Ale typie, o co ci w ogóle chodzi. Pierdzielisz coś, że rydwany do gier są słabe i to pokazało niby unity. Odpisałem ci turlając się ze śmiechu, że unity jest skopane na każdej platformie, a ty zacząłeś coś pisać, że niby 20 fps to nie skopana gra (XDDDDD) i że dużo npc. Fajnie, co to ma do rzeczy to nadal nie wiem. Przywołujesz tytuł, który był optymalizacyjnym bublem i to jest niby argument za tym, że rydwany PC nie są gotowe do lepszej grafiki w F4, co jest głupotą samą w sobie. Też sobie dodam śmieszną minkę, bo poparcie tezy o słabości pctów unity jest po prostu nie tylko śmieszne, ale wręcz KABARETOWE XDD
Napisałem, że każda platforma, także większość rydwanów dla Unity jest za słaba i że gra ma adekwatne wymagania do tego, co pokazuje na ekranie. To nie śmieszny Skyrim, gdzie nie ma 20 NPCów na ekranie nawet czy GTA, gdzie jest podobnie, ale samochodów nieco więcej. Już abstrachuję tutaj od tego, że ani Skyrim ani GTAV nie ma PBR, ale pewnie nie wiesz, co to jest i ile to wymaga xDDDDDD
20FPS na PS4 to nie jest skopana gra. Nie w każdym przypadku a już na pewno nie w tym. Czy to wina Ubisoftu, że mieli takie plany a Jaguar w PS4/XBO na tyle pozwala?
Wciąż czekam na te gry, bo widzę, że nawet czytać ze zrozumieniem moich postów nie potrafisz xDDDDDDD Jak to piszesz... BEKA Z CIEBIE xDDDDD
spoiler start
Więcej iksdeeee
spoiler stop
@kęsik
Optymalizacja w grafice 3D == cięcia. To że twój rydwan tego nie ciągnie nie oznacza, że kod gry jest mało wydajny. Po prostu masz za słaby sprzęt.
@Bambooocza
To pokaż swoją wiedzę i pokaż mi te 5 gier ładniejszych od AC:Unity z podobną liczbą NPC na ekranie. Czekam.
@Bambooocza
AC: Unity miał kilka tysięcy NPCów na ekranie zamiast 20 maks w grach Bethesdy a sama gra na ultra wygląda o wiele lepiej niż konkurencyjne sandboksy. 20FPS nie oznacza, że gra jest skopana. To gra, która pod względem technologii i samej zawartości okazała się ambitna zarówno dla konsol jak i dla większości PCtów.
Więc beka raczej z ciebie.
Podawanie W3 też jest interesujące, bo wszyscy wiemy, jak gra wyglądała na pokazach i jak ostatecznie wyglądała w rzeczywistości. O wiele, wiele gorzej.
@lordpilot:
Irek22 od tego 2007 wpełznął do piwnicy i tam już pozostał. Tylko tak można to wytłumaczyć, ewentualnie jakąś ślepotą. Nie ma sensu tłumaczyć, to ten rodzaj betonu, którego nie da się skruszyć :)
Inną sprawą jest też to, że jak przychodzi co do czego i ktoś rzeczywiście robi rewelacyjnie wyglądającego sandboksa na PC, to nagle się okazuje, że dla większości rydwanów jest to nie do uciągnięcia i wtedy są narzekania na "słabą optymalizację". Albo o zgrozo, gracze narzekają, że w Skyrimie było mało NPC w miastach. Potem ktoś daje grę, gdzie jest ich sporo i nagle się okazuje, że komputer za słaby.
Ot, żeby daleko nie szukać - AC: Unity.
@Irek22
I - przynajmniej dla mnie - ten stan rzeczy byłby nawet akceptowalny, gdyby nie to, że wymagania sprzętowe rosną zdecydowanie nie wprost proporcjonalnie do owej kosmetyki.
Rosną proporcjonalnie. Tak wyglądają teraz bardziej zaawansowane algorytmy renderowania. Większej różnicy może i nie widzisz, ale od strony sprzętowej tak to właśnie wygląda. Już nie wspomnę o tym, że wystarczy wywalić LoDy, zwiększyć draw distance i nawet gra na starym silniku potrafi dorżnąć sprzęt a co dopiero zabawy z Physically Based Renderingiem, itp.
@kęsik
Co? F4 jest ograniczony przez konsole poprzedniej generacji jeżeli był tworzony z myślą o nich. Zrobili potem port na nowe konsole, coś tam podbili i tyle. Łapiesz?
Buehehe. Nie. Gdyby byli ograniczeni prev-genami, to gra wyglądałaby o wiele gorzej niż teraz. Na równi ze Skyrimem i miałaby od cholery cięć, podobnie do F3.
I nie, F4 jakoś specjalnie nie bronię, bo mam Beth wiele do zarzucenia w znacznie ważniejszych kwestiach niż oprawa graficzna. Lepsza grafika by tej grze nie pomogła (mody graficzne też nie - Skyrimowi to również nie pomaga), bo ta gra pod względem cRPG i bycia Falloutem jest mizerna. No ale gracze są mało wymagający i chcą głównie efektów.
@MaXXii
To teraz porównaj modele postaci w F3 do tych w F4 czy nawet same animacje. W F3 przecież nawet nie było animacji chodzenia po skosie. Takie rzeczy też biorą zasoby.
@Mwa Haha Ha ha
Jak się ma syf na kompie albo grzebało w configu do NV nie rozumiejąc, co robią dane pola to nie dziw się, że crashuje.
@kęsik
Ale takowej wersji od 2010 roku nie ma i Bethesda nie jest ograniczona prev-genami tak jak Rockstar z GTAV. Łapiesz?
@AL DU IN
Wielkość świata jest mniej więcej taka jak Skyrim (wg twórców), a tamta gra ma mniejsze wymagania.
Skyrim korzysta z tony sztuczek, by mieć takie niskie wymagania jak chociażby używanie tych samych obiektów (np. szafka i biurko to dokładnie ten sam model, tylko w przypadku biurka jest on zatopiony w podłodze) i kopiuje tekstury na potęgę (tiling). Wystarczy, że się tego pozbędziesz a wymagania znacząco wzrosną.
@kęsik
GTAV bazuje na wersji, która wyszła na konsole z 512MB RAMu i z kartami graficznymi na poziomie GF7600 GT, Fallout 4 na prev-geny nie wyszedł.
@elathir
Przecież Fallout 4 ma niskie wymagania.
I nie, na ultra ta gra nie będzie wyglądać tak jak na screenach, które wyciekły, bo one były z PS4 z mocno przyciętym draw distance i całą resztą.
@Cziczaki: patrząc na rynek gier AAA, to PC już dawno umarł i dostaje porty po konsolach. Na PC ten rynek, w którym działa EA przestał się liczyć już dawno. Teraz na PC to MMO, MOBAsy, indie i ewentualnie platformy do modów vide Skyrim.
@kaszanka9:
Nie ma czegoś takiego jak częściowe emulowanie
I jak zwykle piszesz bzdury. Oczywiście że istnieje coś takiego jak częściowa emulacja (ot, chociażby późniejsze modele wstecznie kompatybilnych PS3 pokazują, że nie masz pojęcia o temacie). Dodatkowo, gdyby emulacja na XBO była pełna, to po wsadzeniu gry konsola nie pobierałaby plików gry na nowo tylko czytała dane z płyty/instalowała z niej dane. Pobiera specjalnie skompilowane binarki, podobnie jak X360 w przypadku gier z pierwszego Xboksa.
@raveenn
Coś takiego jak naturalne i chemiczne nie istnieje. Wszystko to chemia.
Oto skład chemiczny zwykłego jabłka:
http://blog.everydayscientist.com/wp-content/uploads/we-love-chemicals-620-450x636.jpg
Sterowniki mogą być winne, jak masz w ustawieniach sterów włączone zarządzanie detalami przez sterowniki.
Na Androida można programować w C/C++, ale nie ma to wielkiego sensu. Tam króluje Java. iOS to Objective-C (pochodna C, generalnie język uznawany za raczej tragiczny przez takie osoby jak chociażby Robert C. Martin) lub Swift. Na WP z kolei króluje C#.
Generalnie przywiązywanie się do jednego języka nie ma wielkiego sensu.
ITT: Ludzie wciąż myślą, że rdzenie i taktowanie procesora mówi cokolwiek o jego wydajności i myślą, że 2560x1440 to dobra rozdzielczość w telefonie.*
*Dwa rdzenie od Apple biją cztery albo i osiem rdzeni od Samsunga/Qualcomma. O rozdzielczości nawet nie chce mi się zaczynać, dlaczego jest to bez sensu w telefonie. Podpowiem - bateria.
@paul oren's
Z posta z innego wynika, że masz 4GB RAMu. Wiesz co to oznacza? Że gra gdy przekroczy 3GB (bo 1GB ma pewnie na system), to zaczyna korzystać z pamięci na HDD.
8GB w wymaganiach nie oznacza, że gra na niższej konfiguracji się nie uruchomi -> Windows ma coś takiego jak pamięć wirtualną.
@AL DU IN
Są odkąd branża jest jaka jest. Jakoś kiedyś (cough cough) nie potrzeba była day one patchów.
Bullshit. Bugi zawsze były. Nawet Tetris i PacMan je ma. To, że gier nie patchowali, bo praktycznie nie było na to infrastruktury nie oznacza jeszcze, że tym grom patche nie były potrzebne. Daggerfall nie bez powodu jest nazywany Buggerfallem. Teraz po prostu jest łatwiej załatać grę po jej wydaniu.
Zresztą i tak gra jest w tłoczni a prace nad grą nadal trwają. Witamy w procesie tworzenia oprogramowania.
@ZefirekSan
To, że gra ma w wymaganiach 8GB RAMu nie oznacza jeszcze, że na komputerze z mniejszą ilością RAMu się nie uruchomi i nie będzie w większości przypadków dobrze działać.
@AL DU IN
to niech producenci aut zaczną wypuszczać wadliwe samochody od razu
O czymś takim jak wady konstrukcyjne słyszeli?
Poza tym, jest pewna różnica między oprogramowaniem a samochodem. Oprogramowanie łatwiej załatać. A łatać trzeba, bo bugi są zawsze i zawsze były i zawsze będą.
@A.l.e.X
--->Henrar - wybacz Henrar ale jeśli chodzi o wykorzystanie sterownika i GPU to akurat się na tym znam :) A tutaj wspomniane MGR w 4K.
Nie masz racji. MGR nie ma domyślnie wyboru rozdzielczości wyższej niż 1080p. Tak zostało to zaimplementowane w aplikacji. Triki ze sterownikami się nie liczą - gra nie pobiera listy rozdzielczości tak jak powinna to robić dobrze napisana aplikacja.
Każda gra zbudowana w oparciu o 3D nie ma bariery rozdzielczości, bo jej fizycznie nie może mieć.
Pudło. Może. To, że ją można odblokować (vide Dark Soulsy, FFXIII czy MGR) nie oznacza jeszcze, że gra to natywnie wspiera i nie potrzeba podmiany dll-ek czy zabawy ze sterownikami. Jestem programistą, więc wiem jak to działa.
Już pomijam tutaj przypadki jak pierwszy Doom, które w oryginale mają na sztywno ustawione w kodzie renderowanie na 320x200 rozciągnięte do proporcji 4:3 i gra jest tak napisana (robi stretch w pionie, by zachować proporcje 4:3, bo rozdzielczość, w której renderuje to 8:5) i zaprojektowana (choćby GUI jest przystosowane do 4:3), co powoduje problemy przy portach.
@A.l.e.X:
Nie jest to prawda jeśli chodzi o interfejs w grach, ponieważ od 2006 gry 3D wszystkie obsługują rozdzielczość 1600p czyli 2560x1600, o czym mówi np. sam sterownik w GPU. Rozdzielczość też tak była od samego początku pojawienia się 1600p, czyli stosownie wcześniej dla Windowsa i 2D
Not really. Nie wszystkie gry obsługują takie rozdzielczości, bo wciąż duża część gier jest napisana w taki sposób, że nie odczytuje tabeli rozdzielczości bezpośrednio z systemu operacyjnego tylko mają własną i ich wsparcie kończy się np. na FullHD. Przykład pierwszy z brzegu - Metal Gear Rising.
@kaszanka9:
Rozumiem nie umiesz podłączyć pc do tv, no to ok.
Rozumiem, że interfejs PCtowuych systemów operacyjnych jest przystosowany do używania go na TV i sterowania padem? Na razie oficjalne wsparcie ma SteamOS i tylko tyle, czyli nawet nie 1% rynku OSów dla graczy.
I jeszcze co do testów gry Lords of the Fallen, ta gra jest ŻAŁOŚNIE niezoptymalizowana, wystarczy spojrzeć na to jak wygląd i co oferuje i porównać z testami pclab, o prostu kaplica. Także nie ma sensu odnosić się do tej gry w jakimkolwiek porównaniu wydajności.
Wydajność gry to nie tylko grafika, ale cał szereg czynników od fizyki, AI, skryptów, net-code'u czy nawet takich rzeczy jak dźwięk (od czasu Visty dźwięk jest przerabiany tylko i wyłącznie na CPU, karty dźwiękowe już nie przejmują na siebie takich obliczeń) i reszty logiki.
@Likfidator:
Wszystkie gry Nintendo to solidne 60 fps, a Super Smash Bros. U działa nawet w 1080p60 i kto wie czy nadchodząca Zelda nie będzie pracować też w tym trybie.
To teraz porównaj ogólną jakość grafiki, geometrii i tym podobnych do gier wychodzących na konsole konkurencji.
@glouver
A gdy przychodzi co do czego, to jest płacz, że gra ma GF970 w rekomendowanych
Wlasnie tak. CreationEngine moze bazować na GameBryo, ale w tej chwili są to już osobne silniki (GameBryo nadal istnieje i jest licencjonowane przez inną firmę niż Bethesda). W przypadku CreationEngine Beth ma znacznie większe pole do popisu.
Co do ładowania - wiem o co co chodzi. Problemem wciąż jest głównie RAM. Inne open worldy omijają ten problem przez mniejszą liczbę wnętrz, ale i tak mają gdzieś ładowanie i oddzielone segmenty.
@szczypiorofixpw:
Na PC też to jest.
I nie piszę, że wszystkich ekranów ładowania nie było. Piszę o tym, że części nie było przy wychodzeniu z interior do exterior, co było widoczne, gdy porównywało się wersję PC/X360 do wersji PS3.
To oznacza, że albo silnik jednak potrafi trzymać rzeczy w pamięci, albo ładował je na tyle szybko, że ekran ładowania potrzebny nie był (lub kombinacja obu). Zresztą - to, że silnik czegoś nie potrafi nie oznacza jeszcze, że nie będzie tego potrafił po wsze czasy. Oprogramowanie rzadko stoi w miejscu a Bethesda nie jest ograniczona już licencjonowanym Gamebryo (które nadal istnieje), lecz ma swojego Creation.
@szczypiorofixpw
Co do tego, że Skyrim i poprzednicy pozwalali na wychodzenie z interior cella na zewnątrz bez ekranu ładowania? Co do x360 - nie wiem, nie mam tej konsoli i się na tym nie znam ale to, że to działało na PC - pierwsze słyszę. Bez modów typu open cities? W Morrowindzie można powiedzieć było coś takiego na dobrym sprzęcie, loadingi trwały ułamek sekundy i nieraz nie dało się tego zauważyć.
Działało bez tych modów i na X360 (na PS3 też, ale znacznie rzadziej). Warunek był taki, że interior cell musiał być mały.
Zaraz zaraz, mówimy tu o tym czy ma nie być ekranów ładownia w momencie przechodzenia z cella do cella czy o doczytywaniu obszaru w obrębie cella w locie bo to są zupełnie dwie różne sprawy. Todd Howard mówiąc - "no loading screens in most of the Boston buildings" ja rozumiem to tak, że ma to być grupa exterior celli (jak np. open cities w Skyrimie, gdzie np. z cella Biała Grań cały konetent jest po prostu przeniesiony z interior cella do exterior cella + dołożone otwierające się wrota).
Znowu - wciąż lepiej niż poprzednicy.
Co do architektury x64 - to prawda - mają teraz większe pole do popisu.Co do architektury x64 - to prawda - mają teraz większe pole do popisu.
Tu nawet nie chodzi o architekturę x64 (poprzednie konsole były 64 bitowe) a 64bitową binarkę gry. Na PC Skyrim był 32 bitowy i miał ograniczenie do 2GB RAMu jak każdy inny proces. Na 64 bitowym Windowsie można było zastosować hack, by gra przydzielała 4GB.
A ekrany ładowania z gier open-world tak prędko nie znikną, bo najzwyczajniej w świecie wszystkim brakuje RAMu.
PS. Open Cities wciąż nie rozwiązuje problemu przy wchodzeniu do budynków a jedynie do miast.
@szczypiorofixpw: ja doskonale wiem, jak działa Gamebryo i jego celle.
[quote]Nie wyobrażam sobie co może się dziać gdyby cały świat był oparty tylko na 1 cellu, to już nie chodzi o moc komputera ale zwyczajnie takie są ograniczenia silnika i sam silnik tego nie przerobi. [/quote]
Silnik nie musi przerabiać świata jako jeden cell, ale może przerabiać dużą liczbę celli, która pokrywa cały świat. Poza tym, Skyrim nie mógł przerabiać więcej niż 11 celli ze względu na bycie 32 bitową aplikacją, która nie może w Windowsie zaadresować więcej niż 2GB RAMu. F4 ma być już 64bitową aplikacją (bo konsole).
[quote]Nie wiem jak chcą tego dokonać ale mam nadzieję, że im się to uda i nie wpłynie to drastycznie na optymalizację gry.[/quote]
Na boga... Optymalizacja gry to właśnie te celle i ekrany ładowania. To o co ci chodzi to wydajność.
To że gra na jakimś sprzęcie (nawet mocnym) nie działa poprawnie nie musi oznaczać jeszcze, że jest niezoptymalizowana.
[quote]Z tego co się orientuję gra nie pozwala (bo takie jest właśnie ograniczenie tego silnika) na wcześniejsze ładowanie pobliskich celli (np. w określonym radiusie wokół postaci gracza) , a przynajmniej do tej pory tak było.
Obszary główne otwarte (exterior cell) to inna bajka, tam przechodzi wszystko płynnie jedno w drugie) ale nie ma (na tyle na ile wiem a siedzę w tym już kawał czasu) czegoś takiego jak wczytywanie pobliskich interior celli i dlatego wchodząc do knajpy czy domku widzimy ekrany ładowania, a przynajmniej do tej pory tak było z grami na Gamebryo.[/quote]
Skyrim i poprzednicy pozwalali na wychodzenie z interior cella na zewnątrz bez ekranu ładowania już nawet na X360, więc zrobienie rzeczy odwrotnej jest do zrobienia, zwłaszcza że teraz nie ma 512MB RAMu do zapełnienia a 5GB.
@elathir
Czyli wciąż lepiej niż było (zresztą na gameplayach ekranów ładowania jakoś nie widać*). Przypominam co się działo w New Vegas (miasto podzielone na kilka obszarów, każdy z ekranem ładowania) lub Skyrimie, gdy wejście do miasta było oddzielone ekranem ładowania.
*To, że ekranów ładowania nie widać nie oznacza jeszcze, że gra nic nie ładuje. Gdyby ładowała wszystko na start, to byłby płacz, że gra nie jest zoptymalizowana, bo bierze ogromne ilości RAMu.
@elathir było wyraźnie zaznaczone, że znikną ekrany ładowania podczas wchodenia do budynków. Streaming w tle nadal będzie, ale to potrafił już Oblivion (i działało to tam średnio, zwłaszcza na X360 podczas grania z płyty).
@aope
Przekleiłem w innym temacie. Pewnie zrobię to tutaj jeszcze jak zobaczę kolejnych narzekaczy/panikarzy.
Dobra, przeklejam tutaj.
Zawsze mnie śmieszy ten sam festiwal niewiedzy, paniki i naciągania rzeczywistości, który pojawia się pod każdym newsem o wymagania sprzętowe danej gry.
Po pierwsze -> wymagania sprzętowe do gier zwykle pomijają bardzo ważną rzecz. Rozdzielczość. Jeżeli gracie na jakiejś mniejszej to nie mówcie, że wymagania są zawyżone, tylko piszcie, że gracie w niskiej rozdzielczości. Wymagania takie sztywne nie są.
Po drugie -> Jak piszecie, że gra idzie wam na ultra, to upewnijcie się, że idzie rzeczywiście ze wszystkim włączonym na maks, czyt. jeżeli gra obsługuje downsampling to ma być włączony, AA też ma być na maks a nie na FXAA low bo "wyższe zabijają mi FPSy". Ultra to ultra. No i znowu - rozdzielczość.*
Po trzecie -> jeżeli ktoś napisał w minimalnych (lub nawet w innych też) wymaganiach, że gra wymaga tyle i tyle RAMu (czy to normalnego czy VRAMu), to nie oznacza to, że na niższych wartościach się nie uruchomi i nie będzie w większej liczbie przypadków działać. Oznacza to ni mniej ni więcej, że taka wartość RAMu jest zalecana, by nie musieć się przejmować ewentualnym zrzutem pamięci na HDD (pagefile) lub tym, że gra będzie w jakiejś wymagającej scenie doczytywać zawartość pamięci do GPU, co spowoduje chwilowy spadek wydajności.
Po czwarte -> to że macie 60FPS jeszcze nic nie znaczy. Miejsca testowe mogą być całkowicie różne a patrzenie w niebo doda wam nawet setki FPSów, ale będzie się to miało nijak do wydajności w trakcie zadymy.
*To tak a propos komputerów za 2,5 ciągnących niby Wiedźmina 3 na Ultra. Podam Wam przykład z życia wzięty - dwa Titan Xy i 5960x w okresie spokoju w Wiedźminie 3 ze wszystkim na Ultra + włączonymi pierdołami w sterownikach (lepszy AA) w 1440p ma +/- 80FPS. Ryse z kolei na tej konfiguracji ze wszystkim na full (w tym 4 krotny downsampling do 1440p) nie potrafi czasem trzymać 30FPS.
PS. Battlefront się na razie nie liczy. To okrojona z wielu rzeczy beta, więc jej wydajność nie może być wydajnością finalnego produktu.
PS2. Warto jeszcze wspomnieć, że punkt trzeci odnosi się też całej reszty sprzętu. Jeżeli gra wymaga 7870 to nie znaczy że w danych warunkach nie będzie się dało na słabszym Radeonie grać. To oznacza tyle, że optymalne doświadczenie dla danych warunków testowych i czynników zapewnia właśnie ten Radeon 7870.
Dodatkowo bonus w postaci punktu 5. Karta graficzna karcie graficznej nierówna. Jeżeli w danej grze dane GPU wypadają wydajnościowo podobnie to nie oznacza to jeszcze, że w innej będzie tak samo. Architektury kart (zwłaszcza między firmami) potrafią się sporo różnić. Plus trzeba dodać fakt, że sterowniki również mają wpływ na ostateczną wydajność danej gry - sterowniki do GPU, zwłaszcza od Nvidii, to zbiór różnych hacków, zwiększających wydajność w danej grze.
EDIT: I proszę nie zarzucać nieznajomości informatyki i jednocześnie powielać mity o wymaganiach. One wbrew pozorom z tyłka brane nie są.
@Dragon_666:
Na tych co fraguja na spawnie jest pare opcji. Na szczescie fragi niczego niezmieniaja. Moze i balans kuleje, ale ja rebelia wygralem tyle samo razy co imperium. Wiec nie plakac.
Zawsze interesuje mnie argument o rzekomym braku balansu w Walker Assault?
Czy ten brak balansu polega na tym, że Rebelia musi się bardziej starać od Imperium by wygrać? Na boga, przecież to samo można powiedzieć o CSie czy starym ET, że jedna strona musi się starać bardziej a druga tylko musi się bronić.
@Dargh
Nie, Fallout 4 nie jedzie na tym samym silniku co trójka. Jest to mocno zmodyfikowany kod ze Skyrima i nie ma chociażby ładowania przy wejściu do danych obszarów, co już w tym momencie mocniej obciąża sprzęt (pamięć).
EDIT: Chyba powienienem przekleić swojego posta z gramu/poly, żeby niektórzy załapali, dlaczego podaje się teraz 8GB RAM i dlaczego wymagania nie są zawyżone, jak gra odpala się na komputerze z 4GB...
@Cainoor: akurat Apollo 13 to nie film s-f tylko film oparty na faktach :>
A co do burzy na Marsie - na IFLS był artykuł, gdzie o tym wspomniano i prawda jest taka, że gwałtowna burza na Marsie nie byłaby w stanie poczynić takich zniszczeń jak w filmie
Meanwhile Linux ma niecały procent udziałów, OS Xy wszystkie niecałe 3,5%.
To tyle jeżeli chodzi o popularność Linuksa wśród graczy i tyle jeżeli chodzi o to, że Windows 10 wśród graczy się nie przyjmie
@Gromateist: no popatrz, zupełnie jak w przypadku każdej innej generacji - gry na PC wyglądają lepiej i działają lepiej niż na konsoli.
Also, 30FPS są niegrywalne. Niektórym już się w tyłkach poprzewracało. Stabilne 30FPS jest płynne.
Anyway, 60FPS to już plebejski PCtowy standard. Teraz liczy się 120FPS+ a nie bieda odświeżania.
@AL DU IN :
Z drugiej strony zabawnym jest "badanie" awaryjności sprzętu to czytaniu forów supportu technicznego.
A swoją drogą, Vista po ostatnim service packu jest równie stabilna, co Windows 7.
Używam od preview, upgrade'owanego z Win8.1, wszystko działa idealnie i jestem zadowolony. Wszystkie starocie z mojej kolekcji działają a jeżeli jakieś problemy były, to istniały od czasów Win7 albo i nawet wcześniej.
@reksio:
Pascale to będzie raczej poprawiony Maxwell z HBM. Tutaj trzeba chyba czekać na Voltę.
@MarucinS
Nie skłamali tylko nie powiedzieli wszystkich faktów. DX12 karty nVidii wspierają i gra napisana przy pomocy tego API na tych kartach się odpali (z różną wydajnością). Dawniej było tak, że jak wchodizł nowy DX to trzeba było karty wymieniać.
@kaszanka9:
Bez różnicy, bo nikt nie wyda gry dx12 korzystającej z tego na nv jeżeli działa jak kupa, znajdą inny sposób i tyle, niskopoziomowe api daje pole do popisu.
Nie znajdą, tego nie da się obejść bez spadku wydajności na obecnych GeForcach. Pascale lub Volta to powinny zmienić.
A już silniki powoli zaczynają mieć wsparcie tej technologii - vide UE4.
czy i jak bardzo poprawi sytuację wprowadzenie poprawek w sterownikach do kart firmy NVIDIA, a także jak sytuacja będzie wyglądała w innych nadchodzących grach korzystających z DirectX 12.
Nie poprawi. Problem Nvidii wynika z ograniczeń architektury a nie z problemu wydajności sterowników (swoją drogą, ostatnio po wydaniu Win10 i WDDM2.0 sterowniki Nvidii lubią się sypać). Tego sterownik nie załatwi, Maxwelle i starsze karty po prostu nie są przystosowane do asynchronicznych obliczeń. To może zmienić tylko i wyłącznie Pascal.
Z kolei AMD z DX12 nie wspiera innych rzeczy. Karty w pełni zgodne z DX12 pojawią się najwcześniej pewnie w przyszłym roku.
@Taal
Jest totalnie na odwrót. To są właśnie API, które mają zwiększyć wydajność kiepskiego kodu.
No właśnie nie. One mają zwiększyć wydajność tylko wtedy, jeżeli developer umie to wykorzystać, bo oddają kontrolę developerom a nie API (polecam poczytać chociażby o zmianach w contextach i ogólnych zmianach w pipeline). DX11 jest mało wydajny w stosunku do dwunastki przez to, że robi dużo rzeczy z automatu.
API nigdy, przenigdy nie poprawi wydajności słabego kodu.
Swoją drogą, tutaj wygląda wsparcie dla OpenGL od firm produkujących GPU z perspektywy developera:
http://richg42.blogspot.fi/2014/05/the-truth-on-opengl-driver-quality.html
Ciekaw jestem, czy zgadniecie, która firma jest którą.
Oczywiście, że jest bardziej skomplikowana i głownie w tym zasługa MS, który jest zarządcą (API) DirectX. Tak jak pisał .:Jj:. to oni są głównym winowajcą i największym monopolistą. W latach dziewięćdziesiątych zniszczyli rynek
DirectX wygrał nie dzięki monopolowi a dzięki temu, że był łatwy w porównaniu do konkurencji i rozwijał się szybciej. OpenGL to od strony implentacji syf (nawet Carmack ostatecznie go porzucił) a GLIDE działał w tamtych czasach tylko na kartach 3dfx.
A API PCtowe są ciężkie, bo takie muszą być. DX11 i poprzednie to była zupełnie inna filozofia API - tam dużo roboty robiło API. DX12, Metal, Mantle, Vulcan i konsolowe API to środowiska, które z powrotem przerzucają robotę na developerów aplikacji -> ma to swoje zalety (można osiągnąć większą wydajność) i ma to swoje wady (ciekaw jestem jak będzie z forward compatibility takich rozwiązań). Dodatkowo PCty muszą mieć ogromne sterowniki, podczas gdy konsole mają prosty firmware.
Jednak prawdą, a nie teorią spiskową, jest 80% rynku Nvidia.
Teorią spiskową jest to, że wstrzymują rozwój grafiki.
@Raiden
Mają największą moc, ale jej nie wykorzystują. Trzeba myśleć o tych zagadnieniach w ujęciu systemowym - grafika to nie tylko moc obliczeniowa, ale także metody obliczeń (API) i zarządzania nimi (sterowniki), połączone z pozostałymi elementami systemu (CPU, Ram, dyskami, mostkami, magistralami PCI).
No właśnie że wykorzystują. Architektura Nvidii jest wydajniejsza od AMD w DX11, sterowniki do GeForce'ów mają od nich znacznie mniejszy narzut na procesor. I ich architektura przez lata się sprawdzała, gdy architektura AMD i ich środowisko - nie. Teraz role się odwrócą a Nvidia pewnie przy okazji Pascala zmieni architekturę, by pasowała do DX12.
Jeżeli już mamy rozróżniać kto, co blokuje, to jasne jest, że konsole nie posiadają kart o takiej mocy obliczeniowej jak topowe karty, czy nawet mid-end na PC, jednak nadrabiają API i sterownikami. Powstaje więc pytanie, czemu PC ma nie wykorzystywać swojej przewagi, swojego potencjału? A odpowiedzią jest: 80% osób korzysta z kart Nvidia.
Kwestia API na konsolach i na PC i ich wydajności w kontekście sprzętu jest znacznie bardziej skomplikowana niż teoria spiskowa pt. "Nvidia ma praktycznie monopol na rynku GPU".
PS. Tak swoją drogą, to AMD ma problem z osiągnięciem limitu wydajności swoich kart, bo na papierze potrafią więcej (polecam zobaczyć na to, ile TFLOPSów mają karty AMD a ile Nvidii i wyciągnąć wnioski).
@Raiden
AMD z kolei nie ma GPU w pełni zgodnych z DX Feature Level 12.1. Obecnie nie ma na rynku żadnej karty, która w pełni wspiera DX12 (mam na myśli dosłownie wszystko na najwyższych Tierach, w tym takie rzeczy jak Resources Binding).
A Nvidia tak wstrzymuje rynek, że mają najszybsze karty na rynku do tej pory :D