Mroźno wszędzie, co to będzie... (... na pewno nie zima Polska sprzed 20 lat xD).
Do rzecz, ostatnio robi się coraz głośniej o technologii HDR, cóż, ciężko się dziwić jak można uzyskać efekt naturalnego światła. Telewizory i telewizory.... a gdzie karty graficzne i monitory ?
Chciałem zakupić przed świętami kartę zielonych 1080 Ti, lecz Anioł spadł z nieba i nie pozwolił mi dokończyć płatności (były jakieś problemy z płatnością).
Miałem czasu na nurkowanie w temacie technologicznym.
Pytanie brzmi, jak to jest z tym HDR-em i G-sync/FreeSync ? czy jest to możliwe do uzyskania w dalszych aktualizacjach sterowników karty graficznej ? czy są/będą monitory obsługujące jednocześnie, ów technologie w min. 144Hz ?
I ostatnie pytanie, co za bałwan tak prężnie zatrzymuje postęp technologiczny dla zwykłych konsumentów?
Nie ma 1080Ti jeszcze, więc nie wiem coś chciał kupić przed świętami.
Jest, jest w przedsprzedaży, zajrzyj na stronę, od dawna wisi. ---> Ale i tak nie dostaniesz jej teraz. Więc jaki jest sens? i To pewnie referent. Drogi, głośny, niepodkręcony. To nie lepiej poczekać na coś od ASUSa albo Gigabyte?
Tak, jeszcze nie wiadomo co to będzie, ale już jest w przedsprzedaży!
KUPUJ!!!!!!!!
oczywiście że będą monitory:
np. Asus ProArt PA32U - 32" 4K HDR do tego g-Sync 144Hz i technologią quantum dot - cena na razie w fazie domysłów ale z przecieków w
granicy 3000 euro.
HDR na kartach Nvidii jest wspierane od GF 9xx w górę. Potrzebne jest jedynie HDMI 2.0. W praktyce HDR mogłyby wspierać wszystkie karty graficzne od Geforce 6600 czyli od karty z 2004 roku, bo od tych wprowadzono technologię HDR w grach, czyli wewnętrzne przetwarzanie danych graficznych z precyzją 32-bitów w liczbach zmiennoprzecinkowych tj. od Obliviona.
Telewizyjny HDR, a dokładniej HDR10 to standard precyzujący w jaki sposób przesyłać informacje HDR przez HDMI, czy w wewnątrz strumienia MPEG.
Pod Windows ten standard jeszcze nie został wdrożony. Nvidia ma swoje natywne wsparcie, ale wymaga to implementacji w kodzie gry tj. przygotowania framebuffera w odpowiednim formacie i poinformowania sterownika, że gra wysyła sygnał HDR.
Microsoft wprowadzi HDR wraz z "Creators Update" co da ujednolicony sposób wsparcia tej technologii na kartach Nvidii, AMD i Intela.
Na chwilę obecną jest tylko jedna gra wspierająca HDR, jest to Shadow Warrior 2.
Demo Resident Evil 7 HDR nie wspiera, mimo hucznych obietnic. Prawdopodobnie będziemy czekać za Creators Update zanim ta gra dostanie wsparcie.
Na chwilę obecną można śmiało kupować karty z serii GF 10xx, będą wspierać HDR. Tak jak karty 9xx. Na monitory sobie jeszcze poczekamy. Jednak, żeby HDR miało sens potrzebny jest monitor z pełnym strefowym podświetlaniem LED, albo OLED. Podświetlenie krawędziowe też działa, ale efekt jest wyraźnie słabszy.
Technologia ta w monitorach będzie przez pierwszy rok bardzo droga. Tak jak ma to miejsce w przypadku TV. Pewnie zobaczymy też tańsze monitory z HDR, ale może to być takie oszukane HDR, a nie pełne wsparcie standardu HDR10.
W przypadku komputerów HDR aż tak bardzo potrzebny jak w przypadku konsol nie jest. PC używa innego standardu przesyłania obrazu np. wykorzystuje pełny zakres 0-255 wartości koloru, a nie 16-235 jak w przypadku TV. Potrzeba naprawdę dobrego wyświetlacza HDR z wieloma strefami podświetlenia, by efekt ten dał wyraźne korzyści.
Na PC są też od lat dostępne monitory z przestrzenią Adobe RGB.
W przypadku TV wersja HD vs HDR robi ogromną różnicę, ale to wynika tylko z faktu jak bardzo sygnał HD ma ograniczoną przestrzeń barw.
Używając kodeków MadVR można symulować efekt HDR z materiałów filmowych w tym formacie na zwykłych monitorach i o dziwo daje to całkiem dobre rezultaty. Oczywiście pełnoprawny TV HDR zostawia je daleko w tyle, ale nawet taki symulowany HDR wygląda o niebo lepiej niż obraz z kanałów HD.
Dziękuję za wyczerpujące wypowiedzi, trochę nabiera to sensu, lecz nadal temat jak "rwąca rzeka".
Mam nadzieje, że 2017 przyniesie nam worek kompleksyjnych technologi stworzonych dla zwykłych konsumentów.