Forum Gry Hobby Sprzęt Rozmawiamy Archiwum Regulamin

Forum: HDR – czyli trzy literki które wprowadziły największą zmianę w jakości wizualnej gier od wielu lat

03.07.2018 19:14
A.l.e.X
1
A.l.e.X
128
Alekde
Image

HDR – czyli trzy literki które wprowadziły największą zmianę w jakości wizualnej gier od wielu lat

Pamiętam jak jeszcze niedawno skrót HDR kojarzył mi się z ustawieniami w opcjach gry Half-Life 2. Następnie nastała kolejna fala mody na sprzęt który wnosi coś nowego. Wszyscy pamiętamy jeszcze niedawny boom na telewizory, a potem monitory 3D, oraz jak to jeszcze nie tak dawno świat miał oszaleć na punkcie zabawy VR. Moda przeminęła wprowadzone technologię okazały się dużo słabsze niż można było oczekiwać, ostatecznie rynek je wchłoną i o nich zapomniał.

Teraz mamy nowe hasło reklamowe 4K oraz HDR – czy to faktycznie nowa jakość ?

HDR czyli High Dynamic Range to oznaczenie szerokiego zakresu dynamiki, w skrócie można uznać że obraz ma dużo większą rozpiętość tonalną (dużo większą dostępność kolorów oraz odcieni). Obecnie standardowe monitory oraz telewizory mają 8 bitowe matryce (8bpc) oraz maksymalną jasność na poziomie 200-300 cd/m2 (nitów). W przypadku monitorów HDR mamy 10bitów (10bpc) oraz jasność przekraczająca 500cm/m2. W przypadku TV nawet 12bpc. Nie tak dawno wprowadzono oznaczenia certyfikujące które zostały dodane do monitorów jako VESA HDR 400 / 600 oraz najwyżej 1000.

Wraz z najnowszą wersją Windows 10 oznaczoną buildem 1803 z 21.05.2018 dostaliśmy możliwość włączenia HDR w opcjach windowsa. Ustawienia Ekranu -> Format HDR i WCG. [ta opcja pojawi się tylko wtedy kiedy Windows rozpozna monitor oraz kartę która umożliwi wyświetlenie treści HDR) Czy faktycznie to działa i jak to działa.

Po pierwsze należałoby wyjaśnić pewne aspekty techniczne (karta graficzna)

W przypadku kart graficznych obraz HDR możemy uzyskać na kartach graficznych Nvidia serii 9xx na wyjściu HDMI2.0 (nie ma możliwości uzyskania obrazu HDR na złączu DisplayPort), oraz Nvidia serii 10xx na złączu HDMI2.0 i DisplayPort1.4. (Niestety w przypadku kart AMD nie jestem w stanie tego precyzyjne określić ale prawdopodobnie jest on dostępny wraz z oznaczeniami kart RX 4/5.. (jeśli ktoś jest w stanie to zweryfikować to proszę o komentarz do uzupełnienia tematu). Obraz HDR jest wyświetlany tylko w pełnym ekranie (wynika to ze zmiany trybu pracy) nie można uruchomić gry w tym trybie w oknie, oraz jest dostarczany w rozdzielczości natywnej odbiornika. W przypadku monitorów 4K dostępny jest tylko w trybie 4K i 1080p. W przypadku monitorów HDR 1440p lub innych będzie dostępny w rozdzielczości natywnej.

(monitor/TV)

Jeśli już dysponujemy kartą graficzną zdolną do obsługi obrazu HDR potrzebny jest nam właściwy monitor. Monitory dostępne na rynku z oznaczeniem HDR będą miały podane dwie wartości, po pierwsze panel 10bit (10bpc) oraz wartość szczytową opisaną w cd/m2 (nitach), w tym momencie pomijam inne aspekty danego monitora jak podświetlenie, wartość kontrastu, matryca (aczkolwiek najlepiej tutaj wybrać MVA/VA w przypadku monitora i Oled w przypadku TV) itc. ponieważ są to już indywidualne aspekty jakościowe danego monitora,
Efekt i różnica w odczuciu jakości obrazu HDR zależy głównie od szczytowej wartości opisanej w cd/m2 i tutaj właśnie przychodzi standaryzacja o nazwie VESA HDR 400/600/1000

Sam mając monitory HDR oraz Telewizory HDR sprawdziłem czy opisane na HDTVPolskam zestawienie pokrywa się z odczuciem obcowania z nową jakością obrazu

Oznaczenia z HDTVPolska

Wyniki można zinterpretować w następujący sposób (na obecny czas):

350 cd/m2 – minimum, by w ogóle było widać, że jest to obraz z efektem HDR
351 – 500 cd/m2 – przedział w którym da się odczuć wyższą jasność i większą ilość detali w bielach, ale nie ma jeszcze przepaści względem treści SDR
501 – 750cd/m2 – zaczyna się robić przyjemnie, czuć, że obcujemy z nową jakością obrazu
751 – 1 000 cd/m2 – efekt HDR wyraźnie odczuwalny, ilość detali w jaskrawych polach jest bardzo duża
1 001 – 1 500 cd/m2 – efekt HDR w pełnej krasie, wywołujący efekt WOW
> 1 500 cd/m2 – pieśń przyszłości, sam czekam na wyświetlacz, który będzie w stanie pokazać efekt HDR w takim wymiarze.

Po testach własnych mogę powiedzieć że jest niesamowicie duża przepaść jakościowa w obrazie HDR między HDR400, a 600, w HDR1000 to prawdziwy pokaz tej technologii w najlepszy dostępnym na rynku wydaniu i w tym przypadku należałoby kierować się zasadą jeśli już chcemy mieć do czynienia z nową jakością musimy zaopatrzyć się w odbiornik m.in. z oznaczeniem VESA HDR600, a najlepiej HDR1000 (wow!). Jeśli jednak wybierzemy VESA HDR400 to i tak obraz HDR będzie obrazem dużo ładniejszym od SDR (jednak do spektakularnego efektu HDR będzie mu brakować)

Lista monitorów dostępna na dzisiaj

DisplayHDR 1000

Acer Predator X27 – 27” 4K 144Hz, G- Sync podświetlanie LED, powyżej 1000cd/m2
ASUS ROG Swift PG27UQ – 27” 4K 144Hz, G-Sync podświetlanie LED, powyżej 1000cd/m2
Philips Momentum 436M6VBPAB – 43” 4K 60Hz, FreeSync 2, Qudantum Dot, powyżej 1000cd/m2

DisplayHDR 600

Acer ProDesinger BM270 – 27” 4K 60Hz, 600cd/m2
Dell S2719DC – 27” 1440p, 60Hz, FreeSync, 600cd/m2
HP Pavilion Gaming 32 HDR Display – 32” 1440p, 75Hz, FreeSync 600cd/m2
LG 34WK95U – 34” 21:9 5120x2160 (5K2K), Nano IPS, 60Hz, 600cd/m2
LG 32UL950 – 32” 4K, Nano IPS, 60Hz, 600cd/m2
Philips Brilliance 328P6VUBREB – 32” 4K, 60Hz, 600cd/m2
Samsung CHG70 – 32” 1440p, Quantum Dot, QLED, 144Hz, FreeSync 2, powyżej 600cd/m2
Samsung CHG90 – 49” 32:9 ultra panoramiczny 3840x1080, Quandum Dot, QLED, FreeSync 2, 144Hz, 600cd/m2

DisplayHDR 400

Acer Nitro XV273K – 27” 4K, 144Hz, FreeSync, 400cd/m2
Acer Predator XB273K – 27” 4K, 144Hz, FreeSync, 400cd/m2
Acer Nitro VG271U - 27” 4K, 144Hz, FreeSync, 400cd/m2
Acer EI491CR – 49” 32:9 ultra panoramiczny 3840x1080, Quandum Dot, QLED, FreeSync 2, 144Hz, 400cd/m2
AOC AG273QCX – 27” 1440p, 144Hz, FreeSync 2, 400cd/m2
AOC AG322QC4 – 32” 1440p, 144Hz, FreeSync 2, 400cd/m2
ASUS ProArt™ PA24AC – 24” 1080p, 400cd/m2
ASUS ROG Strix XG49V – 49” 32:9 ultra panoramiczny 3840x1080, Quandum Dot, QLED, FreeSync 2, 144Hz, 400cd/m2
ASUS ROG Strix XG32VQR – 32” 1440p, FreeeSync 2, 144hz, 400cd/m2
ASUS ROG Strix XG49VQ – 49” 32:9 ultra panoramiczny 3840x1080, Quandum Dot, QLED, FreeSync 2, 144Hz, 400cd/m2
BenQ EX3203R – 32” 1440p, FreeeSync 2, 144hz, 400cd/m2
Dell S2719DM – 27” 1440p, 60Hz, 400cd/m2
Dell U3219Q - 32” 4K, 60Hz, 400cd/m2
LG 32GK850F – 32” 1440p, FreeeSync 2, 144hz, 400cd/m2
LG 34GK950F – 34” 21:9 3440x1440, 100Hz, 400cd/m2
LGE 27UL850 – 27” 4K, 60Hz, 400cd/m2
Philips Brilliance 328P6AUBREB – 32” 1440p, 60Hz, 400cd/m2
Philips Momentum 328M6FJRMB – 32” 1440p, 144Hz, 400cd/m2
Philips Momentum 436M6VBRAB – 43” 4K, 60Hz, 400cd/m2

Oczywiście ta lista będzie stale się rozrastała, jednak jak w poprzednim zdaniu kierowałby się wyborem min. HDR600 a najlepiej HDR1000

W przypadku TV jako urządzenia do gier rozpiska z HDTVPolska gdzie przy obecnym dostępie TV nie ma co wybierać TV z wartościami mniejszymi niż 1100+ cd/m2 oraz w przypadku Oled z wartościami mniejszymi niż 700cd/m2 (w przypadku oled ze względu na nieskończoną czerń wartość cd/m2 może być niższa aby efekt był i tak widoczny przy mniejszej wartości)

(złącze)
HDMI2.0 – ma możliwość przesłania obrazu w HDR 4K w formacie okrojonym kompresja 4:2:2 w 10bit w 60Hz oraz HDR 4K w pełnym 10bit RGB w 30hz ze względu na samą przepustowość złącza HDMI2.0 ok. 18Gbps

DisplayPort 1.4 – ma możliwość przesłania obraz w HDR 4K w formacie pełny 10bit RGB 60Hz-120Hz ze względu na samą przepustowość złącza ok. 32.4Gbps

Jak widzimy po w/w zestawieniu w przypadku obrazu HDR 4K pełnego w 60Hz+ (60fps+) możemy zagrać obecnie tylko na monitorach ze złączem DisplayPort / TV oraz monitory ze złączem HDMI2.0 zawsze będą przesyłać obraz w kompresji (gorszej jakości)

W przypadku gier konsolowych obraz nigdy nie jest HDR 4K natywny 60fps więc tam ze względu na niższe rozdzielczości oraz interpolacje i/lub zachowanie wartość 30 klatkowej rozgrywki bez straty na jakości jest możliwa na HDMI2.0.

Do PC i HDR 4K na ten moment do czasu opracowania HDMI2.1 potrzebny jest DisplayPort, lub w przypadku niższych rozdzielczości natywnej jak np. 1440p lub innych natywnych z HDR wystarczy złącze HDMI2.0

Lista gier PC wspierających HDR (na ten moment dostępne i przetestowane prze mnie)
- ARK: Survival Evolved
- Agents of Mayhem
- Assassin’s Creed Origins
- Battlefield 1
- Call of Duty WW2
- Destiny 2
- F1 2017
- FarCry 5
- Final Fantasy XV
- Forza Motosport 7
- Gravel
- Halo Wars
- Hitman
- Injustic 2
- Middle-earth : Shadow of War
- Mass Effect : Andromeda
- Ni no Kuni II
- Obduction
- Resident Evil VII
- Shadow Warrior 2
- Star Wars Battlefronr 2
- The Elders Scrolls Online : Summerset

W produkcji każda AAA następna gra od Ubisoft / EA / Square Enix

Z głośnych tytułów:
- Athem
- Metro Exodus
- Assassins Creed Odyssey
- Resident Evil 2
- Battlefront V
- Call of Duty Black Ops IV

Kilka słów na koniec.

Byłem całkowicie neutralnie nastawiony do tej technologii jednakże kiedy sam to sprawdziłem empirycznie mogę napisać jedno. HDR trzy literki które całkowicie zmieniają obraz, wygląd obcowanie z daną grą. Jest to tak niesamowicie duży krok jakościowy że nie da się tego opisać słowami. Byłem i jestem przeciwnikiem VR oraz 3D w grach, kiedy na głowie hełm + ciężkie okulary przyjemność z gry jest bliska zeru więc może kiedyś. W tym przypadku mamy obraz i jakość która nigdy wcześniej nie gościła w grach video. Jeśli ktoś dzisiaj rozważa zakup nowego monitora i jest miłośnikiem gier to tylko z oznaczeniem HDR. Niestety w przypadku tej technologii nie ma możliwości robienia i pokazywania screenów, a filmy HDR wyświetlane na monitorze/TV bez HDR nie wyświetlą poprawnie obrazu (brak właściwej kolorystyki)

Temat postaram się uzupełnić w miarę rozwoju technologii

post wyedytowany przez A.l.e.X 2018-12-07 23:31:11
03.07.2018 19:44
Amadeusz ^^
2
odpowiedz
Amadeusz ^^
149
Grant us eyes

Technologia jest bardzo fajna i na sensownym TV/monitorze rzeczywiście robi wrażenie (szczególnie w ciemnych pomieszczeniach z OLEDową czernią - kontrast absolutnie urywa dupę i jest to coś co nie było możliwe kilka lat temu).

Jest jednak kilka rzeczy które bardzo mnie wkurzają:
- HDR HDRowi absolutnie nierówny, przeciętny Kowalski musi robić x-godzinny research żeby się tak naprawdę dowiedzieć jakie rodzaje HDRu występują i czym się różnią. Jest coraz więcej standardów które tylko wprowadzają zamieszanie,
- na rynku jest mnóstwo sprzętu 'z HDR' na którym HDR jest w ogóle niewidoczny - za niska jasność. Wprowadzanie ludzi w bambuko oznaczeniami, bo jak wyświetlacz nie potrafi osiągnąć tych 400-500cd/m2 to to dupa a nie HDR - a naklejka jest,
- zamieszanie z kablami - niektóre w ogóle nie mają oznaczeń czy obsługują HDMI 2.0, ogólnie też często brakuje informacji że jest to absolutny requirement. Inna sprawa że 2.1 jeszcze nawet nie wyszło.
- zabugowany software, jak chciałem sobie podłączyć TV do telewizora to musiałem sprzętowo wyłączać inna podłączone monitory i bawić się w inne dupsy zanim HDR się łaskawie włączył. Bardzo kapryśne zachowanie i zmarnowałem kilkadziesiąt minut na troubleshooting,

Technologia przyszłości (za 10 lat każdy na ekrany bez dobrego HDR będzie patrzył tak jak teraz patrzy się na rozdzielczości <1080p) i bezdyskusyjnie zmieniająca jakość obrazu, ale bardzo raczkująca i po prostu upierdliwa, chyba że ktoś gra na konsoli, takie PS4Pro się podłącza dołączonym kablem i ma wszystko w nosie (super odskocznia po cyrkach z PC).

03.07.2018 20:16
A.l.e.X
3
odpowiedz
A.l.e.X
128
Alekde

Amadeusz - dlatego na PC wprowadzono w końcu standard VESA400/600/1000 teraz wiadomo że monitor będzie miał oznaczenie HDR z tym oznaczeniem, 400 szczytowe 400cd/m2 (efekt niewielki ale 10bit i tak daje różnice w cieniowaniu + 200cd/m2 więcej niż na zwykłym monitorze da nam efekt punku świetlnego), w przypadku VESAHDR600 efekt jest już odczuwalny i wyraźna różnica względem SDR, za to już VESAHDR1000 to już absolutny top i "opad szczęki" ludzie którzy pierwszy raz widzą 1000+ nitów i 10bit są w takim szoku, że zazwyczaj przez chwile nic nie mówią.

Dodatkowo nowa kompilacja Windowsa jest już moim zdaniem plug'play - aczkolwiek nie wszystkie gry tak, np. w shadow of war opcja HDR jest ukryta w opcji jasności i tylko wtedy się pojawi jak Windows ma włączony HDR w Windows (bez sensu), wolę jak to robią inne gry czyli przełączają tryb tylko w grze, a windows wracają do SDR. Jednak Shadow of War to była jedna z pierwszych gier, ostatnie jak np. FarCry 5 to ustawienie HDR w grze w 5 sekund.

Wszystkie gry z HDR testowałem na PC więc jak ktoś ma jakieś pytania co do ustawień to służę pomocą, tak samo jak ustawienie jasności jeśli jest inaczej opisana niż na dwóch białych boxach.

03.07.2018 20:59
4
2
odpowiedz
1 odpowiedź
Likfidator
111
Senator

Między 500 nitów, a 1000 aż tak wielkiej różnicy nie ma, a nawet na 300 nitach jakiś tam sens tego HDR jest, ale pod warunkiem że matryca ma strefowe podświetlenie LED.

HDR najłatwiej przedstawić jako zwiększoną jasność, ale nie w tym rzecz. HDR to przede wszystkim nowy standard przesyłania strumienia video, gdzie metadane opisują jasność każdego piksela.
Pozwala to wyeliminować banding, bo ciemne sceny mogą w końcu korzystać z całego 8-bitowego zakresu składowych, po prostu podświetlenie matrycy będzie na niskiej wartości.

Innymi słowy HDR daje bardzo plastyczny obraz, gdzie widzimy detale w cieniach i jasnych punktach, a jednocześnie ciemne miejsca są ciemne, a jasne rażą w oczy.

SDR vs HDR to jak wprowadzenie telewizji kolorowej.

HDR nie da się opisać. To trzeba zobaczyć na własne oczy. Najlepsze wrażenie robią źródła światła w grach. Czy to lampy samochodów w Forzie, czy LEDy futurystycznych strojów w Mass Effect albo Gears of War 4.

HDR dodaje obrazowi głębi i nawet po dwóch latach oglądania treści HDR nadal zachwyca.

Największego kopa daje jednak to, gdy po obejrzeniu serialu w HDR, przełączymy się na zwykłą TV. Zwykły obraz HD wygląda tragicznie.

Gry to już w ogóle pokazówka dla HDRu, bo mogą generować zakresy jasności nieosiągalne dla profesjonalnych kamer filmowych. Choć trzeba przyznać, że każdy kolejny serial HDR od Netflixa robi z tego coraz lepszy użytek.

03.07.2018 21:25
4.1
1
Lutz
173
Legend

Gry to już w ogóle pokazówka dla HDRu, bo mogą generować zakresy jasności nieosiągalne dla profesjonalnych kamer filmowych.

Nie ma znaczenia, wszystko i tak robi sie w poscie.

03.07.2018 21:11
Niedzielny Gracz
5
odpowiedz
1 odpowiedź
Niedzielny Gracz
68
Konsul

Od czasu, czyli gdzieś roku 2006, kiedy 40' plazmy przestały kosztować po 30tyś złotych za sztukę, byliśmy kuszeni telewizorami LCD z coraz lepszą prezentacją obrazu poprzez zwiększanie kontrastu. W 2006 idealny obraz był przy 500:1, w 2008 roku już 2000:1 itd itd. W końcu spece od marketingu oszaleli, i zaczęli reklamować tv z kontrastem 20000:1, czy nawet 200000:1. Wszystko po to, by naiwni klienci znowu kupili nowy telewizor.

Dziś podkręcanie kontrastu przebiło skale absurdu, więc ktoś wymyślił nowy wabik i numer się powtarza. Na tym zdjęciu, które dodał Alex, różnica jest taka, że obraz po prawej ma znacznie większy kontrast. Tylko tyle. To wszystko przestawi się w ustawieniach telewizora. I nic poza tym, co by było warte wydania kilku tysięcy złotych więcej.

03.07.2018 21:29
Amadeusz ^^
5.1
Amadeusz ^^
149
Grant us eyes

Przy odpowiedniej scenie i odpowiednim sprzęcie różnica w obrazie jest kolosalna - tak jakby ktoś włączył tryb dodatkowych kolorów i punktowej jasności.

Nie ma to absolutnie nic wspólnego z podkręcaniem kolorów, na SDR nie uzyskasz HDR tak jak słuchawek 2.0 nie nastroisz ustawieniami tak żeby grały jak kino domowe 7.1.

Najpierw zobacz na żywo, później pisz o pompowaniu cyferek kontrastu :)

03.07.2018 21:23
6
odpowiedz
Lutz
173
Legend

I nic poza tym, co by było warte wydania kilku tysięcy złotych więcej.

Bez przesady, HDR to fakt, gamut jest duzo wiekszy.

Ale obrazki takie jak ten sa o kant dupy roztrzas :) bo przeciez nie da sie pokazac jak lepszy jest obraz HDR na monitorze nie-HDR, stad takie zagrania z kontrastem.

post wyedytowany przez Lutz 2018-07-03 21:23:37
03.07.2018 21:30
7
odpowiedz
Likfidator
111
Senator

Niedzielny Gracz, nie rozumiesz. Matryce LCD z roku na rok miały coraz lepsze parametry, aż w pewnym momencie standard zapisu obrazu w strumieniu zaczął je ograniczać.

HDR to nowy standard przesyłu informacji o obrazie. Bardzo przyszłościowy, bo nawet podstawowy HDR10 zakłada jasność aż 10 000 nitów, mimo iż najlepsze TV nie przekraczają 2000 nitów.

Efektu HDR nie zobaczysz na tradycyjnym wyświetlaczu. To tak jakbyś miał wytłumaczyć daltoniście czym różni się zielony od czerwonego.

HDR nie zobaczysz też w sklepie, bo tryb ten zakłada oglądanie ekranu w ciemnym pomieszczeniu.

Mówiąc jeszcze inaczej, oglądając zwykłą TV twoje oko pracuje na stałej szerokości źrenicy. W przypadku HDR źrenica będzie musiała pracować i dynamicznie zmieniać rozmiar, wyzwalając efekt oślepienia np. wybuchem czy innym jasnym rozbłyskiem.

Nie spotkałem się jeszcze z przypadkiem, by HDR nie zrobił wrażenia na kimś. Zawsze kończyło się to na "WOW".

03.07.2018 21:37
A.l.e.X
8
odpowiedz
A.l.e.X
128
Alekde

Niedzielny Gracz - nie czytałeś tego co napisałem. Nie da się pokazać screena HDR nie da się też pokazać filmu, można nagrać w HDR i odtworzyć na odbiorniku HDR tylko. Screen który jest wrzucony w wątku nie przedstawia obrazu porównawczego HDR tylko przykład różnicy spektakularnej. Jakbyś zobaczył w SW:Battlefornt ostatnią walkę statków na pustynnej planecie przy zachodzącym słońcu to byś nie był w stanie zrozumieć tej przepaści jakościowej, że czujesz ten żar oraz ten gorący piasek przy sobie. To tylko taki mały przykład bo gry w HDR są zrobione całkowicie na podstawie metadanych z dodatkową informacją. Sam z wielką przyjemnością skończyłem jeszcze raz CoDWW2 oraz Battlefront 1.

Likfidator - różnica pomiędzy 500nitów, a 1000 jest wręcz kolosalna. Spodziewałem się że różnica będzie (ze względu na sugestie z HDTVPolska ale nie sądziłem że aż tak niesamowicie duża. Dlatego m.in. napisałem też o standardach). Jak ktoś chce z miejsca zostać wyrwany z butów to na ten moment ma trzy monitory do wybory z VESAHDR1000.

03.07.2018 21:40
kokoju
👍
9
2
odpowiedz
kokoju
97
Handlarz z Neverwinter

Bardzo się cieszę że taki wątek się na GOLu pojawił, naprawdę miło zobaczyć to wszystko w jednym miejscu :D

Sam na razie przy moim budżecie mogę o "zestawie HDR" pomyśleć jak o planie na najwcześniej 2019, ale niewątpliwie widząc że coraz więcej gier korzysta z tej technologii chciałbym w przyszłym roku grać już w nowe produkcje na monitorze przynajmniej HDR 600. I już tam nawet nie dbam o 4K bo 1440p przy 27 calach było by dla mnie doskonałą opcją.

Nie ukrywam że sama perspektywa ogrywania serii Assassin's Creed w dobrym HDR jest tym co mnie kupuje więc do wątku na pewno będę regularnie zaglądał i liczę że za kilkanaście miesięcy, już po targach CES 2019 będzie w Polsce konkretny wybór monitorów HDR 600 w lepszych cenach niż teraz.

post wyedytowany przez kokoju 2018-07-03 21:41:07
03.07.2018 21:42
10
odpowiedz
Heinrich07
2
Generał

Fajny wątek, dzięki.

Pytanko - jaka rozdziałka jest najlepsza dla HDR? Standardowo - im większa tym lepsza? No i co, jeśli chciałbym na nowej budzie i nowym monitorze pozostać przy FHD, ale skosztować HDR?

No i jak HDR ma się z technologiami typu g-sync i freesync - czy jedno nie blokuje drugiego?

03.07.2018 21:45
Niedzielny Gracz
11
odpowiedz
Niedzielny Gracz
68
Konsul


Amadeusz ^^
Likfidator
A.l.e.X

Zachowujecie się jakbyście mieli 19 lat i pierwszy raz na studniówce złapali dziewczynę za biust :)

post wyedytowany przez Niedzielny Gracz 2018-07-03 21:46:37
03.07.2018 21:46
A.l.e.X
12
2
odpowiedz
A.l.e.X
128
Alekde

Heinrich07 - HDR w monitorach 4K dostępne jest w opcjach 1080p i 4K, w 1440p oraz innych bo może to być monitor np. 32:9 jest dostępna w rozdzielczości natywnej. Teoretycznie obraz na ekranie 4K ładnie się skaluje w dół do 1080p więc można jak ktoś nie chce inwestować w potężny sprzęt kupić albo 4K i grać np. w nowsze gry z HDR w 1080p lub kupić o innej natywnej rozdzielczości jak np. 1440p.

Odpowiadając na drugie pytanie HDR działa z Freesync i G-Synciem, najlepszy obecnie monitor technologicznie Asus ma 144Hz w 4K z HDR i G-Sync, niestety ze względu na DisplayPort 1.4 HDR może być wyświetlany maksymalnie w 98hz przy RGB 10bit pełnym w 4K. Dopiero wprowadzenie wyższego standardu złącza i przepustowości pozwoli na np. 144Hz w HDR z 4K (tylko trzeba by było obecnie mieć min 3x1080TI do takiej ilości fps w 4K)


Niedzielny Graczy
- tu nie chodzi o "podniecanie się" tylko o fakt który stał się. Po 10 ostatnich latach zastoju została wprowadzona technologia która całkowicie zmienia jakość w wyświetlanym obrazie, a gry głównie na tym skorzystały. To jak wygląda gra w SDR / i ta sama w HDR to przepaść nie do opisania, musisz to po prostu zobaczyć aby się wypowiedzieć inaczej będziesz pisał to co ja kiedyś właśnie o HDR / też mi się wydawało że można za pomocą np. SFX ustawić kolorystykę. Nie chodzi jednak o nią tylko o rozpiętość barw pomiędzy pkt mroku i światła.

post wyedytowany przez A.l.e.X 2018-07-03 21:52:20
03.07.2018 22:59
Niedzielny Gracz
13
odpowiedz
1 odpowiedź
Niedzielny Gracz
68
Konsul

A.l.e.X

Gram na XOX z dedykowanym przez MS oledem.

HDR to tylko kwestia ogromnego kontrastu względem starych typów telewizorów. Ładnie to wygląda, ale to żadna rewelacja na miarę skoku jakościowego np. trinitronów. Reszta to tylko umiejętny marketing, który, jak zawsze, znajduje gorliwych wyznawców.

post wyedytowany przez Niedzielny Gracz 2018-07-03 23:02:33
03.07.2018 23:05
13.1
Lutz
173
Legend

Nie, to nie kwestia ogromnego kontrastu, nie masz pojecia o czym piszesz, poczytaj troche o przestrzeni rec.709 i rec 2020, zobacz na google wykresy - nawet laik powinien to zrozumiec, poczytaj dlaczego monitory nie wyswietlaja koloru liniowo.

To jest troche skomplikowane, ale kiedys ludzie nie wierzyli ze ziemia jest okragla (do dzisiaj mamy takich pewnie nawet na tym forum). Troche wiedzy nikomu nigdy nie zaszkodzilo.

Skok jakosciowy trinitronow? o czym ty bredzisz?
Chodzi ci o ksztalt kineskopu czy rozmieszczenie luminoforu? Bo mam wrazenie ze chcesz blysnac ale nie bardzo wiesz o co sie zaczepic.

post wyedytowany przez Lutz 2018-07-03 23:07:12
04.07.2018 00:55
A.l.e.X
14
1
odpowiedz
A.l.e.X
128
Alekde
Image

Niedzielny Gracz - Nie jestem w stanie ci odpowiedz na pytanie dlaczego nie umiesz włączyć opcji HDR w swoim TV ;) bo na HDR właśnie MS postawił jako pierwszy robiąc m.in wrzutkę w Gears of War 4.

Jakby ci tutaj wytłumaczyć najprościej, może tak. Jak masz normalny monitor/TV z 8bit matrycą to masz ok. 256 odcieni szarości (w rezultacie tak naprawdę 220 które przy podświetleniu 100cd/m2 były wystarczające do przejścia tonalnego, w przypadku obrazu HDR ze względu na dużo większe zakres podświetlenie np. 1000cd/m2 (HDR domyślnie do 10000cd/m2) trzeba było wprowadzić dodatkowe wypełnienie aby odcienie nie wyglądały jak paleta składająca się z kwadratowych kolorów, dlatego matryce 10bit mają 1024 odcieni szarości. (tak wygląda przejście tonalne - zakres ten został znacząco poszerzony). M.in dlatego dostajesz gigantyczną większą ilość kolorów 8bit ma ich 16.7Miliona, a 10bit ma ich 1.07Miliarda (64x więcej) - to jeśli chodzi tylko o kolorystykę i przejście tonalne. Druga różnica to możliwość wyświetlania punktów bardzo jasnych i bardzo ciemnych w jednej scenie co daje dużo większe możliwości wyświetlenia obrazu. Pomijam tutaj jarzący się miecz świetlny w Star Wars czy pioruny w Gears of War 4, lub punkty świetlne po włączeniu plecaka odrzutowego w Mass Effect chodzi m.in. o możliwość pokazania scen złożonych jak np. chmur na niebie wraz z słońcem które nie jest już flarą, a przez chmury przechodzą promienie słoneczne, pomieszczeń np. jaskiń w AC: Origin gdzie wchodząc do jaskini widzisz mrok oraz jednocześnie naturalny wygląd świec, itc. itc.

Mógłbyś zadać np. pytanie dlaczego nie każda gra ma HDR albo nie da się go włączyć odp. HDR musi być zaimplementowany w danej grze są to dodatkowe dane opisujące tworzoną scenę. M.in dlatego do HDR potrzebne są odpowiednie złącza które mogą te dane przesłać w odpowiedni czasie o czym napisałem w poście nr 1.

Obok załączam ci jeszcze mały schemat abyś mógł to lepiej zrozumieć.

post wyedytowany przez A.l.e.X 2018-12-07 23:35:14
04.07.2018 12:14
15
1
odpowiedz
kaersol
22
Chorąży

Widziałem HDR w Media Markcie na TV za 14 koła. Powiem wprost. To żadna rewolucja, a miły dodatek. Największa rewolucję poczułem, kiedy na głowie miałem HTC VIVE z kontrolerami ruchowymi. To jest prawdziwa technologia, która w pełni daje satysfakcję obcowania z czymś nowym. HDR pewnie bedzie niedlugo standardem ale nie ma to jakiegos super ultra wpływu na wrazenia wizualne. Jestem za tym, aby wspierali i rozwijali VR!

post wyedytowany przez kaersol 2018-07-04 12:16:17
04.07.2018 14:45
A.l.e.X
16
odpowiedz
2 odpowiedzi
A.l.e.X
128
Alekde

kaersol - aby zobaczyć materiał HDR musi być od puszczony na TV, a nie mieć naklejkę HDR UPremium / cena TV nie ma tutaj żadnego znaczenia a raczej wielkość cd/m2 (poza tym 14K za TV powiedzmy oled to żadna cena). Rozpiętość tonalna która widzisz na materiale HDR (musiałby być taki włączony z metadanymi) nie dostaniesz na SDR co powoduje że obraz na standardowym urządzeniu wygląda jak z innej epoki. W grach to jest to tak jakbyś grał na low, a w przypadku HDR na ultra z podbitym cfg.

Jeśli chodzi o HTC VIVE lub inne gadżety VR które ważą po 300-500g to pograj w tym przez 3-4 godziny a zapewniam cię że następną porcie zabawy zapewnisz sobie dopiero jak na tym gadżecie będzie z półcentymetrowa warstwa kurzu ;) Pomijam już dostępne materiały oraz technologiczne niedoskonałości : waga/poręczność/rozdzielczość.

04.07.2018 15:42
16.1
kaersol
22
Chorąży

no ale kolego, to był markowy TV Samsunga, HDR musiało tam być włączone, w końcu leciał materiał promocyjny na tym TV i nie było jakiegoś super efektu WOW. Widziałem różnicę w obrazie, w ciemnych i jasnych miejscach ale nie robiło to na mnie jakiegoś wrażenia na poziomie GOGLI VR. Po prezentaacji gogli HTC VIVE w Media Markcie zacząłem rozglądać się za tańszą alternatywą i kupiłem PSVR które mimo małej ceny dostarczają naprawdę frajdy na niemalże identycznym poziomie. Nie grałem w googlach nigdy 4h, bo nawet przed komputerem nie spędzam tyle czasu. Odpalam gogle codziennie na godzinkę/ 1.5 h i bawię się tak wyśmienicie, jak nigdy dotąd. Po prezentacjach HDR w MM jakoś nie zrobiło to na mnie takiego wrażenia jak VR, które od razu kupiłem ( co prawda nie htc vive ale psvr)

20.07.2018 23:19
Hydro2
16.2
Hydro2
124
Legend

Grałem 6H, więc teoria okazała się błędna

15.07.2018 17:31
A.l.e.X
17
odpowiedz
A.l.e.X
128
Alekde
Wideo

Znalazłem fajny materiał porównawczy SDR do HDR który warto obejrzeć aby zrozumieć różnice.

https://www.youtube.com/watch?v=BJ6_cQjSgfw

16.07.2018 18:27
.:Jj:.
18
odpowiedz
.:Jj:.
122
Paciorki jednego różańca

W przypadku monitorów HDR600 na ten moment mamy dostępne :
HP Pavilion Gaming 32 HDR Display – który uzyskał wynik ok. 600 cd/m2
Samsung CHG70 – który uzyskał wynik ok. 600cd/m2
Samsung CHG90 – który uzyskał wynik ok. 600cd/m2

Skąd są te wyniki? Patrzę np na CHG70:
https://allegro.pl/monitor-samsung-qled-27-chg70-lc27hg70qquxen-i7296787796.html Jasność (cd/m2):350
https://www.electro.pl/monitory-led/monitor-samsung-curved-qled-lc32hg70qquxen,id-991670?utm_source=ceneo&utm_medium=cpc&utm_content=875958&utm_campaign=2018-07&utm_term=MONITORY-LED&ceneo_spo=true też 350cd/m˛

Pierwszy mi spadł w oko Dell U2518D 25'*
https://allegro.pl/monitor-dell-u2518d-25-wqhd-2560x1440-ips-hdmi-i7220399671.html
Ma HDR i też Jasność (cd/m2):350

* już wiem czemu taka cena- wystarczy zerknąć na zdjęcia podświetlenia w komentarzach...
https://www.x-kom.pl/p/375837-monitor-led-24-269-dell-u2518d-5ms-8bit-hdr-hdmi-20.html
Póki co zbyt mało produkcji z niego korzysta. Większość gier z listy w [1] mnie nie interesuje. Plus póki co siedzę na W7 a znając życie trza mieć W10.

post wyedytowany przez .:Jj:. 2018-07-16 18:43:48
17.07.2018 20:31
A.l.e.X
19
odpowiedz
A.l.e.X
128
Alekde

.:Jj:. - ponieważ dostały taki certyfikat VESA HDR600 co znaczy że musiały mieć peak jasności na planszy testowej w ok. 600 cd/m2. Średni wynik dla tego monitora to 382 cd/m2 z peak w trybie HDR 600 cd/m2

Samsung CHG70
https://www.tomsguide.com/us/samsung-chg70-curved-monitor,review-5160.html

HP Pavilion Gaming 32 HDR Display
https://www.displayspecifications.com/en/model/413b1231

Pamiętaj że aby był osiągnięty standard HDR10 musi być 10bit pokrycia + jasność powyżej 400cd/m2 dla VESA HDR400, dla VESAHDR600 to samo z 600cd/m2 jeśli jest to panel 8 bitowy nie ma mowy o HDR10. Możesz co prawda uzyskać w jednej scenie jasne i ciemne elementy ale nie będzie dodatkowych kolorów i odcieni (brak detali w obrazie o którym się mówi w HDR)

Listę monitorów będę się starał uzupełniać w miarę możliwości. Gier z HDR na PC obecnie jest ok. 30 i każda nowa AAA będzie miała HDR dostępny oraz kolorystykę (na pewno wszystkie od Ubisoftu i EA). Różnice w obrazie są tak gigantyczne że (o ile dysponujesz budżetem na zakup takiego monitora) nawet nie brałbym pod uwagę zakupu takiego co nie wspiera tej technologii.

post wyedytowany przez A.l.e.X 2018-07-17 20:37:07
17.07.2018 20:40
A.l.e.X
20
odpowiedz
A.l.e.X
128
Alekde

dla treści HDR są obecnie dwa oznaczenia standard HDR10 (dostępny dla PC w monitorach i najbardziej wspierany), oraz Dolby Vision (dla TV i dodatkowych treści filmowych) różnice poniżej.

Secification HDR 10
Peak Brightness 4000 nits with current target 1000 nits with 0.05 nits of black level or 540 nits with 0.0005 nits of black level
Color Gamut DCI P3
Depth Of Color 10 Bits
Shades of Color 68 billion
Remapping Color and Brightness Data Sent Static (meta data sent once at beginning)

Secification Dolby Vision
Peak Brightness 10,000 nits with current target 4000 nits
Color Gamut Rec.2020
Depth Of Color 12 Bits
Shades of Color 1.07 billion
Remapping Color and Brightness Data Sent Dynamic (meta data sent frame by frame)

17.07.2018 21:31
21
odpowiedz
Likfidator
111
Senator

Alex to jest trochę bardziej skomplikowane. HDR10 jedynie określa format metadanych, reszta jest kwestią strumienia. HDR10 będzie działał na 8, 10 czy 12 bitach. Najczęściej z przestrzenią BT.2020.

Różnica w metadanych jest taka, że HDR10 tylko na początku przesyła dane konfiguracyjne, a w późniejszych klatkach tylko informacje o jasności. Meta dane słane są cały czas.

Dolby Vision zakłada od razu wyższe parametry strumienia i format metadanych jest bardziej wszechstronny.

Dla obecnych wyświetlaczy użyty format nie ma różnicy, bo nie spełniają norm ani HDR10, ani tym bardziej DV.

Jest jeszcze trzeci format HLG, używany przez nadawców telewizyjnych. W ogóle nie używa metadanych i jest wstecznie kompatybilny ze zwykłymi TV. To jednak tylko namiastka HDRu.

Komputery PC wspierają zarówno HDR10 jak i DV. Mass Effect: Andromeda może wyświetlać obraz w obu formatach.

Xbox One ma dostać wsparcie dla DV niedługo, ale na razie tylko dla strumieni.

No i jest jeszcze ulepszony HDR10+, który rozszerza HDR10 do specyfikacji Dolby Vision.

18.07.2018 03:32
A.l.e.X
😍
22
odpowiedz
A.l.e.X
128
Alekde
Image

Likfidator - wszystko się zgadza, w pewnym sensie, jednakże standard VESA HDR 400/600/1000 czyli certyfikacja dla monitorów PC wymusza pewne wartości dla koloru / cd/m2 / oraz 10 bit per color - obok tabela. Wszystkie nowe monitory HDR będą zawężone już do tej grupy, przynajmniej tak to wygląda. Mass Effect Andromeda dostał DV ponieważ to były początki HDR dla gier, prawdopodobnie zostanie to uporządkowane. Na ten moment sprawdziłem wszystkie gry na PC. Przed chwilą skończyłem Halo Wars 2 z dodatkami (i jeszcze jestem w szoku)

20.07.2018 22:35
23
odpowiedz
Likfidator
111
Senator

Alex, mam wrażenie, że mylisz tutaj standard transmisji strumienia video (HDR10 i DolbyVision) z certyfikatem jakości wyświetlacza (VESA HDR 400/600/1000).

Komputer, czy konsola nie ma pojęcia jakie parametry ma monitor. Po prostu uzgadnia obsługiwane formaty np. rozdzielczość 2160p, 30-bitowy kolor, przestrzeń BT.2020, 60 Hz i kompatybilność z metadanymi HDR10 czy Dolby Vision.
Resztą zajmuje się wyświetlacz.

VESA HDR pełni tę samą rolę co "HDR Premium", "HDR Pro", "HDR1000" czy "SUHD" u różnych producentów TV, którzy w ten sposób pozwalają w łatwy sposób odróżnić konsumentowi lepszy TV od gorszego.

DisplayHDR od VESY poza informacją dla klienta nie ma żadnej wartości dla komunikacji PC - ekran.

Wciąż będziesz musiał kalibrować jasność HDR w menu opcji, bo jeden wyświetlacz wymaksuje jasność na 1000 nitów, a inny na 4000. Jest to trochę upierdliwe, bo np. w ramach testów podłączam Xboxa czy PCta do moich TV 4K i każdy wymaga innych ustawień w grze.

Ba, wstępnie trzeba nawet pobawić się ustawieniami jasności, kontrastu itd. w menu TV.

Może z Dolby Vision jest mniej problemów, bo to bardziej doszlifowany standard, ale póki co mam tylko telefon obsługujący ten format.

Na pewno w przyszłości problem ten zostanie jakoś sensownie rozwiązany i wyświetlacz wymieni się danymi kalibracyjnymi z urządzeniem dostarczającym treść.

post wyedytowany przez Likfidator 2018-07-20 22:36:24
20.07.2018 22:51
😐
24
1
odpowiedz
3 odpowiedzi
hinson
78
Generał

Ja znam HDR głownie z gier i kojarzy mi sie ten efekt z tym ze wszystko w nich swieci się ja psu jajca!

21.07.2018 00:52
SpecShadow
24.1
SpecShadow
74
Silence of the LAMs

U mnie podobnie. Na palcach jednej ręki mogę zliczyć gry gdzie nie wyłączałem tego efektu w minutę po rozpoczęciu nowej gry.
Choć i tak lepiej niż efekt bloom który w żadnej grze nie wyglądał dobrze, też wyłączany z miejsca.

21.07.2018 01:04
A.l.e.X
24.2
A.l.e.X
128
Alekde

SpecShadow - jeśli masz dobry ekran + dobrze skalibrowany nie ma szans abyś wyłączył HDR na rzecz SDR ponieważ utnie ci detale na pewno z przeskokiem dużo bardziej spektakularnym niż ich ucięciem względem ustawienia w grze ultra -> low. Oczywiście ilość detali może przeszkadzać w grach FPS sieciowych gdzie często ludzie specjalnie grają na low detalach aby mieć lepszą widoczność bez odwracania uwagi ale to chyba jedyny przykład.

21.07.2018 01:33
snopek9
24.3
snopek9
180
Pogrubiony stopień


SpecShadow -> jaki model tv?

21.07.2018 00:49
A.l.e.X
25
odpowiedz
A.l.e.X
128
Alekde

Likfidator - wszystko co napisałeś to 100% racji. Tak, prawdopodobnie zawsze będziesz musiał za nim gra nie dostanie tabeli informacji o parametrach monitora/tv kalibrować biel albo na pudełkach albo podając wartości jak w grach od Ubi. Chodziło mi o to że na PC powstała pewna standaryzacja dla HDR od VESY na co zgodzili się jak widać producenci bo właśnie dostarczają monitory z taką certyfikacją, dzięki temu istnieje b. duże prawdopodobieństwo (o ile się nikt nie wyłamie) że to rozwiąże całkowicie problem bałaganu o HDR jaki powstał przy TV. Obecnie jak sam wiesz i napisałeś to że w menu gry da się włączyć opcje HDR (pc/konsola) nie przekłada się to na te same doznania, a wszystko zależy od jakości TV. Na PC wydaje się to dzisiaj dość proste wybierasz po prostu monitor z certyfikacją VESY najlepiej VESA HDR 1000.

hinson - tutaj masz pierwszą grę wspierającą HDR to było dość dawno temu (dzisiaj tych gier jest b. dużo na PC ok 30 z efektami takimi że "wyrywa z butów" np. Assassins Creed Origin / Shadow of War / Halo Wars 2 / SW BF2 itd.) masz tam suwaki dla treści SDR i HDR to są tylko przykładu po zrobieniu zdjęć, bo HDR screenów nie da się pokazać ale i tak możesz porównując te zrzuty suwakiem dojść do wniosków ile metadanych w treści SDR brakuje względem HDR

https://hdtvpolska.com/forza-horizon-3-hdr-test-i-recenzja-trybu-hdr-na-xbox-one-s-wideo/

post wyedytowany przez A.l.e.X 2018-07-21 01:00:19
08.08.2018 18:33
Tal_Rascha
26
odpowiedz
1 odpowiedź
Tal_Rascha
150
Lady of the Void

Kupiłem Sony Bravie XE9005, TV w którym HDR zaczyna już wchodzić na przyzwoity poziom a i tak do perfekcji sporo mu brakuje. Podłączyłem PS 4 Pro, odpaliłem Horizon Zero Dawn w 4k+HDR i... opad szczęki. HDR to zupełnie inna jakość jeżeli chodzi o konsumpcję treści na telewizorze. Rozmawianie o tej technologii gdy ktoś jej nigdy nie widział to jak gadanie ze ślepym o kolorach - nie da się.

08.08.2018 19:43
A.l.e.X
26.1
A.l.e.X
128
Alekde

dokładnie tak jest :) szkoda tylko że za nim wszyscy nie będą mieli monitorów / TV z HDR nie da się pokazać screenów (bo na SDR nie zobaczą tego).

Polecam przelecieć się po wszystkich grach z HDRem na Pro

- Gran Turismo Sport
- Uncharted 4 / Lost Legacy
- SW: Battlefront 2
- God of War 4
- Assassins Creed Origin
- Far Cry 5
- Resident Evil 7
- Detroit BH
- Injustice 2
- Infamouse First Light
- Final Fantasy XV

s potem jak chcesz na PC :)
- Forza MS7
- Halo Wars 2
- CoD WW2
- Mass Effect Andromeda
- Battlefront 1

jak będziesz chciał większą listę to napisz

post wyedytowany przez A.l.e.X 2018-08-08 19:44:28
08.08.2018 20:07
Tal_Rascha
27
odpowiedz
Tal_Rascha
150
Lady of the Void

Na ps4 mam uncharted 4 i lost legacy, tego drugiego jeszcze nie przeszedłem. Na pc mam andromede i Final Fantasy ale moj GTX 1080 nie wyrobi w 4K, czekam tu na nowe karty, zanim przejdę Horizona i Lost Legacy to powinny juz byc 2080/1180 to wtedy będzie można podłączyć pc do telewizora

26.08.2018 15:54
Hydro2
28
1
odpowiedz
2 odpowiedzi
Hydro2
124
Legend

Odświeżam po to, bo przez najbliższe tygodnie temat będzie mi potrzebny :P

PS - Szczególne podziękowania dla użytkowników VirtualManiac i Likwidator no i dla Alexa za sam temat :)

26.08.2018 16:21
VirtualManiac
28.1
VirtualManiac
18
Wirtualny

Plusik, że mnie wyszczególniłeś. Dziękuję i pozdrawiam.

27.08.2018 01:21
Hydro2
28.2
Hydro2
124
Legend

Pozdro ;)

26.08.2018 15:58
A.l.e.X
29
odpowiedz
1 odpowiedź
A.l.e.X
128
Alekde

Hydro2 - projektor ma ten plus że efekt HDR na nim zobaczysz spektakularny nawet przy 300-400cd/m2. Wszystkie gry wymajają ustawienia parametru HDR w nich, jest to dość jasno opisane jakbyś jednak miał z tym problem i chciał właściwie to zawsze możesz tutaj napisać lub łapać mnie na steam.

27.08.2018 01:20
Hydro2
29.1
Hydro2
124
Legend

Będę pamiętał ;)

post wyedytowany przez Hydro2 2018-08-27 01:23:33
26.08.2018 16:19
VirtualManiac
30
odpowiedz
VirtualManiac
18
Wirtualny

A.l.e.X Jaki TV byś mi zaproponował z prawdziwym 4K, matrycą OLED i z HDR 1000 nitów? Wielkość TV to minimum 55". A budżet to max 10 000 zł, chociaż wolałbym coś tańszego. Jakość adekwatna do ceny.

Z góry dziękuję za odpowiedź i pozdrawiam.

post wyedytowany przez VirtualManiac 2018-08-26 16:21:57
26.08.2018 16:37
31
odpowiedz
Likfidator
111
Senator

W 55" kupisz LG B7. Lepszego nie potrzebujesz. We wszystkich modelach OLEDów matryce są identyczne, a modele na 2018 rok mają dodane AI z którego i tak mało kto będzie korzystał.

https://www.mediaexpert.pl/telewizory/telewizor-lg-oled65b7v,id-823490
Za 8300 zł jest nawet 65". Ceny mocno poleciały w dół w ostatnim czasie. Przy takich cenach nawet nie warto myśleć o jakimkolwiek LCD.

26.08.2018 16:48
A.l.e.X
32
1
odpowiedz
1 odpowiedź
A.l.e.X
128
Alekde
Image

VirtualManiac - potem zobaczę dokładniej czy coś się zmieniło ale prawdopodobnie będzie tak jak napisał Likfidator, nie za dużo, bardziej można co najwyżej zwrócić uwagę na dodatki jak ambilight od Philipsa, czy inne funkcje. Na pewno przy cenie 10K to nie ma co nawet myśleć o czymś innym niż oled. TV Oled używam jeśli do gier to tylko konsolowych, na PC monitorów, więc nie jestem w stanie zweryfikować nic na temat wypalania o czym ostatnio jest głośno. Ja mam oledy od początku i nie sądzę żeby któryś miał coś wypalone.

obok porównanie czerni, dlatego że jest nieskończona, oled przy 700cd/m2 daje efekt HDR jak 1100+ na LCD czyli spektakularny !

27.08.2018 11:38
marcing805
32.1
marcing805
134
PC MASTER RACE

Jeżeli chodzi o LG, to w Polsce wypalenie obrazu obejmuje gwarancje producenta. W USA już nie i my mamy pod tym względem lepiej. Ale proponuje zapoznać sie z tematem przed kupnem TV Z Oledem, bo na forach jest to dość częsty problem.

26.08.2018 16:58
VirtualManiac
33
odpowiedz
VirtualManiac
18
Wirtualny

Likfidator i A.l.e.X Dziękuję za odzew. No faktycznie jest przepaść między LCD a OLED. A jak jest z input lag? TV będzie głównie służył do gier, więc jak wiecie input lag jest bardzo ważny. Żeby nie był za duży.

26.08.2018 17:12
Fredgard
34
2
odpowiedz
3 odpowiedzi
Fredgard
82
Treasure Hunter
Wideo

W B7 jest 21ms wiec pod tym wzgledem jest bajecznie.

edit: Celuj jednak w tegoroczna serie szczegolnie, ze B7 ma dosyc przyciemniony tryb HDR Gra. LG obnizylo jasnosc panelu po jednej z aktualizacji systemu TV. Narobila sie wokol tego spora afera, byly petycje, ale temat umarl. W tym roku jest lepiej ze wzgledu na Dynamic Tone Mapping w trybie HDR Gra.
https://youtu.be/cU1f2nHRLus w 12 minucie filmu masz wyjasnione co i jak.

post wyedytowany przez Fredgard 2018-08-26 17:23:21
26.08.2018 17:20
VirtualManiac
34.1
VirtualManiac
18
Wirtualny

No 21 ms to zajebiście spoko. Chyba zainteresuję się tym modelem od LG.

26.08.2018 17:27
Fredgard
34.2
Fredgard
82
Treasure Hunter

Smigam na nim juz jakis czas i gdyby nie wyzej wymieniona bolaczka z tym HDRem w trybie gra, byloby zajebiscie. Jezeli chodzi o jakosc obrazu - poezja. Ogladajac wieczorami OLED po prostu miazdzy kontrastem panele LCD.

26.08.2018 17:30
VirtualManiac
34.3
VirtualManiac
18
Wirtualny

Filmik obejrzę. I dziękuję za radę. Spoko kogoś spotkać na forum, kto użytkuje dany model. Czyli jednak ten TV ma problemy z HDR... A już przymierzałem się do kupna.
Dziękuję za ostrzeżenie. Wydać pare tysiaków i nie być z tego zadowolonym nie należy do przyjemnych rzeczy...

post wyedytowany przez VirtualManiac 2018-08-26 17:33:46
26.08.2018 21:04
Hydro2
35
odpowiedz
1 odpowiedź
Hydro2
124
Legend

Alex, Pecetowy Shadow od TR też ma wg tej listy obsługiwać hdr. Warto dopisać :> Ps - dzięki temu tematowi aktualizuję system do 1803. Do teraz siedziałem na 1607 i mi to w pełni wystarczało, ale jak widać, jak chcę hdr, to muszę trzymać się najnowszej wersji systemu. Chore to, ale co zrobić :P

post wyedytowany przez Hydro2 2018-08-26 21:07:00
26.08.2018 23:01
A.l.e.X
35.1
A.l.e.X
128
Alekde

musisz mieć najnowszą kompilację + włączysz w ustawieniach w windows ->ekran niemniej nie zawsze musisz, niektóre gry wymagają aby HDR był włączony w Windowsie np. Shadow of War / gry MS, większość nie wymaga przechodzi w tryb HDR jak wykryje kartę + wyświetlacz HDR. Filmy przez WinPlayer wymagają włączonego trybu HDR w Windowsie. Można b. dobrze skalibrować HDR pod Windows, ale ja polecam mieć jednak SDR w Windowsie jak nie masz potrzeby włączać HDR szczególnie na projektorze bo będzie niższe utrzymanie jasności dla lampy.

27.08.2018 01:17
Hydro2
36
odpowiedz
3 odpowiedzi
Hydro2
124
Legend

ALEX - dzięki za te odpowiedzi i za ten cytat:

Jak masz normalny monitor/TV z 8bit matrycą to masz ok. 256 odcieni szarości (w rezultacie tak naprawdę 220 które przy podświetleniu 100cd/m2 były wystarczające do przejścia tonalnego, w przypadku obrazu HDR ze względu na dużo większe zakres podświetlenie np. 1000cd/m2 (HDR domyślnie do 10000cd/m2) trzeba było wprowadzić dodatkowe wypełnienie aby odcienie nie wyglądały jak paleta składająca się z kwadratowych kolorów, dlatego matryce 10bit mają 1024 odcieni szarości. (tak wygląda przejście tonalne - zakres ten został znacząco poszerzony). M.in dlatego dostajesz gigantyczną większą ilość kolorów 8bit ma ich 16.7Miliona, a 10bit ma ich 4.3Miliarda (256x więcej) - to jeśli chodzi tylko o kolorystykę i przejście tonalne. Druga różnica to możliwość wyświetlania punktów bardzo jasnych i bardzo ciemnych w jednej scenie co daje dużo większe możliwości wyświetlenia obrazu. Pomijam tutaj jarzący się miecz świetlny w Star Wars czy pioruny w Gears of War 4, lub punkty świetlne po włączeniu plecaka odrzutowego w Mass Effect chodzi m.in. o możliwość pokazania scen złożonych jak np. chmur na niebie wraz z słońcem które nie jest już flarą, a przez chmury przechodzą promienie słoneczne, pomieszczeń np. jaskiń w AC: Origin gdzie wchodząc do jaskini widzisz mrok oraz jednocześnie naturalny wygląd świec, itc. itc.

Żałuję, że nie przeczytałem tego wcześniej. Świetnie wytłumaczone. :) Sporą wiedzę w tym temacie nabrałem.

post wyedytowany przez Hydro2 2018-08-27 01:18:09
27.08.2018 11:21
VirtualManiac
👍
36.1
VirtualManiac
18
Wirtualny

A.l.e.X i Likfidator to kopalnia wiedzy na tym forum. Ciesze się, że ludzie z taką wiedzą udzielają się na tym forum.

A ty Hydro2 będziesz moją kopalnią wiedzy jeśli zainteresuję się technologią VR.

post wyedytowany przez VirtualManiac 2018-08-27 11:24:30
30.08.2018 01:50
Hydro2
36.2
Hydro2
124
Legend

Oprócz mnie na tym forum jest jeszcze Koktajl Mrożący Mózg :) Też bardzo obeznany w tematyce VR :) Ale dzięki, miło mi ;) Sory - dopiero to zauważyłem :P

post wyedytowany przez Hydro2 2018-08-30 01:50:51
30.08.2018 18:37
36.3
hennepin
44
Pretorianin

Hydro a co z tym projektorem? Nic nie opisujesz wrażeń.

30.08.2018 12:45
Radzik
37
odpowiedz
2 odpowiedzi
Radzik
152
Jaroo the PiSsmaker

1.
Amadeusz ^^
Inna sprawa że 2.1 jeszcze nawet nie wyszło.

Nie doczytałem się, żeby ktoś to sprostował, a nie jest to prawda - kabel jest już od jakiegoś czasu do kupienia np. w sklepie Apple i nie kosztuje fortuny:
https://www.apple.com/pl/shop/product/HLL52ZM/A/przewód-hdmi-belkin-ultra-high-speed-4k-2-m

2. Używam LG OLED65B7 jako monitora do PC przy cały czas włączonym HDRze. Drobnym problemem jest często poruszany na forach zamglony obraz (wyprane kolory). Nie doczytałem się, żeby ktoś miał na to rozwiązanie, ale sam odkryłem, że po uruchomieniu komputera wystarczy wejść w ustawienie HDR/WCG i kliknąć na suwak jasności aplikacji SDR - jasność i kolory stają się takie, jak powinny. Szkoda, że nie znalazłem sposobu, żeby ograniczyć to do odpalenia jakiegoś skryptu w PowerShellu czy batchu, bo byłoby to cokolwiek mniej upierdliwe.
Jest też druga upierdliwość - w niektórych aplikacjach (np. przeglądarka Vivaldi) po okresie bezczynności jasność ulega ograniczeniu, jak w przypadku oszczędzania energii przez wyświetlacz, jednak to nie jest w żaden sposób powiązane z opcjami oszczędzania energii i na to permanentnego rozwiązania już nie znalazłem, jak dotychczas. Muszę, niestety, klikać na inną zakładkę przeglądarki, czy na moment przełączyć się na inny program, żeby wróciła właściwa jasność. Samo ruszanie kursorem myszy nie wystarczy.
Na ten moment używam ustawnień [email protected]+RGB+8bpc (zmiana na 4:x:x w moim przypadku nie umożliwia skorzystania z 10/12bpc - do tego musiałem zmniejszać rozdzielczość, ale gradienty tak czy siak były bez szału, więc odpuściłem) , ale lektura tego wątku skłoniła mnie, żeby po powrocie do domu dać jeszcze szansę dla 30Hz i 10/12bpc.

3. Wbrew powtarzanym często tu i ówdzie twierdzeniom, przyzwoity PCet obecnej generacji (i7-6700K + GTX1080) bez problemu ciągnie w 4K na ULTRA takie tytuły jak Wiedźmin 3 czy Rise of the Tomb Raider (z zastrzeżeniem, że w DX11, bo w DX12 na GTX1080 grać się jak najbardziej da, ale przerywniki na enginie gry tną już okrutnie).

post wyedytowany przez Radzik 2018-08-30 13:04:18
30.08.2018 14:38
A.l.e.X
37.1
A.l.e.X
128
Alekde

Radzik - abyś zobaczył HDR poza tylko pkt światła i mroku musisz mieć 10bit włączone, uzyskasz go albo na ustawieniach w przypadku HDMI2.0 (kabel jest ale nie ma wyjścia ani po stronie GPU, ani wejścia po stronie TV - nowa seria 20xx też nie dostała HDMI2.1 tylko 2.0) w innym wypadku moim zdaniem nie ma żadnej mowy o HDRze, mimo że wiele osób uważa że na 8bit też jest (włączyć się da). Więc włącz albo w ustawieniach 4:4:2 10bit na HDMI [email protected], albo niestety nie mając złącza DisplayPort (jak w monitorach) możesz użyć 10/12bit [email protected] Kabel HDMI pozwala na 1080 przenieść 4:4:2 10/12bit.

Jeśli chodzi o HDR w Windowsie to polecam w Windowsie korzystać z SDR (parametry jasności domyślnie dużo niższe) a włączać tylko przed graniem albo przed oglądaniem filmów w HDR, wtedy polecam użyć Formaty HDR i WCG i suwakiem sobie wyregulować + Nvidia Panel Sterowania Wyreguluj ustawienia kolorów pulpitu dobierzesz sobie gammę + ewentualnie kontrast.

1080GTX pozwala na granie w gry w 4K starsze i nawet nowe, ale nie jest to 60+ fps, do tego potrzebne na ten moment jest SLI1080 lub SLI1080TI/Tp, po premierze sklepowej 2080/2080TI zapewne wystarczy już jedna ale nadal bez 60+ fps w 4K z RT, bo już wiadomo że dwie. Mówimy tutaj o maksymalnych ustawieniach.

30.08.2018 15:18
Radzik
37.2
Radzik
152
Jaroo the PiSsmaker

Włączałem na 1080p 10/12bpc, ale, szczerze mówiąc, nie widziałem różnicy ani w jakości gradientów, ani w HDR. HDR przy ustawieniach [email protected]+RGB+8bpc jest na OLED65B7 jak najbardziej widoczny - blasku świateł w HDR nie pomylisz z SDR, to sam dobrze wiesz :) Ale fakt, spróbuję jeszcze w 30Hz przy 10/12bpc - może mnie olśni, czego braku dotychczas nie widziałem, bo miejsce na poprawę rzeczywiście jest w przejściach tonalnych, ale póki co, zwalam to na jakość materiału źródłowego. Na części materiałów (filmy na YT) jest na co narzekać, na części nie można się przyczepić.

Ja z tych, co granicę grywalności mają na 16-18FPS (ostanio badane przy premierze Obliviona ;-) ), a wszystko powyżej 25FPS uznają za fetyszyzm ;-)

30.08.2018 12:48
12dura
38
odpowiedz
2 odpowiedzi
12dura
45
Honk Honk

Jeśli mam Panasonic EX700e i nie widzę zbytnio różnicy w obrazie z HDR i bez to przez to, że ma on słaby HDR czy ja jestem niewymagający

30.08.2018 14:41
A.l.e.X
38.1
A.l.e.X
128
Alekde

mogą być dwa powody, pierwszy że ten TV ma tylko w nazwie HDR (niestety), druga że nie włączyłeś tego poprawnie. Zobacz czy różnica w scenach pkt światła się zmieniła, aczkolwiek przy 300cm/m2 ciężko mówić o HDRze.

30.08.2018 15:16
12dura
38.2
12dura
45
Honk Honk

Tak myślałem, za 4 koła przy 58" nie spodziewałem się wodotrysków choć ogólnie jestem zadowolony z niego.

30.08.2018 16:01
Widzący
😉
39
odpowiedz
1 odpowiedź
Widzący
183
Legend

Tak na marginesie, 10 bit (dokładniej 3 x 10 bit dla RGB) to trochę ponad miliard kolorów a nie cztery miliardy.

30.08.2018 16:25
A.l.e.X
👍
39.1
A.l.e.X
128
Alekde

tak, muszę to znaleźć i poprawić sam nie wiem czemu tak napisałem 8bit ma 16,78 miliona kolorów, a 10bit ma 1,07 miliarda, 12 bit ma 68,68 miliarda. Dzięki za wyłapanie w tekście.

10.09.2018 23:22
Radzik
40
odpowiedz
Radzik
152
Jaroo the PiSsmaker

Sorry za wprowadzanie w błąd - jednak daje się na LG65B7 ustawić [email protected]:
a) 4:2:0 w 8 lub 12 bpc
b) 4:2:2 w 8, 10 i 12 bpc

tyle że:

1. Najpierw trzeba zatwierdzić zmianę formatu koloru wyjściowego - bez zatwierdzenia lista rozwijana zawierać będzie tylko 8bpc właściwe formatowi RGB.

2. Przy ustawionym formacie 4:2:X i przy włączonym HDRze zmiana głębi kolorów powoduje zanik sygnału z komputera na telewizorze - nie pomaga nawet odczekanie kilkunastu sekund, bo sama zmiana głębi nie wywołuje pytania o powrót do dotychczasowych ustawień. Żeby odzyskać obraz, trzeba wyciągnąć i ponownie włożyć kabel HDMI. Aby zmienić głębię, trzeba najpierw wyłączyć HDR, dokonać zmiany i ponownie włączyć HDR.

post wyedytowany przez Radzik 2018-09-10 23:33:28
21.11.2018 23:26
A.l.e.X
👍
41
1
odpowiedz
A.l.e.X
128
Alekde

Temat zostanie w ciągu dwóch tygodni zaktualizowany o nowe gry wspierające HDR oraz listę monitorów w poście nr 1.

Niemniej warto dodać że dzisiaj wyszedł patch HDR na PC do Hellblade: Senua's Sacrifice

22.11.2018 08:08
Tal_Rascha
42
odpowiedz
Tal_Rascha
150
Lady of the Void

Oznaczenie monitora np HDR600 oznacza, że osiągnął on jasność HDR 600 cd/m2 na planszy testowej L20 czy w jakimś bardziej realnym scenariuszu? Mój TV na planszy L20 osiaga ponad 900 cd/m2 i ciekawi mnie jaki monitor odpowiada takiej jasności.

22.11.2018 11:31
A.l.e.X
43
odpowiedz
A.l.e.X
128
Alekde

Tal_Rascha - to zależy od danego panelu + czasem też aktualizacji oprogramowania ale są to wartości o wiele wyższe, dla przykładu monitor Samsung C32HG70 który ma certyfikat HDR VESA 600

Monitor ten zgodnie ze specyfikacją spełnia wymogi standardu VESA DisplayHDR 600, co oznacza, że jest zdolny do osiągnięcia w trybie HDR co najmniej luminancji na poziomie 600 cd/m2 (zarówno punktowo, jak i na całej powierzchni panelu).

W trybie HDR przy włączonym FreeSync 2 Samsung osiąga luminancję na poziomie 678,23 cd/m2, po zainstalowaniu firmware'u w wersji 1019.1 panel świeci zauważalnie jaśniej osiągając jasność znacznie przekraczającą 800 cd/m2.

Np. w przypadku mojego monitora HDR VESA 1000 maksymalny zmierzony peak to ok. 1300 cd/m2.

22.11.2018 17:10
44
odpowiedz
5 odpowiedzi
fenfir
126
Generał

To takie pytanie o hitmana w hdr. Przeszedłem ostatnio Shadow of War z hdr i działało to ok a z hitmanem miałem problem by hdr wyglądał dobrze bo coś tam się aktywowało, ale obraz był mega ciemny, duża utrata detali w ciemnych miejscach i nie dałem rady tego wyregulować. Ta gra tak ma? Puszczam obraz na oleda lg b8.

22.11.2018 17:32
A.l.e.X
44.1
A.l.e.X
128
Alekde

działa bez problemu musisz tylko dobrze ustawić pudełka tam jest opisane tak że powinieneś ledwo widzieć środkowy, moim zdaniem trzeba go ustawić tak aby go nie widzieć aby zlał się bielą z większym.

22.11.2018 17:43
44.2
fenfir
126
Generał

Próbowałem to ustawić, ale coś nie trybiło. Jutro spróbuję jeszcze raz, może zaskoczy.

22.11.2018 19:27
Radzik
44.3
Radzik
152
Jaroo the PiSsmaker
Image

W Hitmana pograłem tylko na rzut okiem, więc nie wiem, czy sprawdzi się w każdej lokacji, ale na takich ustawieniach --->
+ Opcje obrazu -> Poziom czerni -> Niski
...

22.11.2018 19:29
Radzik
44.4
Radzik
152
Jaroo the PiSsmaker
Image

... mam coś takiego --->

23.11.2018 20:51
A.l.e.X
44.5
A.l.e.X
128
Alekde

u mnie też ustawienie w Hitamnie jest ok. 17.00 dla wypełnienia boxów.

23.11.2018 19:32
Radzik
45
odpowiedz
1 odpowiedź
Radzik
152
Jaroo the PiSsmaker
post wyedytowany przez Radzik 2018-11-23 19:45:51
23.11.2018 20:53
A.l.e.X
😉
45.1
A.l.e.X
128
Alekde

tak dopisze jak zedytuje pierwszy post pełną listę dla PC/XOX/PS4 ale to na początku grudnia jak skończę całościowo z RDR2 :)

24.11.2018 12:47
46
odpowiedz
5 odpowiedzi
fenfir
126
Generał

Powracam z problemem hdr w hitmanie. Posiedziałem właśnie nad tym teraz i za cholerę nie chce to ruszyć. W samej grze w ustawieniach widnieje tekst, że nie wykryto obsługi hdr. Przetestowałem kombinacje z on/off hdr/hlg w ustawieniach ekranu pod win10, pod dx11 i dx12, z on/off hdr tym z konfiguratora ustawień przed włączeniem gry plus jeszcze odłączyłem monitor na czas testu bo trafiłem gdzieś na informację, że w razie problemów zostawić tylko podłączony odbiornik z hdr i efektu żadnego. Hitman ze steama więc wszystkie łatki są, win wersja 1803.

W innych grach problemu nie miałem, ostatnio przeszedłem shadow of war i było wszystko w porządku.

Radzik -> na zdjęciu z ustawień tv widzę, że masz jasność na 55. Jak nie miałeś kalibracji i ustawiałeś to sam to generalnie błąd bo tego się w 99% przypadków nie powinno ruszać. Trzeba to zostawić na 50 tak jak jest fabrycznie, poniżej 50 traci się detale w ciemnych miejscach a powyżej 50 rozświetlasz czerń, która już nie jest wtedy taka jaka powinna być. Jasnością tv steruje się poprzez oświetlenie oled, które akurat w trybie hdr jest na maksa i tak ma zostać ;)

24.11.2018 15:09
Radzik
46.1
1
Radzik
152
Jaroo the PiSsmaker

Akurat w trybie Gra wydaje mi się nieuniknione, by doregulowywać jasnością. Po ustawieniu poziomu czerni na Wysoki, czerń jest wyprana - jak "czerń" na LEDdzie, więc tego absolutnie nie ruszam. Z kolei niektóre gry nie mają opcji ustawień jasności/gammy w menu, więc na Jasność w menu TV wydaję się być skazany. 55 to i tak nie jest dużo - w Shadow of the Tomb Raider, jeśli dobrze pamiętam, ustawiałem na 65, bo w ciemnych jaskiniach poza glow stickiem i tyłkiem Lary nic nie było widać, a po ustwieniu czerni na Wysoki, czerń była właśnie szara. Z kolei samymi ustawieniami w grze nie uzyskiwałem satysfakcjonującego kompromisu na lokacje jasne i ciemne.
Do TV/Netflixa używam Technicolor (ekspercki) i tam, faktycznie, jasności nie tykam.
Kalibrację mam tylko windowsową ;-)

Co do problemów z HDRem, zapytałbym, czy masz w TV ustawioną na właściwe źródło opcję HDMI ULTRA HD Deep Colour, ale, skoro w innych grach Ci działa, to problem nie w tym, na to wygląda.

post wyedytowany przez Radzik 2018-11-24 15:17:49
24.11.2018 16:28
46.2
fenfir
126
Generał

HDMI ultra deep colour jest załączone z automatu :) W każdym razie po pogrzebaniu jeszcze w necie znalazłem radę, żeby zamienić wyświetlanie z pełnego ekranu na tryb wyłączności pełnego ekranu i w końcu ruszyło łącznie z dx12. A co do regulacji jasności gier to faktycznie może jednak ruszenie suwaka jasność jest w tym przypadku konieczne bo zmiana suwaka hdr w hitmanie nic nie daje. Jak przetestowałem jasność na 55 to jest lepiej i czernie nie wyglądają źle. Za to regulacja jasności w Shadow of War była dobra bo z menu gry ustawiłem jak trzeba i jasność została na 50.

Co do poziomu czerni niski/wysoki to według mnie to lg dziwnie nazwało bo to chyba odpowiada wyjściowemu zakresowi tonalnemu. Przy hdr z pc na ograniczony oraz inne źródła jak kablówka, konsola powinno się mieć czerń na niski a przy sygnale z pc rgb pełny zakres tonalny ustawić czerń na wysoki.

edit. Radzik -> jak gra nie umożliwia zmiany gammy to można to zrobić w ustawieniach grafiki, fakt, że trzeba o tym pamiętać przy każdym włączeniu gry, ale wtedy nie trzeba ruszać w tv jasności bo mimo wszytko wartości powyżej 50 mi nie leżały do końca wizualnie a tak jest wszystko w komplecie. Udało mi się teraz ustawić hitmana tak jak trzeba z gammą przesuniętą z +1.00 na około +1.30 -> efekt lepszy niż jasność na 55 z nieruszoną gammą.

post wyedytowany przez fenfir 2018-11-24 17:24:28
24.11.2018 21:37
Radzik
46.3
Radzik
152
Jaroo the PiSsmaker

Na to jestem za wygodny - efekt regulacji jasnością od razu widać, a bawić się w ALT+TABowanie, żeby zobaczyć efekty, jakoś mi się nie widzi. W każdym razie dzięki za podpowiedź - może kiedyś w akcie desperacji... ;-)

24.11.2018 21:43
A.l.e.X
46.4
A.l.e.X
128
Alekde

ciężko mi coś tutaj pomóc, w windowsie mam domyślnie SDR, hitman standardowo po uruchomieniu jak większość gier używających HDR nie wymaga włączonego trybu HDR w windowsie i sam przechodzi w ten tryb, na monitorze pojawia mi się napis HDR mode. Pliczek testowy wydajności gdzie ustawiasz wszystko też przejdzie w tryb HDR od razu jeśli wykryje sprzęt z HDRem.

24.11.2018 21:56
Radzik
46.5
Radzik
152
Jaroo the PiSsmaker

Tego nie testowałem wcześniej, ale chciałem skorzystać z podpowiedzi i już na dzień dobry widzę, że Divinity II nie uruchamia się w HDR bez włączonego trybu w Windowsie. Hitman, rzeczywiście, tak, choć przełączenie w HDR powoduje zanik obrazu i muszę wyciągać i ponownie podłączać kabel HDMI, żeby odzyskać obraz. Powtarzalności tego nie sprawdzałem.

post wyedytowany przez Radzik 2018-11-24 21:57:11
09.12.2018 11:23
47
1
odpowiedz
Cyberfan
7
Legionista

Cześć Alex, potrzebuję Twojej opinii przy wyborze monitora. Dotychczas byłem zdecydowany na Dell AW3418DW, ponieważ ma wszystko czego chciałem: IPS, 3440x1440, G-sync, minimum 100hz, duży zakrzywiony ekran o proporcjach 21:9.

Jednak, po przeczytaniu Twojego artykułu naszło mnie strasznie na HDR. Obserwowałem Twoją aktywność w wielu wątkach o grach i wydajesz się być osobą oczytaną w tematach sprzętu komputerowego, więc jeśli mówisz że HDR jest tego warty, to jestem w stanie w to uwierzyć.

Problem w tym, że nie ma jeszcze na rynku monitorów jak ten powyżej tylko że z HDR. Dowiedziałem się że na początku 2019r. powinny wejść na rynek dwa fajne modele mające wszystko co AW3418DW (poza typem matrycy) z HDR 1000. Te modele to Acer Predator X35 i ASUS
ROG Swift PG35VQ. Monitory te miały wielokrotnie przekładaną datę premiery (ostatnie dane w internecie wskazują na Q4 2018), więc spodziewam się że powinny wyjść jakoś w Q1 2019.

Na monitor planuje przeznaczyć ile trzeba będzie, chcę żeby był to zakup przyszłościowy na co najmniej 5 lat. Zależy mi głównie na 21:9 curved i ładnych (ale realistycznych, nie przesyconych) kolorach i płynnym obrazie w ruchu. Nie gram w gry zawodowo, raczej delektuję się grafiką i immersją.

W związku z powyższym mam do Ciebie dwa konkretne pytania:

1) Kartę graficzną jaką posiadam to Zotac RTX 2080 AMP Edition. Mam nadzieję że będzie wystarczająca żeby obsłużyć HDR 1000 w 3440x1440, 100hz+?

2) Główna zagwozdka jaką mam przy wyborze tych dwóch monitorów to typ matrycy. Dell ma IPS, a dwa pozostałe monitory VA. Z tego co czytałem VA lepiej nadaje się do HDR, ponieważ ma lepszy kontrast, większa różnica między najciemniejszym a najjaśniejszym punktem monitora. Martwi mnie jednak smużenie (ghosting) matryc VA. Zależy mi na tym by obraz był krystalicznie wyraźny w ruchu i posiadał ładne kolory. Słyszałem też że IPS oferuje "lepsze", bardziej równomierne kolory. No i nie ma ghostingu.

Temat o HDR i matrycach VA a mi właśnie paradoksalnie najmniej chyba zależy na jakiejś mega czerni. Bardziej wyobrażam sobie ze będę grał w "jasne" gry (wiem, głupio to brzmi). Albo może nie zdaje sobie sprawy z różnicy...?

Nie jestem też pewien jak ważne są tu kąty widzenia, które IPS ma lepsze, wszak 21:9 to większe kąty patrzenia na boki obrazu. Czy kolory na bocznych skrajach nie ucierpią patrząc na wprost monitora 21:9 z matrycą VA?

Wiem, że IPS może posiadać backlight bleed, ale nie wiem jaki może mieć to wpływ na odczucia z rozgrywki. W zasadzie nie mogę przewidzieć nic, zarówno przy IPS jak i VA, bo dotychczas siedzę na 10 letnim 4:3 TN.

Który z tych monitorów będzie najlepszym zakupem Twoim zdaniem? Czy ewentualne wady matryc VA będą zrekompensowane przez obraz w HDR? Dodajmy też, że głównie nowe gry korzystają z HDR, ja z grami zatrzymałem się na 2007 roku więc zamierzam ograć też wiele starszych tytułów. Gram głównie w action RPG, choć FPSy też lubię.

Dzięki :)

09.12.2018 11:59
Cainoor
48
odpowiedz
5 odpowiedzi
Cainoor
212
Mów mi wuju

Jako, że kupiłem sobie PS4 Pro i odpaliłem God of War na TV z HDR, to coś mnie tknęło by także spróbować to włączyć na PC. Wcześniej widziałem w akcji tylko przez Netflix. Nie powiem, trochę musiałem sie naklikać, żeby sygnał HDR szedł przez amplituner i na TV. Może się komuś przyda taki mały poradnik:

1. TV sygnał 'Ulepszony format' - Sony KD-65X8505C
Home > Ustawienia > Zewnętrzne wejścia > Formaty sygnały HDMI > wybór wejścia > Ulepszony format
- co ciekawe, TV informuje, że mogę ustawić "takie jak 4K 60p 4:2:0 10bit, 4:4:4, 4:2:2 (w tym z HDR)", ale prawda jednak jest chyba zdeczko inna.

2. Amplituner sygnał 'Wzmocniony' - Denon AVR-X3400H
Setup > Video > Format Sygnału 4K > Wzmocniony
- tutaj mam taką fajną tabelkę, która pokazuje co i jak (w sumie z tego wynika, że sygnał standardowy też by dał radę): http://manuals.denon.com/AVRX3400H/EU/PL/DRDZSYzvebvotm.php

3. PC- NVIDIA GeForce GTX 1070. Sygnał 30Hz, RGB i 8bpc.

Warto dodać, że w każdym przypadku należy mieć najnowsze sterowniki/firmware, bo np. Sony dodało wsparcie dla HDR dopiero w jednej z aktualizacji.

Przy takich ustawieniach (chociaż teraz mam wątpliwości, czy było to potrzebne, bo 30Hz, 8b w 4K powinno iść RGB normalnie) mogłem włączyć HDR w Windows, zrobić szybki test w Shadow of the Tomb Raider i wygląda na to, że śmiga. Jest jaśniej ;-)
Tylko nie wiem do końca jaki ten TV daje HDR, jakie ma podświetlenie...

Niestety w żadnej innej konfiguracji 4K mi nie działa, a np. chciałem spróbować w 60Hz, 8b, YCbCr 4:2:0 :(

post wyedytowany przez Cainoor 2018-12-09 12:17:36
09.12.2018 17:28
Radzik
48.1
Radzik
152
Jaroo the PiSsmaker

Rozdzielczość, odświeżanie i głębię ustaw przy WYŁĄCZONYM HDR. HDR włącz dopiero na sam koniec. Jeśli Twój TV/Windows zachowuje się jak mój, to powinno pomóc.

09.12.2018 20:31
Cainoor
48.2
Cainoor
212
Mów mi wuju

Tak robię, HDR na koniec. Ale chyba muszę mieć jakieś gorsze kable skoro nie mogę obrazu w 60hz ustawić, nawet przy stratnej kompresji formatu obrazu :/

Ktoś się orientuje czy idzie jakos przetestować przepustowość kabli hdmi?:)

09.12.2018 20:52
48.3
fenfir
126
Generał

Może to kwestia gniazda hdmi? Bo nie koniecznie masz pełną przepustowość na wszystkich, możesz mieć tylko na wybranych. U mnie działa 4k 60hz 10bit 4:2:2 na kablu za 3 dychy także albo faktycznie masz kiepski kabel albo bym sprawdził na innych gniazdach w tv.

09.12.2018 20:54
Tal_Rascha
48.4
Tal_Rascha
150
Lady of the Void

Do 4K HDR 60 Hz potrzeba kabla HDMI 2.0

09.12.2018 22:13
A.l.e.X
48.5
A.l.e.X
128
Alekde

Tal_Rascha - HDMI 2.0 tak jak w poście nr jeden pozwala na przesłanie HDR 10bit w 4:2:2, aby mieć pełne 10bit i RGB oraz HDR i 60Hz i więcej potrzebne jest złącze Display Port od 1.2 w górę. Do czasu premiery HDMI 2.1 nic się w tej kwestii nie zmieni.

Cainoor - na PC na HDMI 2.0 możesz ustawić 8bit 4:4:4 lub RGB pełne i 60Hz, 10bit 4:4:2 w 60Hz lub 10bit 4:4:4 pełne RGB w 30Hz. Obraz w HDR musi być ustawiony na 10 lub jak ktoś chce 12bit tylko pozostaje otwarte pytanie dla tych którzy zachwalają ekrany w TV 12 bitowe na jakim złączu chcą przesłań dane w HDR 4K w 12bit i w powyżej 30Hz, bo takiego nie ma.

post wyedytowany przez A.l.e.X 2018-12-09 22:19:32
09.12.2018 22:15
A.l.e.X
49
odpowiedz
A.l.e.X
128
Alekde

Temat zaktualizowany post nr 1 o listę i opis dostępnych monitorów HDR z certyfikacją HDR VESA. W następnym tygodniu uzupełnię o pełną listę gier PC + konsolę oraz napiszę o moim subiektywnym, ale popartym analizą i sygnału i rozkładu gradacji w dostępnych grach.

09.12.2018 23:39
blood
50
odpowiedz
2 odpowiedzi
blood
194
Legend

Świetny temat AleX, dzięki za włożony czas w skompilowanie tego wszystkiego. Orientujesz się może, czy na horyzoncie jest coś podobnego do monitorów ponizej, ale 2.5k i Freesync?

Acer Predator X27 – 27” 4K 144Hz, G- Sync podświetlanie LED, powyżej 1000cd/m2
ASUS ROG Swift PG27UQ – 27” 4K 144Hz, G-Sync podświetlanie LED, powyżej 1000cd/m2

11.12.2018 02:41
A.l.e.X
50.1
A.l.e.X
128
Alekde

blood - niestety na ten moment na horyzoncie nie widać żadnego monitora który byłby powyżej 1000cd/m2 jednakże

Samsung CHG70 – 32” 1440p, Quantum Dot, QLED, 144Hz, FreeSync 2, powyżej 600cd/m2

po aktualizacji firmware ma ponad 800cd/m2 co czyni go jednym z najciekawszych monitorów cena/możliwości

https://www.tomsguide.com/us/samsung-chg70-curved-monitor,review-5160.html

https://www.guru3d.com/articles-pages/samsung-c32hg70-freesync-2-hdr-monitor-review,1.html

11.12.2018 03:13
blood
50.2
blood
194
Legend

Bardzo fajny, ale nie wziąłem go ze względu na rozmiar. Czekam co przyniesie rok 2019 ciesząc się tymczasem nowo zakupionym Acerem bez HDR.

post wyedytowany przez blood 2018-12-11 03:13:56
11.12.2018 08:20
51
odpowiedz
Cyberfan
7
Legionista

Alex, czy mógłbym prosić Cię o odpowiedź do mojego posta kilka wiadomości wyżej?

11.12.2018 13:42
Obscure
52
odpowiedz
2 odpowiedzi
Obscure
111
ExcalibuR

Ktoś jest w stanie wyjaśnić czy między Samsungiem 27 a 32CHG70 jest jakaś różnica w jakości? O dziwo 27 calowa wersja ma znacznie gorsze opinie w porównaniu do większego brata. Mam dylemat wciąż się waham z kupnem czy monitor spełni moje oczekiwania, a teraz doszedł kolejny problem z wyborem cali.

O dziwo nigdzie w większych sklepach czy to media Markt, xkom nie mają monitorów do zaprezentowania tylko z możliwością zamówienia go...

11.12.2018 16:19
blood
52.1
blood
194
Legend

Ja chciałem monitor 27" i rozważałem trzy topowe monitory 27" 1440p 144Hz, mianowicie tego Samsunga 27, Acer XF270HUA i ASUS MG279Q. ASUS odpadł ze względu na słaby zakres Freesync, natomiast przeciwko Samsungowi stanowiły następujące fakty:
- wysoki czas reakcji, reklamowany 1ms natomiast w testach G2G wychodzi ponad 13ms
- często jest reklamowany, dużo problemów z matrycami. Często pojawiają się przebarwienia i białe pasy według opisów użytkowników
- niewyraźne wyświetlanie czcionek
- co do modelu 27" były zgłaszane wątpliwości co do jakości HDR. Odświeżony model tego monitora na ten rok został HDR pozbawiony
- matryca nie jest produkowana zakrzywiona. Z taśmy schodzi prosta, natomiast później jest wyginana
- preferencja osobista, ale wolałem monitor prosty, bo czasem bawię się w Visio/CAD i nie sądzę, by mi zakrzwiony monitor w tym pomógł

Z tych powodów zdecydowałem się na Acer XF270HUA, który jest wg. mnie najlepszym wyborem jeśli chodzi o 27" 1440p 144Hz. Czekam na monitor o takich parametrach z dobrym HDR.

11.12.2018 16:35
Obscure
52.2
Obscure
111
ExcalibuR

Akurat kwestia 32 calowego monitora do grania i korzystania z komputera przerażała mnie myślą, ze przesiadka z 24 calowego ponad 6 letniego monitora, będzie nie do ogarnięcia. Przy 32 calówce trzeba znacznie dalej siedzieć aby objąć wszystko wzrokiem.

Także akurat aby ustawić go dalej nie mam większego problemu także zostałbym przy Samsungu 32 cale, ale jak czytam Twoje podpunkty na temat wad, które dotyczą modelu 27" to zastanawia mnie kwestia jak czasowo na dłuższy okres czasu sprawowałby się 32 calowy monitor czy te wady również w tym modelu występują. Przyznam ze jeśli bym zakupił monitor z HDR to nie chciałbym aby mi się rozleciał w przeciągu najbliższych 2-3 lat.

Poczytałem sobie też opinie ze strony Samsung, dużo ludzi w minusach daje słabą jakość monitora. I tu ciekawi mnie kwestia czy sam nie mam za wysokich wymagań czy zwyczajnie ludzie nie potrafią skonfigurować monitora aby cieszyć się tym co można wyciągnąć z monitora (Chociaż sam się w tym temacie sterowników nie orientuje, jak zgrać wszystko, ale w obecnym czasie wszystko idzie znaleźć w internecie :D)

Mi ten dodatek zakrzywienia wizualnie podoba się. I tak jak wspomniałem jednak chce zakupić monitor z HDR do 3 tysięcy.

post wyedytowany przez Obscure 2018-12-11 16:42:59
12.12.2018 18:56
Obscure
53
odpowiedz
1 odpowiedź
Obscure
111
ExcalibuR

Druga kwestia czy do HDR potrzeba jakiegoś konfiguracji sprzętowej ? (obecnie mam gtx od msi 1070, i5 2500k podkręcony do 4,4 i 16gb ram) domyślam się ze z PS4 wystarczy podpiąć HDMI 2.0

I jak z kablami, wystarczą te co są załączone do Samsunga C32HG70 czy jednak trzeba kupować coś lepszego dodatkowo aby cieszyć się z HDR ?

post wyedytowany przez Obscure 2018-12-12 19:00:44
13.12.2018 17:41
Obscure
53.1
Obscure
111
ExcalibuR

Zamykam temat o mnie :D

Wybrałem AOC AGON AG322QC4

Poczytałem głębiej na temat Samsunga i okazało się ze mimo zalet, posiada wiele wad.

13.12.2018 21:55
A.l.e.X
54
odpowiedz
2 odpowiedzi
A.l.e.X
128
Alekde

Obscure - sprawdzisz jak ci się będzie podobać praca na 400cd/m2 i potem kupisz coś lepszego, na pewno efekt już zobaczysz pomiędzy SDR a HDR aczkolwiek daleko będzie mu to tego przy którym podtrzymujesz szczękę ręką :)

Do HDR potrzebna jest w przypadku NV karta serii 9xx dla trybu HDMI, a od 10xx HDR jest dostępny za pośrednictwem i HDMI, i DP. W twoim przypadku możesz przy tej rozdzielczości korzystać i z HDMI2.0 jak i z DP, ja wybrałbym podłączenie go za pomocą DP. Jeśli chodzi o sprzęt nie ma żadnych większych wymagań HDR / SDR jeśli chodzi o wydajność to może ci uciąć na serii kart 10xx maksymalnie 2-5% wydajności w zależności od gry. W przypadku 20xx nie ma już żadnego obcinania wydajności.

Jeśli chodzi o samsunga to jak każdy sprzęt elektroniczny masz 14 dni do zwrotu o ile nie zdemolujesz go i pudełka (bez podawania przyczyny). Zawsze może ci się trafić gorszy lub lepszy egzemplarz. Sam w życiu odsyłałem monitor tylko raz ale dostałem naprawdę wersje nie do przyjęcia. Zawsze możesz zamówić dwa postawić obok siebie potestować i zostawić jeden z dwóch, który będzie ci bardziej odpowiadał. Samsung ma peak jasności ponad 800cd/m2 a to gigantyczna różnica.

Cyberfan - w weekend postaram się odpowiedzieć, na ten moment brakuje mi czasu na to. Postaram się też zrobić update co do gier.

14.12.2018 07:02
Obscure
54.1
Obscure
111
ExcalibuR

Na pewno odczuje różnice. Biorąc pod uwagę że mój Asus 24 został zakupiony w 2012r. za 800 zł. Brat już ma lepsze kolory w grach na laptopie :D Odbierać monitor będę dopiero w przyszły czwartek / piątek.

Kable, które są w pakiecie z monitorem wystarcza czy jednak trzeba dokupic coś lepszego za swoje?

14.12.2018 18:20
A.l.e.X
54.2
A.l.e.X
128
Alekde

Obscure - prawdopodobnie ze względu na model będziesz miał od razu porządny kabel HDMI2.0, możliwe że też kabel DP. Jeśli nie to najwyżej sobie taki dokupisz za kilkadziesiąt złotych.

21.12.2018 21:02
55
odpowiedz
1 odpowiedź
Cyberfan
7
Legionista

Alex, jest szansa że odpowiesz na mój post? Nie wiem, czy warto czekać na monitory które wymieniłem, czy lepiej brać aw3418dw.

post wyedytowany przez Cyberfan 2018-12-21 21:03:07
21.12.2018 23:33
A.l.e.X
55.1
A.l.e.X
128
Alekde
Wideo

Acer Predator X35 21:9

https://www.youtube.com/watch?v=hnAGSFx1OtQ

ma mieć maksymalny peak ok. 1000cd/m2 z certyfikatem VESA HDR600

ASUS ROG Swift PG35VQ.

https://www.youtube.com/watch?v=qT-C4o1RpE8
takie same parametry jak Acer Predator X35 21:9

Prawdopodobnie trafią do sprzedaży Q1,19 z monitorami HDR jest o tyle problem że są mocno preoderowane bo technologia w końcu zawitała na PC i przenosi rozgrywkę w nieosiągalny wcześniej wymiar. Nic na mnie i chyba na nikim od bardzo dawna nie zrobiło takiego wrażenia jak zobaczenie gry w HDR na panelu z 1000cd/m2 (zaniemówienie i opad szczęki gwarantowany)

Odpowiadając na twoje pytania:

1.Tak wystarczy, seria 2xxx nie ma spadku wydajności w trybie HDR, możesz podłączyć monitor i przez HDMI2.0 jak i przez DisplayPort (zalecam korzystanie z tego rozwiązania). Jednak weź pod uwagę że 2080 to nie jest karta która wygeneruje w każdej grze 100fps (powiedziałbym że w tej rozdzielczości 3440x1440 przy ustawieniach ultra to raczej w niewielkiej ilości i to bardzo dobrze zoptymalizowanych gier). Karta przy 2560x1440 (bo takie testy są dostępne) rozdzielczości która jest mniejsza (3.68MPx) do 3440x1440 (4,93MPx) (33% różnicy w wydajności) osiąga 84fps np. w Assassins Creed Origin (co w przypadku 3440x1440 będą to okolice 65-70), tak samo w innych grach AAA+ z b. dobrą oprawą graficzną. Jeśli celujesz w 100fps to niestety przy tej rozdzielczości to tylko 2080TI i to mocno podkręcona. W starszych grach lub mało wymagających oczywiście to nie będzie problem. Jednak odpowiadając na twoje pytanie HDR nie obniży na serii 2xxx wydajności w grach

2.Tutaj to jest kwestia gustu moim zdaniem najlepiej po Oled wypada VA z Quantum Dot ewentualnie matryce IPS ale także w Quantum Dot z jak największą ilością niezależnych stref wygaszania (ideał na ten moment w monitorach to 384 strefy). VA ma o tyle przewagę że ma po oledzie najlepiej przestawioną czerń co generalnie przekłada się na odbiór obrazu całościowo. Sam wybrałbym VA, chyba że nie byłoby wyboru. Jeśli jednak wybór jest to proponuje zamówić dwa monitory i zostawić ten który będzie bardziej ci odpowiadał. Do 14 dni możesz zwrócić bez podawania przyczyn, nie jest to nic dziwnego szczególnie że czasem i tak zwrócić trzeba bo może trafić się wadliwa sztuka. Oczywiście zamawianie tylko po to aby odesłać to nieporozumienie ale już aby wybrać (nie widzę w tym niczego co byłoby niestosowne). Proponuje tak zrobić. Monitory HDR mają b. wysoki kontrast i jasność dlatego dopełnienie jak najlepszej czerni czy wygaszania strefowego jest konieczne ale także najlepiej prezentuje obraz w SDR. Zwykłe monitory kończą jasność na 300cd/m2.

3.IPS lepiej będzie pokazywał obraz pod największymi kątami szczególnie w pionie, jednak nie wiem czy jest to aż tak istotne mało kto patrzy na monitor pod kątem 150+ stopni z góry (jednak jeśli to jest istotne to wtedy IPS)

4.Kupowanie teraz nowego monitora bez HDR to pomyłka, chyba że ktoś nie gra w gry i z HDR nie będzie w ogóle korzystał. Jednak każda praktycznie obecnie nowa gra AAA+ dostaje HDR ponieważ jest to całkowicie nowy wymiar rozgrywki. Dodatkowo przez pierwsze miesiące będziesz grał też w stare gry jak np. Battlefield 1, czy Star Wars Battlefornt II bo po prostu to co zobaczysz będzie zupełnie innym doznaniem niż przechodzenie tych gier wcześniej w SDR.

22.12.2018 13:34
56
odpowiedz
Cyberfan
7
Legionista

Dzięki Alex za obszerną odpowiedź. Mam jeszcze dwa krótkie pytania:

1) Dlaczego Predator x35 to tylko VESA HDR600 skoro może osiągnąć jasność 1000cd/m2? Czy to znaczy że nie będzie taki wow jak monitory z HDR1000?

2) Jak myślisz, w jakich granicach mogą kosztować te monitory jak wyjdą?

Pozdrawiam

22.12.2018 13:56
57
odpowiedz
Cyberfan
7
Legionista

Nie mogłem zedytować postu, więc jeszcze dwa pytania:

3) Wyczytałem, że te monitory mają mieć 512 stref podświetlania FALD (czy jakoś tak). Napisałeś że 384 to teraz top. Czy to w takim razie również powinno przełożyć się na lepszą jakość obrazu? Czy może chodzi o to, że monitor jest 21:9, a więc ma większą powierzchnię i dlatego ma więcej stref?

4) Rozumiem , że ghosting matryc VA nie powinien stanowić znaczącego problemu we współczesnych monitorach VA, skoro na pierwszym miejscu wybrałbyś właśnie tę matrycę?

post wyedytowany przez Cyberfan 2018-12-22 13:59:23
22.12.2018 18:22
A.l.e.X
58
odpowiedz
A.l.e.X
128
Alekde

1. aby dostać pełny certyfikat VESA HDR1000 musi być spełnione kryterium z tabeli w poście 22, o ile wiem te monitory mimo b. wysokiego peak jasności nie spełniają całego kryterium pod VESA HDR1000, niemniej na ten moment jeszcze nie zostały wprowadzone do sprzedaży i nie dostały certyfikatu więc może będzie to HDR VESA1000. Na jakość HDR ma przede wszystkim wpływ jakość matrycy oraz cd/m2 jeśli będzie to ok. 1000 lub nawet i więcej to będzie to pokazany HDR w najlepszym wydaniu.
2. Ciężko powiedzieć ale na pewno nie będą kosztować jak low endy szczególnie że dostają wszystkie najnowsze rozwiązania stawiam na okolice 3.5-5K PLN brutto
3. na ten moment 384 to top, więc wszystko powyżej to jeszcze lepiej. Chodzi o możliwość wygaszania tak aby uzyskać jak najlepszą czerń i brak poświat dalszych od jasnych elementów (które w HDR mają b. wysokie wartości w nitach).
4. nie ma żadnego problemu VA dla mnie osobiście to najlepsza matryca po Oledzie. Niemniej trzeba brać pod uwagę całość wykonania monitora świetny monitor na IPS i tak wypadnie lepiej od przeciętnego na VA.

22.12.2018 18:51
59
odpowiedz
Cyberfan
7
Legionista

Dzięki Alex, takich odpowiedzi mi trzeba było. Zdecydowałem się zatem poczekać do Q1 2019, jeśli do tego czasu nie wydadzą tych monitorów, to biorę co innego. Wydaję mi się jednak że mogą kosztować od 5k wzwyż, gdyż taki aw3418dw to prawie to samo co tam, tylko z matrycą ips i bez hdr a kosztuje 4300zł na chwilę obecną.

Czy uważasz, że postęp graficzny w grach w następnych latach będzie miał więcej wspólnego z takimi bajerami jak hdr i innymi technologiami dodającymi obrazu smaku, aniżeli ciągły wyścig za zwiększaniem rozdzielczości ekranu i produkowaniem kart graficznych, które tą rozdzielczość mogą udźwignąć?

Nie bardzo wiem po co komuś większa rozdzielczość w monitorze niż 4k, z racji odległości w jakiej się siedzi od monitora, co innego technologie jak hdr, realnie wpływające na jakość obrazu. Więc ta ścieżka wydaje się bardziej naturalną drogą rozwoju w przyszłości.

post wyedytowany przez Cyberfan 2018-12-22 18:53:49
22.12.2018 19:29
Alien.
😂
60
odpowiedz
3 odpowiedzi
Alien.
10
Konsul
Image

Alex zachwycał się "HDR" w RDR2 na premierę, a wiadomo jak Digital Foundry zweryfikowało to pseudo HDR, zakłada i prowadzi o tym wątek...
#ekspertroku#fachowiec

post wyedytowany przez Alien. 2018-12-22 19:30:08
22.12.2018 20:18
A.l.e.X
😊
60.1
A.l.e.X
128
Alekde

tak to jest jak się nie umie czytać ze zrozumieniem : przecież dokładnie napisałem że gra prezentuje się obłędnie i tyczy to się detali i grafiki, to że ma problemy z HDR też opisałem tylko tego jakoś nie podałeś dodatkowo w moich postach podałem też że HDR w przypadku RDR ma maksymalny peak jasności do 600cd/m2 z gradacją od 100 do 600 przy czym najjaśniejsze elementy mają maksymalnie 600cd/m2 dla ognia i słońca oraz lamp, co oczywiście nie ma żadnego startu do gier wykonanych w gradacji 0-4000cd/m2 jak AC:Odyssey, czy Shadow of the Tomb Raider. Nazywanie HDR w tej grze pseudo HDR wynika po prostu z tego faktu że dodali go na etapie końcowym i dodając metadane dla jasności.

jak widzę twoje posty to dochodzę do wniosku że nauka czytania może ci dużo w życiu pomóc ;)

22.12.2018 20:40
Alien.
60.2
Alien.
10
Konsul

Na premierę nie widziałeś różnicy na tle innych gier? Dopiero jak DF wyjaśniło całą sprawę?
Winny się tłumaczy. Weź człowieku, bo czasami to takie bzdety wypisujesz, że aż ręce opadają i to się tyczy wielu aspektów związanych z grami a chcesz pozować na jakiegoś eksperta. Już nie raz zostałeś wyjaśniony na tym forum.

22.12.2018 21:01
A.l.e.X
😊
60.3
A.l.e.X
128
Alekde

nadal nie umiesz czytać ze zrozumieniem HDR w RDR2 jest jak najbardziej i wygląda dobrze, masz załączone obrazki z sceny gdzie dokładnie widzisz co jest SDR szare elementy, a co HDR żółte. Nie DF wyjaśnił tylko przeanalizował dokładnie, problem ludzie zauważyli w momencie ustawiania HDR w RDR2 zgodnie z sugestią, na forum np. pclaba są moje odpowiedzi na ten temat w dniu premiery że dla monitorów / TV LCD które mają wysokie współczynniki cd/m2 trzeba wybrać wartość 500cd/m2 maksymalną przeprowadzić regulację dla jasności i/lub kontrastu.

Nie tłumacze się tylko grzecznie ci odpowiadam na zaczepki. Piszę to hobbistycznie, a w życiu to ja nic już nie muszę.

22.12.2018 20:25
A.l.e.X
61
odpowiedz
A.l.e.X
128
Alekde
Image

HDR w RDR2 (aby było w jednym miejscu) sceny z gradacją 0-600cd/m2

22.12.2018 20:26
A.l.e.X
62
odpowiedz
A.l.e.X
128
Alekde
Image

sceen 2 - HDR RDR2

22.12.2018 20:26
A.l.e.X
63
odpowiedz
A.l.e.X
128
Alekde
Image

Najlepiej wykonane gry w HDR scena gradacja 0-4000cd/m2 dla Assassin's Creed Odyssey

22.12.2018 20:34
Obscure
64
odpowiedz
2 odpowiedzi
Obscure
111
ExcalibuR

AIex - hdr trzeba konfigurować na komputerze? Przykładowo w Far Cry 5, Oddyseya i w nowym Tomb Raider to tylko w opcjach włączam HDRa różnice widać spora między SDR, a HDR Chociaz nigdzie nie mogłem znaleźć jakichś opcji nie licząc tego co jest wbudowane w Windowsie jak go włączę to filmy odpalone w odtwarzaczu wyglądają obrzydliwie jasno.

Przyznam że obecnie gry na nowym monitorze wyglądają kilka poziomów graficznie wyżej w porównaniu do mojego starego.

Jakieś programy konfigurujace hdr. Stestowanie go czy reszta opcji działa jak należy aby wyciśniąć maksimum z monitora również w zakresie hdr?

post wyedytowany przez Obscure 2018-12-22 20:40:14
22.12.2018 20:51
A.l.e.X
64.1
A.l.e.X
128
Alekde

w grach konfigurujesz zgodnie z procedurami : np. w FarCry 5 - musisz ustawić jasność papierowej bieli (najczęściej to 150-200), oraz maksymalny peak monitora (tutaj jaki masz maksymalny), tak samo wygląda konfiguracja w grach jak AC: Origin, AC: Odyssey. W Shadow of the Tomb Raider jest to ustawienie tak wysokości jasności dla trybu HDR aby na białym pudełku praktycznie nie było widać znaku. W każdej grze trochę inaczej się to ustawia (może o tym potem uzupełnię temat) ale efekt jest idealny dla własnych ustawień. W przypadku filmów niestety z poziomu Windowsa tego nie zrobisz bo tam masz tylko suwak dla jasności tryby HDR dla SDR więc wszystko wygląda źle.

Ustawiasz to z poziomu sterownika karty w przypadku Nvidii -> Panel sterowania Nvidii -> Wyreguluj ustawienia kolorów pulpitu -> Użyj ustawień Nvidia i tutaj gównie kontrastem ewentualnie gammą.

22.12.2018 22:28
Obscure
64.2
Obscure
111
ExcalibuR

Fakt w Tomb Raider jest pasek co do wzoru i ustawienia go do momentu gdy będzie już praktycznie niewidoczny. FC5 najładniej na chwile obecną wygląda pod względem HDR - Oddyseye tylko na moment zobaczyłem, bo grę i tak przeszedłem w DLC przetestuje. Musze ogarnąć film w 2k i HDR i wtedy za pewne wytrzeszcz-ów dostanę.

Spider Men na PS4 bardzo ładnie wygląda. Ciekaw jestem Resident Evil 2 w HDR :D

22.12.2018 21:48
Fredgard
65
odpowiedz
Fredgard
82
Treasure Hunter

HDR w RDR2 ssie. To jest fakt..

22.12.2018 22:05
A.l.e.X
😊
66
odpowiedz
A.l.e.X
128
Alekde

wymaga większego zachodu z ustawieniami nic więcej i mimo że przez odcięcie na 600 powoduje że nie dostaniemy aż takiej głębi scen dalekich to i tak płomienie, ogniska, pochodnie, lampy słonce, a nawet elementy otoczenia budują scenę w HDR o wiele lepszą niż w SDR. Ty masz oled w tym wypadku może być jedynie problem przy ustawieniach maksymalnych jeśli nie wyłączysz radaru który dostał maksymalną jasność że go przeniesiesz do innych gier ;)

23.12.2018 02:17
Fredgard
67
odpowiedz
Fredgard
82
Treasure Hunter

Ale zrozum, ze HDR to nie tylko nity... To rowniez detale w bielach i czerniach i tutaj to lezy. Linkowalem Ci juz raz filmik Vincenta na YT. Tak sie sklada, ze evilboris, od ktorego wrzucasz tu zdjecia z nim pracuje. Te pseudo ustawienia w tej grze, owszem podbijaja peak, ale podbijaja zarazem ogolna jasnosc, przez co gra robi sie wyprana... Ogolne zalozenie HDRu tutaj lezy i koniec tematu.

Jestem purysta dobrej jakosci obrazu. HDR w tej grze tego nie oferuje, dlatego dla wiekszej glebi wole grac w SDR. I zeby nie bylo, poziom detali w tej grze, podobnie jak Ciebie mnie po prostu powalil, ale HDR ssie, niestety. Mam nadzieje, ze w koncu wyjdzie jakis patch i naprawi ten problem.

post wyedytowany przez Fredgard 2018-12-23 02:21:32
23.12.2018 17:31
A.l.e.X
68
odpowiedz
A.l.e.X
128
Alekde

Fredgard - to nie również tylko przede wszystkim detale w bielach które zobaczysz właśnie mając większą rozpiętość. Analizę Vincenta widziałem zresztą często oglądam jego materiały, nie powiedział w tej analizie niczego co by nie było prawdą. Zakres jasności kończy się na 600 jednostkach, prawdą też jest to że jedyny suwak który podnosi jasność sceny to jasność całego ekranu, co nie zmienia faktu że wybierając w twoim B7 jasność 500 max w grze, nie jesteś w stanie ustawieniami TV w tym gammą, kontrastem, jasnością, czy ciepłotą ustawić aby było idealnie, bo oczywiście że możesz to zrobić jeśli tylko chcesz i to nawet na tym testowym ekranie gdzie pokazane jest niebo i chmury. Po to masz tyle ustawień w TV że wszystko możesz dopasować pod własne preferencje. Efekt HDR jest w grze odczuwalny nawet na białych płatkach kwiatów, nie mówiąc już o miejscach b. jasnych. Poświęć trochę czasu to sam ustawisz sobie to idealnie, prawdą jest natomiast to że jeśli chcesz zrobić to tylko z poziomu gry to dając na 500 stracisz detale w bielach, a ciemne miejsca staną się jasne, ale przecież nikt by tak nie grał.

26.12.2018 18:42
Obscure
69
odpowiedz
Obscure
111
ExcalibuR

Ogarnąłem pierwszy film w HDR i mam problem. Co kilka sekund obraz we filmie robi się jaśniejszy na 2-3 sekundy po czym z powrotem wraca do jakości HDR

Miał ktoś podobny problem? Wie jak go rozwiązać ? I czy w ogóle jest sens oglądania filmów w HDR bo znaczących różnic w jakości obrazu, a do tego co mam w grach nie widzę. Jeśli chodzi o mój problem to nigdzie w internecie nie mogę znaleźć podobnego problemu.

Używam DisplayPort. W VLC Media Player obraz mam strasznie ciemny w porównaniu do Media Player Classic gdzie w obu odtwarzaczach obraz po kilku sekundach oglądania robi się jaśniejszy (czynność powtarza się co chwile)

post wyedytowany przez Obscure 2018-12-26 19:24:55
05.01.2019 19:12
70
odpowiedz
Cyberfan
7
Legionista

Czekajac na nowe monitory PG35VQ i X35, zastanawiam się czy nie lepiej kupić telewizora OLED z HDR i do tego konsolę np. LG OLED55B8. Co da lepsze gaming experience? 21:9 curved 34" czy taki telewizor? I czy powinienem przejmować się wypalaniem obrazu w OLEDach? Czy technologia OLED to naprawdę "game changer"?

post wyedytowany przez Cyberfan 2019-01-05 19:13:31
06.01.2019 21:53
71
odpowiedz
Cubi__
58
Centurion

Mam mały pokój dla siebie do grania i szukam niedużego monitora. Moje pytanie jest takie, czekać na OLED-y , które mają wyjść w tym roku, czy kupić ASUS ProArt PA24AC, albo BenQ EW277HDR ? Pomóżcie proszę , bo chcę kupuć RTX2060 w tym roku, a do tego i win10,żeby nowe efekty były, plus monitor na HDR. Dodatkowo może KTOŚ MA, albo zna cechy ASUSA PA24AC ? Gram praktycznie w same RPG-i, zero FPS-ów, ale nie kupię od tak monitor w ciemno.

06.01.2019 22:13
A.l.e.X
72
odpowiedz
A.l.e.X
128
Alekde

Cyberfan / Cubi_ - Oled jest na ten moment bezkonkurencyjny szczególnie jeśli ma peak w HDR do 700cd/m2 to wtedy w HDR też trzyma wysoki poziom obrazu. Oczywiście aby docenić HDR na Oledzie trzeba mu stworzyć dobre warunki czyli ciemne pomieszczenie. Wadą jest za to ograniczona jasność w SDR oraz tryb dziennej pracy. Oczywiście dotyczy to głównie całościowego odbioru obrazu, w przypadku nastawienia się tylko na doznania HDR to najlepiej wypadają Qledy (TV). Nie nazwałbym Oled przysłowiową zmianą jakości, po prostu za nim nie wprowadzą monitorów z setkami / tysiącami stref/punktów wygaszania to absolutną czerń można uzyskać tylko na oledzie, ponieważ w tym wypadku można przyjąć że stref wygaszania w oledzie jest tyle ile pikseli.

Nie spotkałem się z wypalonym obrazem na oledzie, aczkolwiek problem chyba występuje bo pojawia się w wielu miejscach, jeśli chodzi o proporcje to 21:9 zawsze wygra z 16:9 jeśli chodzi o filmowość doznań. O ile wiem konsole współpracują bezbłędnie tylko w proporcjach 16:9 (mogę się mylić może coś w tej kwestii się zmieniło, nie sprawdzałem ostatnio)

07.01.2019 09:22
73
odpowiedz
Cubi__
58
Centurion

Cyberfan Inaczej pisząc, radzisz czekać na OLED-y. Też tak myślałem, ale jak w tym roku znów nie wyjdą ? Mam dość wiecznego czekania "w następnym roku" . Tym bardziej ,że patrząc na obecną ofertę monitorów HDR, to z mojej perspektywy, to jest bardzo źle. Szukam nie dużego, najlepiej na VA, min.75 Hz odświeżania i super, jak by to był 16:10 max 24". Jak pisałem wcześniej tylko Benq, albo Asus znalazłem w przybliżonych parametrach, a tak to jakieś zakrzywione i dużo za duże.

07.01.2019 14:57
74
1
odpowiedz
titanium
4
Legionista

Szkoda tylko że osoba która zebrała tyle wiedzy na temat HDR, w tym samym wątku I momencie do tego stopnia pozbawiona jest podstaw wiedzy o VR... Trochę odbiera to powagi wątkowi, który mógłby być całkiem przyjemny gdyby nie było tu całkowicie błędnych i pozbawionych elementarnego doświadczenia wstawek :)

Co do HDR, Efekt potrafi zachwycić dzięki dużo szerszej palecie barwnej, szkoda tylko że w LCD z jakimi miałem kontakt (półka ok 5K), był całkowicie nieużywalny ze względu na zrujnowaną w tym trybie czerń…

07.01.2019 23:16
A.l.e.X
75
odpowiedz
A.l.e.X
128
Alekde

titanium - nie wypowiadam się o VR poza moim subiektywnym stwierdzeniem że to jeszcze nie ten czas, nie mówię że doświadczenie VR nie jest przyjemne bo i pierwszy kontakt był zaskakujący, jednak była to dla mnie tylko chwilowa ciekawostka, sprzęt VR w każdym wydaniu jaki mam jest tylko odbiornikiem kurzu bo stoi nieużywany albo sporadycznie używany, za to HDR jest dostępne i używane wszędzie gdzie występuje. Moim zdaniem VR w tym wydaniu przeminie jak okulary 3D czy gogle różnego typu, może w następnej dekadzie kto wie. HDR w monitorach czy TV niestety zależy głownie od jakości sprzętu, musi mieć dużo stref wygaszania dobrą matrycę lub być oledem.

Cubi_ - aby odbiornik miał dużą jasność musi być w miarę duża matryca tak samo czym mniejsza i rośnie ilość stref wygaszania jeśli to nie oled (bo takich nie ma na ten moment) będzie wpływać na cenę. Oledy nie mają bezpośredniego podświetlania więc nie ma szans na więcej niż 700cd/m2 przy naprawdę dużych ekranach jak 65"+ cali. W monitorach oled raczej będzie nie wykonalne nawet 300 (mogę się mylić oczywiście).

08.01.2019 00:40
76
odpowiedz
titanium
4
Legionista

@A.l.e.X

Padają w tym wątku stwierdzenia na temat vr które są u podstaw całkowicie błędne technicznie. Jak mowie, odbiera to powagę temu wątkowi, a szkoda, bo w temacie HDR sam się tutaj paru autentycznie ciekawych rzeczy dowiedziałem. No ale jak się jednocześnie czyta takie kwiatki... Po prostu tworząc wątek na jeden temat, lepiej nie pisać o innych rzeczach których się nie zna.

Sam nie będę ich prostował w tym wątku, bo jest to wątek na inny temat i nie ma sensu mieszanie tematów. Miej jednak świadomość że Twoje "zapewnienia", są błędne. W szczególności te techniczne. "Waga", a już tym bardziej "rozdzielczość", od dawna nie są problemem, choć samo użycie tych terminów jest kolosalnym błędem samym w sobie.

Natomiast HDR jak sam napisałeś - zależy od jakości sprzętu. To nie jest wcale tak że "jest dostępne wszędzie". Bo w wielu, o ile nie większości przypadków (nie wiem, na tyle co sam widziałem), bardziej niszczy wrażenia, niż coś dodaje. Piekne kolory. Tragiczna czerń.

Osobiście mam wrażenie że to ma prawo działać tylko i wyłącznie na oledzie. Natomiast nie może to dobrze działać na matrycy podświetlanej, nawet kwantowej z lokalnym wygaszaniem. Tam to tym bardziej halo bije po oczach aż boli i to nawet w dzień przy włączonym świetle.... Lcd się nie nadaje do takiej zabawy. IMHO. To właśnie ta technologia musi wydaje mi się jeszcze kilka lat poczekać - na najlepiej microledy.... Dopiero wtedy będzie zabawa.

Osobiście póki co korzystam z 200calowego projektora - to dopiero robi efekt... Nawet bez hdr :)

Paradoksalnie projektory maja tu spore pole do popisu, bo w dlp "czarne piksele" nie emitują światła, jak w Oled. A źródła światła Ostatnio przechodzą potężną rewolucję.

13.01.2019 12:33
77
odpowiedz
Cubi__
58
Centurion

A.l.e.X rozumiem, ale ja potrzebuję nieduży monitor. Stąd moje pytanie, kupować Asusa PA24AC, czy czekać na OLED-y ?Asus na CES2018 zapowiadał monitory OLED 22", ale od tej pory cisza. Ba nawet jeden pokazał 24" OLED 4K, ale od tamtej chwili cisza. Zmieniam kartę graficzną i system na win10,żeby te wszystkie nowe funkcję mieć, stąd moje rozważania, pytania i zdenerwowanie bo pod moje wymagania, potrzeby nie ma monitora. A nie dam 11 tysięcy za Asusa 27" :/

17.01.2019 03:33
78
odpowiedz
premium858481568
9
Legionista

Siemacie ;)

Mam pytanie, czy monitor 2560x1440 75Hz z HDR600 będzię śmigał na karcie NVidii (1080ti) tak jak należy? Czy tylko w 8 bitach i 60 hercach? Czytam na necie sporo sprzecznych opinii, dodam że zarówno karta jak i monitor wspierają HDMI 2.0b, monitor ma też DisplayPort 1.2a, ale HDR na DisplayPort jest wspierane tylko od wersji 1.4.
Bo że w 4K z HDR na HDMI 2.0b to tylko w formatach 4:2:2 albo 4:2:0 na NVidii to wiem (choć nie wiem jak na Vedze od AMD). Ktoś coś?

post wyedytowany przez premium858481568 2019-01-17 03:34:35
17.01.2019 10:48
A.l.e.X
79
odpowiedz
1 odpowiedź
A.l.e.X
128
Alekde
Image

premium - a czemu ma nie działać, przepustowość HDMI 2.0 (a/b) to 18Gbps 10bit przy 1440p i 75Hz to połowa tego, na HDMI jesteś w stanie przesłać w tej rozdzielczości w 10bitach obraz bez problemu w 120Hz na tym złączu. DisplayPort 1.2 także wspiera HDR tak samo jak DP1.4 wszystko rozchodzi się tylko o przepustowość która w przypadku 1.4 jest bardzo duża. Oczywiście mówimy tutaj o sygnale RGB lub 4:4:4 bez żadnej kompresji koloru. Poza tym w specyfikacji monitora będzie dokładnie opisane w jakich parametrach HDR pracuje.

https://k.kramerav.com/support/bwcalculator.asp

Cubi_ - bardzo wątpię, aby peak jasności był duży potrzeba dużej matrycy szczególnie w oledzie, w przypadku tak niewielkich ekranów jak 22-24" bardzo wątpię czy przekroczy 400-500cd/m2 (bo pewnie nawet tego nie przekroczy). W pierwszym poście masz listę monitorów do wyboru, ja bym na tak małego oleda nie czekał.

26.01.2019 10:59
79.1
Cubi__
58
Centurion

Mam ASUS PA24AC i powiem szczerze jest miazga :D. tylko te kolory, jasność tak biją po oczach,że nie mogę ustawić w opcjach, żeby tak...nie waliły po oczach. Przepraszam, ale inaczej tego nie umiem opisać. Ale kolory, jakość niesamowita. A i HDR super działa w grach !!!! Najmniejszy monitor z HDR,ale na prawdę daje radę i jest super nawet do gier, mimo iż Asus go reklamuje, jako do grafików.

17.01.2019 11:05
Yoghurt
80
odpowiedz
1 odpowiedź
Yoghurt
72
Legend

Alex, rozeznajesz się w sprzęcie PC znacznie lepiej ode mnie, więc mam jedno proste pytanie, bo w takim zbiorczym wątku zadać je łatwiej.

Czy warto kupować teraz monitor z HDRem i czy są w ogóle jakieś przyzwoite na rynku, czy czekać jeszcze rok-dwa na upwoszechnien ie się OLEDów?

W salonie mam LG B6 spięte z PS4 Pro i nawet kompletny laik czasami przyglądający się grom czy choćby produkcjom z Netflixa obsługującym HDR lub Dolby Vision zauważa rażącą różnice w jakości obrazu i samej przyjemności z oglądania, a dla mnie jest to o tyle bardziej widoczne, że pracuję na całkiem przywoitym LCD iiyamy w zwykłej rozdziałce full HD i może przy klepaniu w Wordzie nie jest to tragedia, ale już przy odpaleniu jakiejkolwiek gry różnica w odbiorze w stosunku do telewizora jest rażąca (dlatego też mam na dole TV spięty po skrętce w ścianie z kompem na piętrze, gdy mam ochotę zobaczyć czerń i kontrast :)).

Od dwóch lat się przesiadam na nowy monitor i się przesiąść nie mogę, zwłaszcza po zakupie nowego telewizora. Jest coś faktycznie godnego polecenia na rynku już teraz, czy jednak się wstrzymać?

17.01.2019 17:41
A.l.e.X
80.1
A.l.e.X
128
Alekde

moim zdaniem monitor to monitor przeznaczony do pracy 24h/dobę / sensowne masz i to sporo ale zależy od podejścia bo jeśli chcesz monitor z taką czernią jak oled to musisz szykować ok. 30K na oledowy monitor od Alienware, a jak chcesz wydać pomiędzy 3-10K to jest sporo z matrycami qdot + wieloma strefami wygaszania z 600/1000 VESA HDR. Jeśli jednak koniecznie musi być oled to jego premiera będzie w Q3'19

https://hdtvpolska.com/ces-2019-dell-55-monitor-alienware-4k120-oled/

17.01.2019 12:00
Amadeusz ^^
81
odpowiedz
Amadeusz ^^
149
Grant us eyes
Wideo

Mam B7 (też spięte z PS4 Pro) i jestem bardzo zadowolony z zakupu, ale nigdy w życiu nie kupiłbym OLEDa w charakterze monitora, i nie sądzę żeby te szybko pojawiły się na rynku na szeroką skalę.

Jest już nieźle udokumentowane że o ile nie przeginasz pały - wypalenia są ekstremalnie rzadkie ( https://www.youtube.com/watch?v=nOcLasaRCzY ) ale statyczny taskbar i jasne elementy przeglądarki to po prostu proszenie się o kłopoty - jakby nie patrzeć Chrome to coś co jest odpalone czasem tysiące godzin w skali roku.

Na mojej S8 Relay for Reddit miał czarny theme (0, 0, 0 na RGB) i jasny navbar, a że jest to jedyna aplikacja której używam dziesiątki godzin tygodniowo (swoją drogą naprawili tą anomalię i navbar jest tego samego koloru co theme, ale już po ptokach) - mam wypalony pasek, który wybitnie nie przeszkadza, ale jest ewidentnie widoczny przy niektórych kolorach (czasem zaś kompletnie niewidoczny).

MicroLED z kolei dopiero raczkuje.

17.01.2019 19:24
82
odpowiedz
1 odpowiedź
premium858481568
9
Legionista

Ok, mam już swój nowy monitor a konkretnie kupiłem model HP Pavilion Gaming 32 HDR Display – 32” 1440p, 75Hz, FreeSync 600cd/m2
W sklepach podają że wspiera tylko DisplayPort w wersji 1.2a, jednak wspiera też wersje 1.4 co jest miłym zaskoczeniem (można w opcjach wybrać tryb DP 1.1, DP 1.2 i DP 1.4), wspiera także HDMI 2.0b.
Ale, jeśli chcę ustawić RGB Full 10 bitów w nVidii Control Panel to jest to tylko możliwe przy 60hz, przy 75hz ustawienia wracają na 8 bitów automatycznie, testowałem też HDMI ale wtedy jest tylko 8 bitów do wyboru a 10 bitów niema nawet w opcjach karty (GTX 1080Ti). A szkoda bo chciałem 1440p, 75hz i HDR 10bit.
To jest dziwne, gdyż na DisplayPort 1.4 powinno działać nawet na 4K w 10 bitach z HDR i do 98Hz (do 120hz na Radeonach lub do 144Hz ale wtedy tnie colory do 4.2.2 albo niżej nawet). Chyba poczekam na Radeona VII, niech stracę 10% wydajności, ale na radkach jest mniej cyrków z tym HDR/HDMI/DisplayPort, nawet niektóre recki np. na Guru3D o tym wspominają.
Oczywiście HDR działa w tych 8 bitach i wygląda bardzo dobrze np. w demie Resident Evil 2, ale skoro może działać nawet lepiej...

post wyedytowany przez premium858481568 2019-01-17 19:27:52
18.01.2019 15:00
A.l.e.X
82.1
A.l.e.X
128
Alekde

Na pewno nie jest to wina złącza ponieważ jest tak jak pisałeś DP1.4 zapewnia 98Hz w 4K 10bit. Poza tym graj w HDR tylko z 10bit ponieważ jeśli masz 8bit to możesz dostać tylko peak jasności, a gdzie pozostałe odcienie ? Pomijam już to że niektóre gry mają nawet tekstury przygotowane w 10bit. Jeśli jednak z jakiegoś powodu nie uda ci się wymusisz 10bit przy 75Hz (co może sugerować tylko jakieś ograniczenia po stronie monitora - bo nic mi innego do głowy nie przychodzi) to oczywiście korzystaj z 10bit i 60hz.

Samsung CHG70 – 32” 1440p, Quantum Dot, QLED, 144H - działa w 120Hz z HDR w 1440p przez HDMI

18.01.2019 19:46
83
odpowiedz
premium858481568
9
Legionista

Ciekawy eksperyment przeprowadziłem, mój kolega ma Radeona Vegę 56, przetestowaliśmy na nim używając DisplayPort 1.4, 2560x1440, HDR 10 bitów RGB Full i z 75Hz działa! Choć Freesync razem z HDR też nie działa, ale to już dlatego, że monitor wspiera Freesync 1 a nie Freesync 2. W każdym bądź razie przynajmniej HDR z 10bit i 75Hz działa ok, więc czekam na Radka 7 ;)
NVidia ma coś namieszane, i z tego co czytam nie jestem jedyny z tym.
Ok, teraz już w sumie wszystko wiem, dzięki za porady, pozdro.

26.01.2019 11:13
84
odpowiedz
Cubi__
58
Centurion
Image

To ja się pochwalę,że mam nowego ASUS PA24AC i w sumie jest prawie idealny ! Zacznę od kolorów i głębi czerni, ideał ! Wcześniej miałem Eizo na S-PVA i no nie było tak pięknie. Do gier super ! Nigdy nie widziałem tylu szczegółów i tyle kolorów. Pomimo tylko 60Hz, coś kosztem czegoś, bo chciałem mieć jak najmniejszy monitor, to grając nawet w FPS-y nie ma smużenia, tu technologia ASUSA pomoga, a imput lag , według mnie nie ma. Ogólnie super monitor do multimediów, gry, filmów , neta z nowoczesnymi opcjami. A dlaczego nie jest idealny ? Więcej Herców by mógł mieć, min 75, plus mam wrażenie , że mimo zaznaczonego G-sync i obługiwanego FreeSync przez monitor , nie chodzi on za dobrze. A mam pytanie w panelu zmiany rozdzielczości jest format koloru wyjściowego YCBCR444, z tego co czytałem to większa liczba kolorów, ale jak ją ustawiam to wyjściowy zakres tonalny AUTOMATYCZNIE mam ograniczony i nie da się go zmienić. Zostawić na standardowych ustawieniach czy zmienić coś ??? A i w opisie technicznym ASUS podaje wyjście DP 1.2, a to MUSI BYĆ 1.2a, żeby obsługiwało FreeSync. Dzwoniłem do ASUS POLSKA i pan...powiedział,że to 1.2a, ale szczerze to mało przekonująco to powiedział, sam pewnie nie wiedział. ASUS powinien szczegółowiej to pisać. Ale ogólnie MONITOR BARDZO POLECAM ! :)

post wyedytowany przez Cubi__ 2019-01-26 11:14:29
26.01.2019 21:45
Cainoor
85
odpowiedz
1 odpowiedź
Cainoor
212
Mów mi wuju
Image

Tak jeszcze na chwile wracajac do tematu:
„Cainoor - na PC na HDMI 2.0 możesz ustawić 8bit 4:4:4 lub RGB pełne i 60Hz, 10bit 4:4:2 w 60Hz lub 10bit 4:4:4 pełne RGB w 30Hz. Obraz w HDR musi być ustawiony na 10 lub jak ktoś chce 12bit tylko pozostaje otwarte pytanie dla tych którzy zachwalają ekrany w TV 12 bitowe na jakim złączu chcą przesłań dane w HDR 4K w 12bit i w powyżej 30Hz, bo takiego nie ma.”

Niestety nie dziala mi 4k i 60Hz w zadnej konfiguracji, a i chcialem chociaz mieć 50Hz, 4:2:0 i 8bit do testu :(
W 30Hz i owszem. Chociaz tylko RGB i 8bit. W ogole w Panelu sterowania NVidia nie moge wybrac ani 4:2:0 ani 10bit. Ktos cos?

post wyedytowany przez Cainoor 2019-01-26 22:07:06
26.01.2019 21:58
Cainoor
85.1
Cainoor
212
Mów mi wuju
Image

A tutaj przepustowość

26.01.2019 22:13
86
odpowiedz
Likfidator
111
Senator

Zobacz, czy nie ma nowszej wersji sterownika, coś mi się kojarzy, że był problem z 10-bitami w jakiejś wersji i też kiedyś nie mogłem włączyć mimo iż zawsze się załączało.

Druga rzecz, sprawdź czy monitor/TV ma włączony Deep Color oraz złącze jest ustawione na HDMI 2.0.

Co wydaje się najbardziej prawdopodobne, bo jak HDMI pracuje w 1.4 to pozwala tylko na 4K w 30 Hz.

26.01.2019 22:15
A.l.e.X
87
odpowiedz
1 odpowiedź
A.l.e.X
128
Alekde
Image

Cainoor - Jeśli chodzi o 4K to możliwość uzyskania 60Hz+ oraz 4K i 10bit w pełnym RGB jest możliwe tylko przy użyciu Display Portu. W przypadku TV gdzie mamy tylko HDMI2.0 (dopiero w 2020 mają wyjść telewizory z HDMI2.1 ale nadal nie ma GPU z tym złączem seria 2xxx ma tylko HDMI2.0 na wyjściu) więc na TV obraz 4K w 60Hz będzie 4:4:2 przy HDMI. W przypadku monitorów 1080p i 1440p problemu nie ma bo ilość danych w 10bitach dla tej rozdzielczości jest poniżej 19Gbps. U mnie na Display Porcie ma nawet 98Hz na monitorze ASUS w 10bit i 4K. 12bit w TV to chwyt komediowy dla komediantów ;) Konsole mają 30Hz-50Hz w 4K, lub ubscaling z niższej rozdzielczości więc są w stanie w 4K wyświetlić HDR ale nie ma mowy o uzyskaniu na tym złączu 60Hz + na 10 a tym bardziej na 12 bitach. Likfidator ma najprawdopodobniej rację TV/monitor pracuje w HDMI1.4 (ustawienia, może być to też wina kabla, lub karty graficznej)

Cubi__ - ten monitor ma pełne pokrycie RGB ale ma tylko 8bit wiec HDR w nim dotyczy tylko bieli i czerni (niestety) nie dostaniesz rozszerzonej palety barw koloru, co oczywiście nie zmienia faktu że efekt HDR uzyskasz ale nie pełny. Poza tym jest to b. dobry monitor i ma dość dużą jasność jak na 24" bo czym mniejszy panel tym trudniej podbić cd/m2.

post wyedytowany przez A.l.e.X 2019-01-26 22:43:28
27.01.2019 12:22
Cainoor
87.1
Cainoor
212
Mów mi wuju

A ja wlasnie nie moge ustawic tej wyjsciowej glebi kolorow na 10bit. Zapewne przez kabel HDMI 1.4, bo wydaje mi sie, ze i TV, Ampli i grafika maja odpowiednie zlacza.

27.01.2019 10:49
88
odpowiedz
Cubi__
58
Centurion

A.l.e.X no to mnie pocieszyłeś -_-....a ja się tak cieszyłem,że ma taką dużą paletę barw...., lepsze przejście tonalne kolorów, które nie wiem czy trzeba jakoś ustawić czy automatycznie na DP jest już włączone. Producent napisał,że wykorzystuje on 14 bitową tablicę referencyjną, dlatego faktycznie liczyłem, na płynne przejście barw, co pewnie mam, ale się czepiam szczegółów , jak to ja ;P , no i liczyłem na format koloru wyjściowego YCBCR4222, bo przy okazji recenzji tego najdroższego Asusa 27" do gier , to przeczytałem,że to daje najlepszą szczegółowość obrazu i ilość barw, dlatego tak się o to DOPYTUJE i to "Wyjściowy zakres tonalny" ograniczony mnie wnerwia . Pomijam to,że na stronie asusa jest napisane DP 1.2 i ,że obsługuje "Adaptive-Sync supported :Yes", a powinno być napisane ,że DP to 1.2a bo poniżej AS nie jest obsługiwany. Ale ogólnie na prawdę monitor prawie idealny. Kolory, barwy, ich głębia, czarny, no pięknie jest. Plus fabryczna kalibracja. Jak od dłuższego czasu nie ufam tej firmie, to przy tym monitorze to majsterszczyk no i NAJMNIEJSZY MONITOR Z CERTYFIKOWANYM HDR co widać.

post wyedytowany przez Cubi__ 2019-01-27 10:51:56
27.01.2019 11:49
89
odpowiedz
Likfidator
111
Senator

ten monitor ma pełne pokrycie RGB ale ma tylko 8bit wiec HDR w nim dotyczy tylko bieli i czerni (niestety) nie dostaniesz rozszerzonej palety barw koloru

Alex, nie pisz głupot, bo robisz tylko niepotrzebne zamieszanie. Ilość bitów matrycy nie ma żadnego znaczenia dla poziomu wypełnienia przestrzeni barw. 10-bitów ledwie pomaga w usuwaniu bandingu, ale jest to praktycznie pomijalne. Specjaliści na stronie rtings.com pisali nie raz, że 10-bit == 8-bit + FRC.

Tak naprawdę nawet FRC nie jest konieczny, bo przy wysokich rozdzielczościach dithering skutecznie usuwa banding, co pokazują testy gradientów z Rtings na low-endowych TV.

To co jest istotne, to przetwarzanie obrazu w 10-bitach. Ze względu na specyfikację algorytmów kompresji wideo dużo łatwiej jest przechować 10, 12 czy 16-bitowe składowe niż wygładzający szum. Dlatego to zadanie jest przekazywane elektronice matrycy.

Co więcej, HDR + 8-bit daje lepsze rezultaty niż 10-bit bez HDR. Pisałem już kiedyś, że metadane skalują zakres jasności każdej sceny. W przypadku LCD pozwala to ustawić podświetlenie na np. 10% i używać całego zakresu 0-255 dla sceny ciemnej. To właśnie to jest powodem dla którego HDR ma tyle detali w cieniach i jasnych punktach.

12bit w TV to chwyt komediowy dla komediantów ;)

I tak i nie. 10-bit + meta dane HDR mają więcej treści niż 12-bitów. Tak na marginesie, silniki gier używają 16-bitowych składowych, które na późnym etapie są konwertowane do HDR czy SDR algorytmem tone mappingu.

12-bitów może mieć sens, w momencie gdy wyświetlacze osiągną pełne pokrycie rozszerzonych przestrzeni barw, a zakres jasności osiągnie 4000-10000 nitów.

post wyedytowany przez Likfidator 2019-01-27 11:49:50
27.01.2019 12:02
90
odpowiedz
Cubi__
58
Centurion

Rozumiem. Czyli co, tylko OLED-y ? Tylko OLED będzie miało odpowiednią technologię, technikę,żeby w "niedużych" (do 24 cali) monitorach było np. HDR1000,czy 600 ??? I znów czekanie...Tak czy siak SUPER za ten wątek. Wreszcie coś konkretnego i z tego wątku kupiłem mój monitor. Jeszcze raz dzięki A.l.e.X

28.08.2019 07:50
Tal_Rascha
91
odpowiedz
Tal_Rascha
150
Lady of the Void

Czy Samsung CHG70 to naklepsze co można dostać w cenie do 2500zl?
Szukam czegoś z HDR 600, 27 cali, 1440p, odświeżanie większe niż 60 hz byłoby miłym dodatkiem. A moze w najbliższych miesiącach wyjdzie coś ciekawego w tym przedziale cenowym?

28.08.2019 09:51
mirko81
92
odpowiedz
mirko81
16
Dywizjon 1150

Monitory HDR to dla mnie za droga zabawa (nie mam nawet jak to zobaczyć) ale nadal żyje w boomie telewizorów Samsung 3D.

Wciagnalem się w to dopiero 3 lata temu, testujac 3D który - byl to grzech bylo nie sprawdzić.

Kino S-F typu Marvel/DC w 3D to totalny sztos.
W kolejce m.in mam Kapitan Marvel, Avengers Endgame, Shszam, Alita, Dumbo, Aquaman.

Nie uwazam ze moda minela, filmy 3D nadal sie swietnie rozchodza i wychodzi sporo nowych. Moim zdaniem odebrano technike dla wsparcia kin. Nigdy mi HDR w tv nie zastapi 3D aktywnego

28.08.2019 10:31
A.l.e.X
93
odpowiedz
A.l.e.X
128
Alekde

Tal_Rascha - w tej cenie nie znajdziesz niczego lepszego, potem masz już skok do ponad 10K PLN jak w przypadku oparte na ACER Predator i ASUS ROG Swift. Poza tym ten konkretny monitor CHG70 po aktualizacji oprogramowania ma ponad 800cd/m2 więc w nadwyżce do HDR VESA 600. W tym przedziale cenowym nic nie wyjdzie ten monitor i tak staniał z prawie 4 tysięcy do poniżej 3 tysięcy.

30.08.2019 07:19
Tal_Rascha
94
odpowiedz
Tal_Rascha
150
Lady of the Void

Dotarł do mnie wczoraj monitor i jestem bardzo zawiedziony. W trybie HDR obraz jest wyprany z kolorów, długo bawiłem się wszelkimi ustawieniami i nic nie przynosiło sensownego efektu, obraz w hdr jest gorszy niż sdr. Dla porównania mam telewizor Sony Bravia gdzie HDR faktycznie jest niesamowity.

30.08.2019 08:37
A.l.e.X
95
odpowiedz
2 odpowiedzi
A.l.e.X
128
Alekde

Tal_Rascha - to nie jest wina monitora tylko windowsa 10. Podlacz go do konsoli to od razu bedziesz miał dostęp do jego możliwości. Jeśli chodzi o windows to ustawisz wszystko z poziomu nvidia panel sterujacy tj. bity + nasycenie kolorów i gamme. Po prostu nie robisz tego z poziomu monitora ale sterowania gpu. Poradzisz sobie.

30.08.2019 08:52
Tal_Rascha
95.1
Tal_Rascha
150
Lady of the Void

chcę właśnie jeszcze na konsoli to przetestować jak wrócę z pracy.
Można ustawiać z poziomu panelu nvidii osobne parametry kolorów dla hdr i sdr?
Z tego co jeszcze wyczytałem, pomóc może zmiana kolorów z RGB na Ycbr

post wyedytowany przez Tal_Rascha 2019-08-30 09:09:36
30.08.2019 16:57
Tal_Rascha
95.2
Tal_Rascha
150
Lady of the Void

Podpiąłem monitor do konsoli i HDR faktycznie działa jak powinien, nie wiem jednak jak to sensownie ustawić w sterowniku nvidii bo gdy zmieniam nasycenie barw to jest to globalne i o ile da się w ten sposób wyregulować treść HDR to SDR wygląda tragicznie, trzeba by za każdym razem zmieniać zaleznie od tego czy korzysta sie z HDR czy SDR czy może jest jednak jakiś inny sposób by to działało?

30.08.2019 17:07
Ski_drow
96
odpowiedz
Ski_drow
119
Senator
Image

Mnie bardzo pozytywnie zaskoczył mój laptop Asus TUF Gaming odnośnie HDR.Naprawdę fajnie efekt daje ta funkcja, jak na matrycę FullHD i nie spodziewałem się kupując go, że będzie ją posiadał.

01.09.2019 09:59
Tal_Rascha
97
odpowiedz
Tal_Rascha
150
Lady of the Void

Moglbys mnie Alex pokierować jak to poprawnie ustawic? Zachwalany pod kątem hdr assassin's Creed odyssey na HDR wyglada o wiele gorzej niż sdr

03.09.2019 20:11
Tal_Rascha
98
odpowiedz
2 odpowiedzi
Tal_Rascha
150
Lady of the Void

Posprawdzałem parę gier, większość na HDR wygląda gorzej niż SDR, zwłaszcza Assassin's Creed Odyssey, ale są i takie które wyglądają ślicznie np Battlefield 1, nie wiem od czego to zależy, czego to jest wina i jak to naprawić.

03.09.2019 21:10
blood
98.1
blood
194
Legend

Czyli podobnie jak z rtx nie warto tracić pieniędzy i poczekać na mainstreamowy support. Sam czekam na monitor 27" 1440p 144 Hz z dobrym HDR ale nic ciekawego nie ma. Opinie takie jak twoja też nie zachęcają do wydania pieniędzy.

Co do BF1, grasz po sieci? Czy HDR przeszkadza w dostrzeganiu przeciwników w ciemnych miejscach?

post wyedytowany przez blood 2019-09-03 21:11:26
03.09.2019 21:13
Tal_Rascha
98.2
Tal_Rascha
150
Lady of the Void

Są ludzie którzy zachwalają HDR na moim monitorze, sam mam też TV z HDR do konsoli i to jest przepiękne więc to nie jest tak, że to pic na wodę.
BF1 odpaliłem tylko do testów bo mam z origin access

03.09.2019 21:26
mgr. Kuba
📄
99
odpowiedz
2 odpowiedzi
mgr. Kuba
96
-

Tal_Rascha - niestety miałem ten sam problem z którym nie mogłem się uporać ale jest opcja że nie ogarnąłem po prostu i straciłem cierpliwość (https://www.gry-online.pl/S043.asp?ID=14945102). Monitor oddałem, potem testowałem jeszcze dwa i o ile HDR w żadnym nie działał jak powinien tak ten Samsung poza tym był naprawdę spoko i chce do niego wrócić, kupić już normalnie zamiast się bawić we zwroty. Tylko że no... ten HDR dobrze by było mieć jak należy. W każdym razie, jakbyś znalazł jakieś rozwiązanie jak to wszystko ogarnąć, ustawić, proszę daj znać w tym wątku.

03.09.2019 21:32
Tal_Rascha
99.1
Tal_Rascha
150
Lady of the Void

przekopałem pól internetu i sporo ludzi ma taki problem, brak jednak sensownego rozwiązania, ciężko nawet wywnioskować czy winny jest monitor, NVIDIA czy Windows. W tej chwili zastanawiam się nad zwrotem monitora.
Co do Assassina i pewnie paru innych gier pewnym "rozwiązaniem" jest użycie programi vibranceGUI - pozwala on podbić intensywność kolorów. Wiadomo, że jest to sztuczne rozwiązanie ale wygląda to lepiej niż ten wyblakły HDR.

post wyedytowany przez Tal_Rascha 2019-09-03 21:35:48
03.09.2019 21:38
mgr. Kuba
99.2
mgr. Kuba
96
-

Również. Niektórzy twierdzą że ten monitor to syf, niektórzy piszą że im wszystko działa. Ktoś mi powiedział że poprawnie działający HDR jest kwestią "ustawienia wejścia w karcie graficznej" ale tutaj też nic nie osiągnąłem, cokolwiek ta porada miała by oznaczać... nie ogarniam. Dziwi mnie to że na konsoli pracuje Ci to normalnie, dobrze, a przy pc problemy.
Jestem zdesperowany do kupna nowego monitora i chciałbym żeby to działało tak po prostu, jak należy.

03.09.2019 21:36
100
odpowiedz
2 odpowiedzi
Likfidator
111
Senator

Czyli podobnie jak z rtx nie warto tracić pieniędzy i poczekać na mainstreamowy support.

HDR to taki sam przełom w TV jak przeskok z SD do HD. Problemem jest jednak to jak telewizory czy wyświetlacze interpretują sygnał z konsoli czy komputera.

Najmniej problemów jest przy odtwarzaniu filmów z pendrive'a czy używaniu Netflixa, Amazona i innych appek ze smart TV. Kodeki telewizora doskonale wiedzą jak interpretować sygnał HDR.

Przesyłanie HDR przez HDMI bywa jednak problematyczne. Dlatego prawie wszystkie gry z HDR mają dwa suwaki jasności, jedna dla jasności białej kartki (czy jasności SDR), druga dla maksymalnej jasności. Niestety to nie wystarczy, bo trzeba jeszcze kombinować z suwakami telewizora czy monitora.

Tryb HDR ustawia się inaczej niż SDR. Często trzeba ustawić "jasność" poniżej 50/100, np. na wartość 40-45. Nie oznacza to, że obraz będzie ciemny, bo HDR inaczej liczy jasność. Zmniejszając parametr jasności uzyskujemy bardziej nasycone barwy.

Może być tak, że przy jasności 50/100 telewizor wymaksuje się nam na 1000 nitów, a jak ustawimy 40/100 wymaksuje się dopiero na 2000 czy wyżej.

Najpierw ustawiamy suwaki w TV, potem suwaki w grze.

Ja miałem tak w przypadku Forzy na telewizorze LG. Obraz był wyprany z kolorów. Zmniejszenie jasności i ponowna regulacja suwaków pomogła.

Po prostu nie ma na to łatwej odpowiedzi. Po prostu trzeba usiąść i testować najróżniejsze opcje. Po godzinie takich testów wyczujemy jak to należy ustawiać i każda kolejna gra będzie łatwiejsza do regulacji.

Część gier lepiej też znosi złe ustawienia TV np. Battlefield 1 czy Mass Effect Andromeda.

Dlatego polecam właśnie Forzę Horizon 4, bo jak już w niej się uda dobrze zestawić wyświetlacz, to wszystko inne będzie piękne.

EDIT:
ciężko nawet wywnioskować czy winny jest monitor, NVIDIA czy Windows

Nie wiem czy jest sens winić Nvidię i Windows. Mam 2 TV Samsunga z 2016 i 2018. Do tego LG z 2016 i także budżetowego TCLa. Na każdym z tych TV HDR jest w grach wyświetlany poprawnie, na tyle na ile te matryce potrafią uzyskać HDR.

Ściągnąłeś sterowniki do tego monitora? Samsung ma na swojej stronie profile do monitorów. Nie wiem czy to pomoże, ale warto spróbować.

post wyedytowany przez Likfidator 2019-09-03 21:39:33
03.09.2019 22:07
Tal_Rascha
100.1
Tal_Rascha
150
Lady of the Void

Ściągnąłeś sterowniki do tego monitora? Samsung ma na swojej stronie profile do monitorów. Nie wiem czy to pomoże, ale warto spróbować.
Ściągnąłem, nic to nie dało. Ciężko jest mi też winić sam monitor skoro po podłączeniu konsoli HDR działa prawidłowo.

03.09.2019 23:14
A.l.e.X
100.2
A.l.e.X
128
Alekde

Likfidator ma rację tutaj całkowicie, chodzi właśnie o to że trzeba chwilę się pobawić, niestety z HDR nie jest tak jak z każdą inną opcją P&P ustawiasz pod siebie względem ustawień i możliwości własnego wyświetlacza, dlatego nie da się opisać jak ustawić poprawnie jako złoty środek dla każdego.

03.09.2019 23:07
A.l.e.X
101
odpowiedz
6 odpowiedzi
A.l.e.X
128
Alekde
Wideo

Sorry że nie odpisałem bo nie widziałem tematu. Musisz wszystko ustawić z pozycji Nvidia Panel kontrolny, bo winą jest Windows 10, po prostu nie jest w stanie wyświetlić poprawnie kolorystyki na scenie SDR przy włączonym trybie HDR (Windows10). Jeśli gra ma bazową możliwość nasycenia dla kolorystyki np. gry które przejdą w tryb HDR po włączeniu gry lub gry które mają samą konfigurację jak Halo Wars 2, Forza Motosport 7, Forza H4, FarCry 5, itd. to żadnego problemu nie będzie i masz idealnie tak samo jak po podpięciu do konsoli. Jednak jeśli gra do odpalenia HDR wymusza przejście w Windowsie do trybu HDR (np. Shadow of War) to wtedy musisz ustawić z panelu kontrolnego nasycenie jakie ci odpowiada. Z TV jest prościej o tyle że możesz sobie regulować TV, w przypadku monitora pewne funkcje są cyfrowo zablokowane dla panelu sterowania.

Proponuję abyś wziął dwie gry na test tj. Far Cry 5, ustawiając tam HDR dla FS2 oraz Shadow of Tomb Raider lub FM7, FH4 - od nich przeszedł do innych. Zrobisz to bezproblemowo, nie jest to wina monitora bo sprawdziłeś podpinając go pod konsole.

Obraz w HDR to przepaść względem SDR i wszystkie gry z HDR (mam wszystkie na PC z HDR) działają perfekcyjnie.

blood - gier z RT jest niewiele ale tam gdzie została użyta ta technologia to jest ziemia / a niebo jeśli chodzi o aspekt wizualny. Poza tym dzięki pascalowi można teraz włączyć GI dla większości gier (obecnie mam betę reshade dla DX12 i też działa) więc mogę nawet powiedzieć że dla wszystkich, z SSR sprawia że gry po prostu wyglądają niesamowicie względem tego jak zostały dostarczone w wersji podstawowej.

efekt choćby tutaj

https://www.youtube.com/watch?v=yztbcnE-0PA

https://www.youtube.com/watch?v=KIJfBeANLVo

https://www.youtube.com/watch?v=Qo3h895soM0

post wyedytowany przez A.l.e.X 2019-09-03 23:19:32
04.09.2019 12:41
Tal_Rascha
101.1
Tal_Rascha
150
Lady of the Void

gry które przejdą w tryb HDR po włączeniu gry lub gry które mają samą konfigurację jak Halo Wars 2, Forza Motosport 7, Forza H4, FarCry 5, itd. to żadnego problemu nie będzie i masz idealnie tak samo jak po podpięciu do konsoli.

wczoraj pobrałęm demo Forzy Horizon 4 i hdr był bardzo słaby, nawet światła samochodów były przytłumione a kalibrację w grze zrobiłem wg tamtejszej instrukcji

post wyedytowany przez Tal_Rascha 2019-09-04 12:41:53
04.09.2019 13:37
mgr. Kuba
101.2
mgr. Kuba
96
-

Żadne ustawienia w grze tutaj nie pomagają. Nie tutaj leży problem. Spędziłem na tym na prawdę sporo czasu, na kombinacje czytanie próbowanie szukanie. Nic. Problem leży gdzieś indziej ale...

04.09.2019 17:02
A.l.e.X
😊
101.3
A.l.e.X
128
Alekde

Tal_Rascha - spróbuj jeszcze włączyć Far Cry 5 ale odpal grę mając windows w trybie SDR niech przejdzie do HDR samo / nie ma możliwości aby wam się trafiły dwa popsute monitory kiedy sporo użytkowników ma tego samsunga i jest b. zadowolonych o czym świadczą m.in. ich komentarze. Prawdopodobnie ale nie przesądzam coś robicie źle a że na odległość takie to doradzanie to musi do kogoś z was wpaść osoba która zna się na kalibracji HDR aby wam to ustawić.

04.09.2019 21:13
Tal_Rascha
101.4
Tal_Rascha
150
Lady of the Void

Dobrze, że Far Cry 5 jest w darmowym Uplay+, pobrałem i tu HDR faktycznie wygląda dobrze

04.09.2019 22:42
A.l.e.X
101.5
A.l.e.X
128
Alekde

Tal_Rascha - musisz po prostu nauczyć się to ustawiać prawidłowo, w przypadku FarCry maksymalny poziom dla ciebie to pomiędzy 600-800 nitów, za to biała biel to już w zależności jak masz ustawiony odbiornik ale dla wartości 600-800 to okolice 150. z tym że jak będzie za ciemno to trochę idziesz w górę. Niebo jest wskazówką aby widzieć przejścia tonalne na chmurach. Poza tym jeśli pisze jak wykonać poprawnie kalibrację np. na pudełku to i tak musisz wziąć poprawkę na to że to i tak jest tylko wskazówka sam robisz to pod swoje preferencje ale na tej zasadzie aby wydobyć i biele i czernie, bo jak przesadzisz to po prostu dostaniesz b. mocne biele ale pozbawione detali dlatego najlepiej ustawia się (przynajmniej dla mnie) na widoku nieba i chmurach w słońcu.

05.09.2019 10:18
Tal_Rascha
101.6
Tal_Rascha
150
Lady of the Void

Tylko w takim AC: Odyssey chocby nie wiem co, samymi suwakami w grze nie jestem w stanie wydobyc kolorów, muszę ręcznie podbijać nasycenie w panelu nvidii lub przy uzyciu vibranceGUI

04.09.2019 22:51
kokoju
102
odpowiedz
1 odpowiedź
kokoju
97
Handlarz z Neverwinter

A.L.e.X

Pojawiła się aktualizacja co do certyfikacji VESA HDR i nowy poziom 1400, więc możesz zaktualizować w wolnej chwili wstępniak, twój wymarzony pułap 1500 powoli nadchodzi ;)

https://pclab.pl/news81831.html

Ja natomiast wystawiałem niedawno Samsunga CHG70. Cena w zakupie oczywiście rewelacyjna i nieosiągalna do kupienia przez tradycyjne sklepy czy pomarańczowy portal, ale chwilowo nie potrzebuję tego monitora, niemniej sprzęcik kusi, oj kusi :D

post wyedytowany przez kokoju 2019-09-04 22:51:28
06.09.2019 17:44
A.l.e.X
102.1
A.l.e.X
128
Alekde

dziękuje za informację na pewno będę obserwował ten monitor aczkolwiek interesuje mnie przede wszystkim wielkość 40-43" (dla mnie optymalna jeśli chodzi o monitor)

06.09.2019 00:31
Hydro2
103
odpowiedz
1 odpowiedź
Hydro2
124
Legend

Alex, jako znawca powiedz mi, czy jest jakis sposób, by na wyświetlaczu 4K na pececie odpalić HDR np w 1440p? Jesyem prawie pewien, ze da się jakoś oszukać system. Mam guzik HDR na pilocie, ale samo jego włączenie w trybie SDR daje tylko artefakty HDR'owe. Ale gdyby ten guzik jakoś wykorzystać do włączenia rzeczywistego HDR'u? Musi być jakiś sposób.

post wyedytowany przez Hydro2 2019-09-06 00:32:00
07.09.2019 02:00
A.l.e.X
103.1
A.l.e.X
128
Alekde

nie odpowiem ci tutaj właściwie, ale HDR jest zazwyczaj zarezerwowany dla natywnych ustawień wyświetlacza, jedyna szansa to ustawienie przeskalowania obrazu w grach w których można to zrobić albo używając DLSS albo używając suwaka dla zmiany jakości obrazu w grach w których jest suwak (sporo takich pozycji, większość od Ubisoftu, EA)

06.09.2019 15:58
sir tajwan
104
odpowiedz
5 odpowiedzi
sir tajwan
45
Pretorianin

Cześć, przymierzam się do kupna monitora, czas zmienić mojego starego TN 75 HZ. Cena do 2500 PLN, monitor musi mieć rozdziałkę 1440p ( czas się przesiąść wyżej z FHD ), 120-144 HZ, nie chcę już TN, więc VA lub IPS, ładne nie wyprane kolory i fajnie jakby właśnie miał dobrze zaimplementowany chociaż ten HDR400 ( nie tylko pseudo ), wiem że w tej cenie nic wyżej nie ma oprócz tego Samsunga CHG70 ale czytałem i nie pasuje mi ten monitor.

Nie wiem też co z wielkością do tej rozdzielczości ( biurko mam chyba dosyć szerokie 75-80 cm ), czy najlepiej 27 cali, a czy 31,5 nie jest już trochę za wielki i obraz nie będzie tak ostry ?

Możecie polecić jakieś modele w tej cenie ?

coś co znalazłem np.
https://www.x-kom.pl/p/380148-monitor-led-27-aoc-agon-ag273qcx-curved-hdr.html#Specyfikacja

https://www.morele.net/monitor-aoc-agon-ag322qc4-4831678/?gclid=EAIaIQobChMI9rndoqS85AIVS-d3Ch11fQlGEAQYAiABEgJiRfD_BwE

06.09.2019 17:36
sir tajwan
104.1
sir tajwan
45
Pretorianin

ten pierwszy znalazłem nawet 150 taniej na emag

06.09.2019 17:46
A.l.e.X
104.2
A.l.e.X
128
Alekde

to zależy czy zależy ci na monitorze czy na monitorze z HDR, z HDR jedyny sensowny zakup cena/jakość to wspomniany samsung potem masz już monitory HDR w cenie powyżej albo zbliżonej do 10K PLN. Polecam monitor zamówić i wypróbować bo jest to bez wątpienia na ten moment najlepszy monitor cena / jakość.

06.09.2019 18:00
sir tajwan
104.3
sir tajwan
45
Pretorianin

Jak już kupować monitor w 2019, który ma posłużyć ze 2-3 lata, to fajnie jakby chociaż miał ten podstawowy HDR400 żeby było widać różnicę, ten samsung właśnie nie pasuje mi pod względem designu ( brzydka podstawka, na ścianie nie będę wieszał ) i dodatkowo czytałem opinie, że w tej wersji 27 cali są jakieś problemy, których nie ma w tej większej, no ale własnie z tą 32 nie wiem czy rozdzielczość nie za mała i tutaj już by było odpowiednie 4k.

06.09.2019 20:35
A.l.e.X
104.4
A.l.e.X
128
Alekde

dlatego masz 14 dni na odesłanie sprzętu bez podawania przyczyn jeśli ci coś nie będzie odpowiadać, zamów sprawdź (nie niszcz pudełka), jak ci nie będzie pasował to odeślesz i jedyne co stracisz to czas na testy i 70 PLN za wysłanie przesyłki zabezpieczonej. To jest tak naprawdę najlepsza metoda przetestowania sprzętu. Jeśli chodzi o 32" to faktycznie przy 1440p jest już duży PP ale coś za coś na dużej matrycy łatwiej uzyskać większą ilość i utrzymać nitów, a ten konkretny samsung po aktualizacji oprogramowania ma peak szczytowy na poziomie 850cd/m2 czyli dużo powyżej 600 (bez aktualizacji 604), co sprawia że jest to nie tylko dobry monitor SDR co dobry monitor HDR. Ja bym jedna to właśnie nim się zainteresował : alternatywa to 4 krotnie droższe modele od Asusa i Acera.

06.09.2019 21:39
sir tajwan
104.5
sir tajwan
45
Pretorianin

Może faktycznie przetestować kilka wariantów i najwyżej odesłać, tylko najgorsze, że pieniądze "zamrożone", no zobaczę. Jeszcze zapytam odnośnie matrycy VA bo i ten Samsung i AOC taką posiadają, jak to jest z tym smużeniem obrazu i przechodzeniu w inne barwy, czy jest to uciążliwe tak jak to pisali o tych starych matrycach, czy teraz w tych nowszych z "wyższej" półki i z czasem reakcji 1ms jak np. ten samsung, już nie jest to tak uciążliwe/zauważalne podczas użytkowania?

06.09.2019 18:01
mgr. Kuba
105
odpowiedz
1 odpowiedź
mgr. Kuba
96
-
Image

Największa ciekawostka z tych moich podboi wobec HDR jest na załączonym obrazku.
Po prawej zdjęcie monitora z obrazem, czyli jak ja to widzę. Po lewej zrobiony zrzut ekranu, czyli jak widzi to windows. Zrobione w tym samym czasie. Pomijając fakt że obie strony wyglądają nie poprawnie to jednak, przede wszystkim chciałbym się zapytać, o co k... chodzi? :D

06.09.2019 20:27
A.l.e.X
105.1
A.l.e.X
128
Alekde

w jednym i drugim przypadku jest to przekłamane, bo jeśli zrobisz zdjęcie aparatem z HDRem obrazu z gry w HDR to nikt tego nie zobaczy na monitorze SDR tylko będzie widział niepoprawną kolorystykę (co najwyżej da się uchwycić pewne detale), W10 za to w przypadku robienie screenshota w HDR robi to jeśli nie używasz Nvidia Ansel screenshota w SDR czyli właściwie wygląda to mniej więcej jak po prawej stronie jaskrawo, brak detali itc. - wydaje się więc że oba screeny są poprawne w swoim założeniu

07.09.2019 01:00
Hydro2
106
odpowiedz
Hydro2
124
Legend

Alex, czytałeś 3 posty wyzej?

22.09.2019 16:32
sir tajwan
107
odpowiedz
3 odpowiedzi
sir tajwan
45
Pretorianin

Mam pytanie, zrezygnowałem na razie z wymiany monitora na jakiś obsługujący HDR, ale chciałem przetestować jakość obrazu z tą opcją w grach, i jako, że mam TV Oled z HDrem, a nie mam konsoli, to postanowiłem, że podłącze PC-ta pod telewizor i sprawdzę parę gier typu AC:O jak to wygląda i czy warto w przyszłości odłożyć na porządny monitor. Pytanie jakim kablem podłączyć, żeby ten HDR działał pomiędzy pc - tv w 4K. ? TV ma wejścia tylko HDMI, więc nie wiem czy wystarczy zwykły kabel HDMI 2.0 z dwoma końcówkami, czy pod kartę graficzną powinienien podpiąć kabel z końcówką DIsplay Port, a do TV wyjście HDMI ? Karta od czerwonych Vega 64, nie Nvidia

22.09.2019 20:34
A.l.e.X
107.1
A.l.e.X
128
Alekde

wystarczy jak podepniesz monitor za pomocą HDMI 2.0 -> ważne jest abyś miał W10 zaktualizowany do najnowszej kompilacji która obecnie to : kompilacja systemu 18362.356 / najlepsze gry do przetestowania to oczywiście Gears of War 5 gdzie przy wyborze abonamentu na 2 miesiące dostęp do niej masz za 4 PLN lub Shadow of the Tomb Raider, ale każda inna z HDR też wygląda świetnie listę gier masz tutaj :

https://pcgamingwiki.com/wiki/List_of_games_that_support_high_dynamic_range_display_(HDR)

22.09.2019 22:26
sir tajwan
107.2
sir tajwan
45
Pretorianin

Dzięki za odpowiedź, oczywiście miałeś na myśli żeby podpiąć TV, nie monitor za pomocą HDMI 2.0 ? :) Właśnie Gears 5 mam ściągnięty na xbox game pass, i trochę już pograłem na przeciętym monitorze, więc będę miał dobre porównanie.

23.09.2019 01:25
A.l.e.X
👍
107.3
A.l.e.X
128
Alekde
Image

tak miałem na myśli TV, jak włączysz G5 w HDR to będziesz zbierał szczękę z podłogi, każdy kto widzi Gears of War 5 w HDR nie może uwierzyć co udało się osiągnąć na UE4. Aby gra wykryła HDR musisz w windows go aktywować Ustawienia ekranu -> wyświetl gry i aplikacje w formacie HDR, w ustawieniach TV w konsoli AMD musisz ustawić na 4:2:2 dla 10bitów (możliwe że ustawi ci to automatycznie ale nie wiem jak jest w przypadku kart AMD, w przypadku NV ustawiasz to w zakładce Panel sterowania Nvidia zmiana rozdzielczości -> tam gdzie u mnie jest RGB u ciebie będzie w HDMI 2.0 YCbCr 4:2:2.

post wyedytowany przez A.l.e.X 2019-09-23 01:30:34
Forum: HDR – czyli trzy literki które wprowadziły największą zmianę w jakości wizualnej gier od wielu lat