Forum Gry Hobby Sprzęt Rozmawiamy Archiwum Regulamin

Technologie HDMI czy DisplayPort - najlepsze złącze do monitora

27.10.2020 12:26
😍
1
4
mjmo
27
Pretorianin

Za obrazek z Mass Effecta szanuję, ciągle wierzę w remaster

27.10.2020 12:44
Didier z Rivii
2
2
odpowiedz
Didier z Rivii
238
life 4 sound

Bardzo fajne podsumowanie. Mam tylko jedną uwagę odnośnie opisu standardu VGA - nie jest on tożsamy z D-SUB.
D-SUB to określenie na konkretny typ budowy wtyczki i gniazda definiujący parametry mechaniczne i elektryczne. Złącza D-SUB są powszechnie wykorzystywane do wielu różnych celów, m.in. do połączeń w różnych przemysłowych sieciach komunikacyjnych.

D-SUB przyjął się też jako najczęstszy sposób łączenia kart graficznych z monitorami w standardzie VGA, ale samo VGA może być i czasami jest z powodzeniem oparte o inny rodzaj złącz jak np. SCART czy nawet koncentryczne BNC.

27.10.2020 13:03
👍
3
odpowiedz
wwad
115
Generał

Dobra robota :) Fajnie sobie tak przypomnieć jak to wszystko wygląda.

27.10.2020 13:10
keeper_4chan
4
odpowiedz
5 odpowiedzi
keeper_4chan
104
Generał

Powinni zdecydować się na jeden wspólny standard wtyczki kompatybilnej w przód i jakieś sensowne numeracje kolejnych wersji.

Bo tych wtyczek i kabli robi się coraz więcej.

27.10.2020 13:14
kaitso
4.1
2
kaitso
37
Generał

Nie pogardziłbym jakby absolutnie wszystko się łączyło ze wszystkim za pomocą USB-C :)

27.10.2020 13:26
DocHary
4.2
DocHary
64
Unclean One

Rozumiem, że USB-C dotyczy ściśle tej małej symetrycznej wtyczki używanej do ładowania m. in. smartfonów. Czy to może zastąpić (i jakim cudem) dużo grubsze HDMI i DP, czy coś przeoczyłem?

post wyedytowany przez DocHary 2020-10-27 13:27:01
27.10.2020 14:00
xanat0s
4.3
xanat0s
233
Wind of Change

DocHary --> USB-C potrafi nawet ładować laptopa i przesyłać obraz w wysokiej rozdzielczości :)

27.10.2020 17:26
BartekTenMagik
4.4
BartekTenMagik
65
World Owner

A i w tym samym momencie jeszcze obsługiwać ze 4 pendrive xD

28.10.2020 00:05
WolfDale
😉
4.5
WolfDale
74
Sztuczny Wytwór Forumowy

I chroni przed covidem.

27.10.2020 13:27
ReznoR666
5
odpowiedz
2 odpowiedzi
ReznoR666
48
Forgive me the 666

Warto korzystać z połączeń cyfrowych w monitorach LCD. Jeśli dobrze rozumiem, jest to domyślny tryb pracy monitorów LCD. Jest to odmienne od starych monitorów CRT, w których domyślnym trybem pracy był sygnał analogowy. Wtedy musiała nastąpić konwersja na karcie graficznej. Cyfrowy sygnał z karty musiał zostać przekonwertowany do analogowego, który rozumiał monitor. Stąd konieczny był taki, a nie inny standard przesyłania (VGA).

Przy używaniu połączenia VGA (analogowego) z monitorem cyfrowym (LCD) konwersja z tego co czytałem następuje w dwóch miejscach:
— na karcie graficznej (lub aktywnym adapterze) z bezstratnego sygnału cyfrowego do stratnego sygnału analogowego (tylko po to, aby móc go przesłać kablem...)
— na monitorze z powrotem z sygnału analogowego z kabla do cyfrowego (tylko po to, aby monitor był w stanie wyświetlić obraz...)

Plusem połączeń cyfrowych (HDMI, DVI-D, DisplayPort) jest brak konwersji i brak zniekształceń sygnału, które generuje konwersja oraz droga od karty przez kabel do monitora. A tym samym po prostu lepszy obraz, w dodatku bez konieczności jego finalnej manualnej korekty.

Najgorzej mają Ci, którzy mieli tego pecha zakupić monitor LCD, który posiada tylko wejście analogowe (widziałem sporo takich przypadków). Celowość umieszczania połączenia wyłącznie analogowego w monitorze cyfrowym, poza chyba maksymalnymi oszczędnościami na produkcji, wydaje mi się wątpliwa jak cnota panienki rankiem po wiejskim festynie.

post wyedytowany przez ReznoR666 2020-10-27 13:41:38
28.10.2020 00:11
WolfDale
😉
5.1
WolfDale
74
Sztuczny Wytwór Forumowy

Nie wiem czy pamiętasz takie czasy, ale większość monitorów LCD miało tylko złącze analogowe i trzeba było tak funkcjonować. Teraz takie przypadki dotyczą tylko najtańszych monitorów na rynku.

Dlatego kiedyś też był bardzo ważny kabel, wysokiej jakości i dość gruby analog aby przesyłany obraz był bez zakłóceń i degradacji.

28.10.2020 00:56
ReznoR666
5.2
ReznoR666
48
Forgive me the 666

Osobiście nie pamiętam, ale to ciekawa informacja. Nie używałem wczesnych monitorów LCD, moim pierwszym była iiyama z 2006, która miała DVI. Widziałem jeden starszy monitor EIZO, który miał tylko złącze analogowe. Być może wynikało to z faktu, że przy starcie monitorów LCD połączenia cyfrowe na kartach graficznych nie były jeszcze aż tak rozpowszechnione? Przeczytałem właśnie, że pierwsza karta konsumencka z wyjściem DVI to był GeForce 256, który pojawił się dopiero na przełomie 1999-2000.

27.10.2020 13:32
A.l.e.X
6
odpowiedz
3 odpowiedzi
A.l.e.X
153
Alekde

Premium VIP

Image

Inaczej wygląda to w przypadku G-Sync od Nvidii. Tutaj konieczne jest podłączenie wyświetlacza do odpowiedniej karty graficznej od „zielonych” za pomocą gniazda DisplayPort.

oczywiście że to jest nieprawda

HDMI2.1. 3090RTX 4K 120Hz w HDR10 i G-Sync

co więcej przy HDMI2.0 i G-Sync też działał było tak do momentu kiedy nie dostałem karty serii 3xxx, a miałem 2x2080TI wtedy miałem ograniczoną paletę kolorów w 10bitach w 4:4:2 i 60Hz

27.10.2020 13:40
ReznoR666
6.1
ReznoR666
48
Forgive me the 666

wtedy miałem ograniczoną paletę kolorów w 10bitach w 4:4:2
Jak mocno to było widoczne? Podejrzewam, że w normalnym użytkowaniu niezbyt, dopiero na jakichś czcionkach w odpowiednim kolorze?

27.10.2020 13:47
A.l.e.X
6.2
A.l.e.X
153
Alekde

Premium VIP

głównie czcionki na odpowiednik kolorze np. wariacje danego koloru przy normalnym użytkowaniu prawie niewidoczne. Niemniej pełna paleta daje obraz idealny a 120Hz w 10bit w 4K z G-Sync to po prostu kosmos. To był dla mnie najważniejszy powód zmiany serii 2xxx na 3xxx a nie różnica w wydajności sama w sobie.

14.11.2020 16:23
Cainoor
6.3
Cainoor
264
Mów mi wuju

A.l.e.X pytanko - niestety mój TV (KD-65X8505C) wspiera 4k w max 60Hz i tylko w trybie YCbCr 4:2:0 / 8bit. Rozumiem, że nie jest to RGB (4:4:4) / 10bit, ale mimo wszystko chyba warto tak grać, niż w 1080, zgadza się?

I jaki monitor byś polecił do 4k? Nie gram w multi jakby co, ale chciałbym do spasować z 3080 (i liczyć na płynny obraz w 4k max ustawieniach).

post wyedytowany przez Cainoor 2020-11-14 16:23:32
27.10.2020 14:04
DocHary
7
odpowiedz
DocHary
64
Unclean One

Czyli jeśli mamy taki Odyssey G9 (5120x1440, 240 Hz), to do pełni jego możliwości potrzebny jest DP UHBR 13.5 / 20 lub HDMI 2.1.

PS: Nic nie wspomniano o HDR.

post wyedytowany przez DocHary 2020-10-27 14:05:12
27.10.2020 14:21
Szefoxxx
8
odpowiedz
Szefoxxx
75
Doradca

Nie jest prawdą, że hdmi nie obsługiwał ultrawide, ultrawide jak najbardziej działa na HDMI 1.4, w zasadzie protokół nie ma za wiele do tego jakie parametry możemy użyć.

Oni podają jakieś sztywne obsługiwane rozdzielczości, ale to tylko przykłady standardowe, hdmi nie limituje rozdzielczości do tych na liście, ani odświeżania, jest dostępna przepustowość i w tej przepustowości można sobie dowolnie wybierać parametry, byle się mieściło w limicie.

Jeżeli ktoś chce ustawić 1000x1000 przy 77hz to może i zadziała, w zasadzie to zależy tylko od tego na co pozwoli elektronika producenta, ale zazwyczaj nie ma odgórnych sztywnych limitów.

27.10.2020 17:23
Ragn'or
9
odpowiedz
3 odpowiedzi
Ragn'or
224
MuremZaPolskimMundurem

Moja karta graficzna ma wyjścia DP oraz HDMI. Monitor tak samo. Dlaczego więc obraz się nie wyświetla jeśli połączę przez DP, a tylko przez HDMI?

27.10.2020 17:36
rassi
9.1
rassi
38
Centurion

GRYOnline.plTeam

Zmieniałeś źródło w monitorze (za pomocą fizycznych przycisków na obudowie)? Domyślnie jest pewnie ustawione na HDMI.

post wyedytowany przez rassi 2020-10-27 17:37:55
27.10.2020 17:39
Ragn'or
9.2
Ragn'or
224
MuremZaPolskimMundurem

Tak, zmieniałem na DP jak było podłączone DP.

27.10.2020 17:58
rassi
9.3
rassi
38
Centurion

GRYOnline.plTeam

Próbowałeś z co najmniej dwoma przewodami DP? Są 19-pinowe i 20-pinowe. Do łączenia monitora z kartą musisz mieć ten pierwszy.

post wyedytowany przez rassi 2020-10-27 18:02:57
27.10.2020 18:03
👍
10
odpowiedz
zanonimizowany1299868
16
Senator

Przydatny artykuł. Plus. :)

27.10.2020 18:52
Miodowy
11
odpowiedz
2 odpowiedzi
Miodowy
90
Nigdy nie był młody

"...nie powinniśmy mieć problemu z brakiem pasujących złącz."
Kogo? Czego? - złączy

27.10.2020 19:46
rassi
👍
11.1
rassi
38
Centurion

GRYOnline.plTeam

Oczywiście :) Znam odmianę, bo w innych miejscach jest złączy. Tu po prostu nie docisnąłem "y" na klawiaturze. Będzie poprawione.

EDIT: Znalazłem ten fragment i widzę, że to opis zdjęcia. Na swoją obronę mam to, że to konkretne podpisywał ktoś inny :D

post wyedytowany przez rassi 2020-10-27 19:48:30
27.10.2020 19:52
Miodowy
11.2
Miodowy
90
Nigdy nie był młody

rassi Wybaczam... ale ten drugi ma minusa ;)

05.11.2020 21:34
12
odpowiedz
XR4x4
21
Chorąży

HDMI ma podstawową wadę, pewnie da się ją obejść ale nawet nie starałem się tego robić i idąc po najmniejszej linii oporu i pracując używam standardowego D-Sub. HDMI przesyła nie tylko obraz ale i dźwięk. Niepożądany efekt jest taki, że np. przy połączeniach przez Teams'a z dodatkowym monitorem podłączonym przez HDMI cały dźwięk jest obsługiwany przez monitor więc głupi Windows oczekuje, że monitor ma też mikrofon a tu siurpryza, mikrofonu nie ma.

Technologie HDMI czy DisplayPort - najlepsze złącze do monitora