HDMI czy DisplayPort - najlepsze złącze do monitora
Bardzo fajne podsumowanie. Mam tylko jedną uwagę odnośnie opisu standardu VGA - nie jest on tożsamy z D-SUB.
D-SUB to określenie na konkretny typ budowy wtyczki i gniazda definiujący parametry mechaniczne i elektryczne. Złącza D-SUB są powszechnie wykorzystywane do wielu różnych celów, m.in. do połączeń w różnych przemysłowych sieciach komunikacyjnych.
D-SUB przyjął się też jako najczęstszy sposób łączenia kart graficznych z monitorami w standardzie VGA, ale samo VGA może być i czasami jest z powodzeniem oparte o inny rodzaj złącz jak np. SCART czy nawet koncentryczne BNC.
Powinni zdecydować się na jeden wspólny standard wtyczki kompatybilnej w przód i jakieś sensowne numeracje kolejnych wersji.
Bo tych wtyczek i kabli robi się coraz więcej.
Nie pogardziłbym jakby absolutnie wszystko się łączyło ze wszystkim za pomocą USB-C :)
Rozumiem, że USB-C dotyczy ściśle tej małej symetrycznej wtyczki używanej do ładowania m. in. smartfonów. Czy to może zastąpić (i jakim cudem) dużo grubsze HDMI i DP, czy coś przeoczyłem?
DocHary --> USB-C potrafi nawet ładować laptopa i przesyłać obraz w wysokiej rozdzielczości :)
Warto korzystać z połączeń cyfrowych w monitorach LCD. Jeśli dobrze rozumiem, jest to domyślny tryb pracy monitorów LCD. Jest to odmienne od starych monitorów CRT, w których domyślnym trybem pracy był sygnał analogowy. Wtedy musiała nastąpić konwersja na karcie graficznej. Cyfrowy sygnał z karty musiał zostać przekonwertowany do analogowego, który rozumiał monitor. Stąd konieczny był taki, a nie inny standard przesyłania (VGA).
Przy używaniu połączenia VGA (analogowego) z monitorem cyfrowym (LCD) konwersja z tego co czytałem następuje w dwóch miejscach:
— na karcie graficznej (lub aktywnym adapterze) z bezstratnego sygnału cyfrowego do stratnego sygnału analogowego (tylko po to, aby móc go przesłać kablem...)
— na monitorze z powrotem z sygnału analogowego z kabla do cyfrowego (tylko po to, aby monitor był w stanie wyświetlić obraz...)
Plusem połączeń cyfrowych (HDMI, DVI-D, DisplayPort) jest brak konwersji i brak zniekształceń sygnału, które generuje konwersja oraz droga od karty przez kabel do monitora. A tym samym po prostu lepszy obraz, w dodatku bez konieczności jego finalnej manualnej korekty.
Najgorzej mają Ci, którzy mieli tego pecha zakupić monitor LCD, który posiada tylko wejście analogowe (widziałem sporo takich przypadków). Celowość umieszczania połączenia wyłącznie analogowego w monitorze cyfrowym, poza chyba maksymalnymi oszczędnościami na produkcji, wydaje mi się wątpliwa jak cnota panienki rankiem po wiejskim festynie.
Nie wiem czy pamiętasz takie czasy, ale większość monitorów LCD miało tylko złącze analogowe i trzeba było tak funkcjonować. Teraz takie przypadki dotyczą tylko najtańszych monitorów na rynku.
Dlatego kiedyś też był bardzo ważny kabel, wysokiej jakości i dość gruby analog aby przesyłany obraz był bez zakłóceń i degradacji.
Osobiście nie pamiętam, ale to ciekawa informacja. Nie używałem wczesnych monitorów LCD, moim pierwszym była iiyama z 2006, która miała DVI. Widziałem jeden starszy monitor EIZO, który miał tylko złącze analogowe. Być może wynikało to z faktu, że przy starcie monitorów LCD połączenia cyfrowe na kartach graficznych nie były jeszcze aż tak rozpowszechnione? Przeczytałem właśnie, że pierwsza karta konsumencka z wyjściem DVI to był GeForce 256, który pojawił się dopiero na przełomie 1999-2000.
Inaczej wygląda to w przypadku G-Sync od Nvidii. Tutaj konieczne jest podłączenie wyświetlacza do odpowiedniej karty graficznej od „zielonych” za pomocą gniazda DisplayPort.
oczywiście że to jest nieprawda
HDMI2.1. 3090RTX 4K 120Hz w HDR10 i G-Sync
co więcej przy HDMI2.0 i G-Sync też działał było tak do momentu kiedy nie dostałem karty serii 3xxx, a miałem 2x2080TI wtedy miałem ograniczoną paletę kolorów w 10bitach w 4:4:2 i 60Hz
wtedy miałem ograniczoną paletę kolorów w 10bitach w 4:4:2
Jak mocno to było widoczne? Podejrzewam, że w normalnym użytkowaniu niezbyt, dopiero na jakichś czcionkach w odpowiednim kolorze?
głównie czcionki na odpowiednik kolorze np. wariacje danego koloru przy normalnym użytkowaniu prawie niewidoczne. Niemniej pełna paleta daje obraz idealny a 120Hz w 10bit w 4K z G-Sync to po prostu kosmos. To był dla mnie najważniejszy powód zmiany serii 2xxx na 3xxx a nie różnica w wydajności sama w sobie.
I jaki monitor byś polecił do 4k? Nie gram w multi jakby co, ale chciałbym do spasować z 3080 (i liczyć na płynny obraz w 4k max ustawieniach).
Czyli jeśli mamy taki Odyssey G9 (5120x1440, 240 Hz), to do pełni jego możliwości potrzebny jest DP UHBR 13.5 / 20 lub HDMI 2.1.
PS: Nic nie wspomniano o HDR.
Nie jest prawdą, że hdmi nie obsługiwał ultrawide, ultrawide jak najbardziej działa na HDMI 1.4, w zasadzie protokół nie ma za wiele do tego jakie parametry możemy użyć.
Oni podają jakieś sztywne obsługiwane rozdzielczości, ale to tylko przykłady standardowe, hdmi nie limituje rozdzielczości do tych na liście, ani odświeżania, jest dostępna przepustowość i w tej przepustowości można sobie dowolnie wybierać parametry, byle się mieściło w limicie.
Jeżeli ktoś chce ustawić 1000x1000 przy 77hz to może i zadziała, w zasadzie to zależy tylko od tego na co pozwoli elektronika producenta, ale zazwyczaj nie ma odgórnych sztywnych limitów.
Moja karta graficzna ma wyjścia DP oraz HDMI. Monitor tak samo. Dlaczego więc obraz się nie wyświetla jeśli połączę przez DP, a tylko przez HDMI?
Zmieniałeś źródło w monitorze (za pomocą fizycznych przycisków na obudowie)? Domyślnie jest pewnie ustawione na HDMI.
Przydatny artykuł. Plus. :)
"...nie powinniśmy mieć problemu z brakiem pasujących złącz."
Kogo? Czego? - złączy
Oczywiście :) Znam odmianę, bo w innych miejscach jest złączy. Tu po prostu nie docisnąłem "y" na klawiaturze. Będzie poprawione.
EDIT: Znalazłem ten fragment i widzę, że to opis zdjęcia. Na swoją obronę mam to, że to konkretne podpisywał ktoś inny :D
HDMI ma podstawową wadę, pewnie da się ją obejść ale nawet nie starałem się tego robić i idąc po najmniejszej linii oporu i pracując używam standardowego D-Sub. HDMI przesyła nie tylko obraz ale i dźwięk. Niepożądany efekt jest taki, że np. przy połączeniach przez Teams'a z dodatkowym monitorem podłączonym przez HDMI cały dźwięk jest obsługiwany przez monitor więc głupi Windows oczekuje, że monitor ma też mikrofon a tu siurpryza, mikrofonu nie ma.