Ludzkie oko nie widzi 4K
POLSKI CARL SAGAN
hehehe
PS Materiał profesjonalnie i przyjemnie w odbiorze zrobiony. Brawo!
Porządnie przygotowany i merytoryczny materiał. Oby jak najwięcej takich!
Gdy będziesz robił materiał o HDR wyjaśnij nam czym się różni HDR osiągane w najnowszych telewizorach i nowych rewizjach konsol od HDRu programowego, który zawitał do gier mniej więcej w 2004 roku w bodajże łatce do FarCry. W takim Oblivionie różnicę widać było od razu. Wspierały go też konsole od poprzedniej generacji.
Powiedz też nam coś o telewizorach, bo nie wszystkie z 4K obsługują HDR.
A to proste i odpowiedź jest w twoim pytaniu "HDRu programowego", ten jest sprzętowy, nie dosyć, że te matryce są 10 bit, a więc 1024 poziomy koloru, a nie 256, to jeszcze mają wysoką jasność 1000 nitów+, co oznacza, że słońce na ekranie będzie mogło cię w końcu oślepić tak jak na serio to robi, z uwagi na akomodację oka.
Tym jest HDR, możliwość osiągnięcia szybko dużej różnicy w zakresie jasności.
Programowy co najwyżej robi dwa obrazy, mało cienia, dużo cienia, robi mix średni i wypada to lepiej, aparaty też mają funkcje hdr, która tak działa, robisz 2 fotki => łączy ci w jedną, światłocienie są o wiele lepsze wtedy.
HDR to nie tylko większa liczba bitów na kolor, ale też przywiązanie do nowych przestrzeni kolorów (a więc brył, a nie płaskich siatek, jak to zazwyczaj jest przedstawiane). Przestrzeń ta (Rec. 2100) dąży do podobnego pokrycia co Adobe Wide Gamut RGB i jest wyraźnie większa od tego, co widzimy teraz na naszych ekranach (czyli sRGB).
Tutaj możesz sobie co nieco poczytać i jest to napisane prostym, zrozumiałym dla laika językiem:
http://www.eurogamer.pl/articles/2016-07-08-czym-jest-hdr-i-co-zaoferuje-graczom
Raiden
Masło maślane, to 10bit jest powodem większych przestrzeni, co oczywiste skoro zwiększa ilość odcieni koloru do 1024, 10 bit nie jest konieczne do HDR, głównie wysoka jasność, ale razem jest jeszcze lepiej, a tak się złożyło, że wchodzą te opcje na raz, no i dobrze, HEVC też wymaga, aby jednak już było te 10bit, więc wszystko się fajnie złożyło na raz.
kaszanka9
Czemu masło maślane? Przecież rozróżniamy pojęcia głębi kolorów i przestrzeni kolorów. O ile większa głębia zawsze oznacza szerszy zakres kolorów, to zakres ten będzie zawsze częścią danej przestrzeni.
Żeby nie było nieporozumień - pisząc posta dotyczącego HDR maiłem na myśli to, że w HDR dąży się do nowych przestrzeni, opartych na innych modelach (grupach przestrzeni, tworzonych w określony sposób), co sprawia, że obraz HDR wygląda inaczej.
Kacper zrobisz kiedyś materiał o Manhuncie?
Kacper, przechodzisz samego siebie w tych materiałach!
Swoją drogą dzięki Kacper, tak się składa że mój tato zastanawia się czy kupić telewizor 4K, muszę mu pokazać ten materiał ;)
cholera Kacper, jak sobie przypominam Twoje początki w tvgry, a potem patrze na ten materiał to kuuurde... Wielki postęp :D Wtedy myślałem tylko "co to za młokos", a teraz nie dość, że się wyrobiłeś to dostarczasz kupe świetnego okołogrowego contentu ;) Świetnie się ogląda te Twoje filmy, wielki szacun!
Kacper, robisz naprawde swietna robote jezeli chodzi o technikalia w tvgry. Sam siedze w temacie i szczerze brakuje mi w polskich mediach growych, kogos, kto dla masy, potrafilby przekazac te cenne jakby nie patrzec informacje.
Tak z ciekawosci, sledzisz digitalfoundry, badz nx gamera na YT? Co Cie inspiruje do tego? Czy moze masz misje na celu uswiadomienia cebulakom z czym co sie je? Oby nie zabraklo Ci wytrwalosci. Pozdrawiam i prosze o wiecej.
Wszystko super i fajnie, tylko poza teoriami warto sprawdzić samemu na czym polega różnica w praktyce. Dla mnie optymalną odległością od monitora jest ok. 45-50cm i tak korzystałem ze wszystkich jakie miałem. Wartość PP to jedno co definiuje ostrość obrazu, ale także ilość pikseli z których jest zbudowany dany obiekt na danej powierzchni ekranu. Wystarczy postawić obok siebie dla testu monitory 1080p/1440p/1600/2160p o tej samej przekątnej zasłaniając loga i oznaczenia i gwarantuje że każdy kto nie ma wady wzroku poza skalą dokładnie wskaże który prezentuje najlepsza jakość i pokazuje najbardziej szczegółowy obraz. To jest przepaść. Oczywiście jeśli oddalimy się na odległość kilku metrów wtedy dla naszego wzroku powierzchnie się zleją z sobą i w pewnej odległości różnica stanie się pomijalna. Niemniej jeśli ktoś korzysta z monitora w sposób do tego przeznaczony odległości 40-60cm wtedy powinien kierować się mniej więcej taką wartością limitową
1080p do maksymalnie 24" co daje 91.79 PPI / i wielkość plamki 0,27mm (dość duża), powyżej już nie do przyjęcia
1440p do maksymalnie 27" co daje 108,79 PPI / wielkość plami 0,23mm (już nieźle)
1600p do maksymalnie 30" co daje 100,63 PPI / wielkość plami 0,25mm (spora)
2160p do maksymalnie 40" co daje 110,15 PPI / wielkość plami 0,23mm (już nieźle)
z ciekawości sprawdziłem jak się sprawuje
27" monitor 5K z rozdzielczością 5120x2880 co dało 217,57 PPI / wielkość plami 0.11mm (praktycznie nie do zobaczenia)
Gdyby nie wielkość i gdy pojawi się taki sam w 40" to kupię natychmiast (niestety nie ma) ;(, różnica jest także widoczna nawet przy takim zagęszczeniu. Prawdopodobnie limitem będzie dopiero 300 PPI gdzie zwiększanie tej wartości nie będzie przekładało się już tak drastycznie na jakość obrazu. Tak samo jak wszystko poniżej 0.09 dot pitch. Oczywiście przy odległości pracy monitorowej.
wyjście poza tę wartości o których napisałem wyżej nie ma sensu, z mojego pkt widzenia monitor 1080p nie powinien mieć więcej niż 21-22 cale, wszystko inne jest wartościami tragicznymi. Czemu gramy na konsolach w 1080p i cieszymy się, odległość sprawia że widzimy tylko duże powierzchnie praktycznie limitowane detalami, dlatego gry konsolowe w dużej mierze jakość obrazu opierają na wyglądzie powierzchniowym. Nawet Uncharted 4 wygląda tragicznie jeśli postanowimy grać w niego przy odległości 50cm, za to grając w odległości 3-4m widzimy piękne efektu budowane na powierzchniach.
Teraz jeszcze odnoście szybkości odświeżania, możecie zrobić szybki test włączyć szybką grę np. shooter sieciowy i najpierw grać na monitorze 60Hz, potem przejść na 120Hz, a potem na 144Hz i następnie schodzić 144Hz na 120hz i na 60Hz - każdy jeśli nie ma zapalenia opon mózgowych i wady wzroku dokładnie wskaże na którym uzyskał najlepszą precyzje, taka ciekawostka / więc poza teorią jest też praktyka i najlepiej zawsze sprawdzić samemu.
Kto kiedykolwiek przesiadł się na 4K, G-sync, czy 144Hz monitor nigdy nie wróci do starszych rozwiązań, ale zawsze znajdą się tacy którzy napiszą że nie widzą różnicy, nie widzą bo nigdy nie mieli okazji jej zobaczyć w praktyce. Na szczęście ceny monitorów spadają więc prędzej czy później 4K będzie standardem w domu u każdego.
Dla mnie optymalną odległością od monitora jest ok. 45-50cm i tak korzystałem ze wszystkich jakie miałem.
Optymalną odległością jest taka przy której nie widać pikseli, wtedy obraz jest ostry, to, że dla ciebie to 50 cm nie znaczy, że dla kogoś innego tak jest.
Odległość to się dobiera do parametrów ekranu, a nie ekran do odległości. Podajesz przykładowo 40-60cm, to za duży rozstrzał skoro 5cm robi różnicę.
Tym samym twoja tabelka mało znaczy, możesz i mieć tv 40 cali 1080p i będzie bardzo dobrze wyglądać bez żadnych pikseli, tylko nie przy 50 cm, a przy 70 cm, przynajmniej ja tak organoleptycznie sprawdziłem.
Ale kto by siedział 50 cm od 40 cali ekranu? Chyba tylko jakiś masochista, bo fizyczny rozmiar takiego ekranu z 50cm przeszkadza ogarnąć wzrokiem cały obszar, to za duży kąt rozpiętości trzeba ruszać gałami.
Toteż jak ktoś chce koniecznie siedzieć bliżej i nie mieć pikseli na dużym ekranie np. 40 cali to musi mieć albo monitor 2k albo tv 4k, bo w tv nie robi się 2k.
No, ale z uwagi na rozmiar, 50cm przy 40 cali to masochizm.
A co do hz to nie jest to, że ludzie nie widzą, wszyscy bardzo dobrze widzą, tylko ta różnica nie jest dla nich warta dopłaty do monitora/tv, zwłaszcza, że na większości ekranów i tak zadziała co najmniej 75 hz, a często udaje się dojść do 80, 90 czy nawet 100 hz, więc różnica mocno topnieje.
Za to gsync, adaptive sync, mają mały sens, i tak zawsze najlepszy był i będzie vsync, który akurat dzięki 144hz działa obecnie lepiej niż kiedykolwiek.
[12] Z częstotliwością odświeżania masz racje. Grając na 50Hz i zagraniu na 200Hz różnica była dla mnie kolosalna. Jak by porostu wszystko przyspieszylo.
kaszanka moim zdaniem większość osób siedzi przy ok. 50cm od ekranu i dot pitch ma kolosalne znaczenie dla widoczności lub nie pikseli wszystko powyżej 0.25 raczej bym nie chciał mieć. Nikt też nie napisał jedne rzeczy czym więcej pikseli tym bardziej precyzyjne detale ja po przejściu z 1080 na 1440 miałem takie jebnięcie w głowę że dostałem ślinotoku, niestety do 4K nie ma kasy na komputer, a raczej na karty to zabawa już dla tych którzy mogą na skrzynkę wydać grubo ponad 10 kafli. Zazdroszczę tym którzy już grają w 4K rozdzielczości.
""A co do hz to nie jest to, że ludzie nie widzą, wszyscy bardzo dobrze widzą, tylko ta różnica nie jest dla nich warta dopłaty do monitora/tv, zwłaszcza, że na większości ekranów i tak zadziała co najmniej 75 hz, a często udaje się dojść do 80, 90 czy nawet 100 hz, więc różnica mocno topnieje.""
Co? :D jakie wierutne bzdury.
każdy monitor jest predefiniowany do x Hz.
nie ma tak że jesli ten ma do X to i tak da rade dociągnąć do XN albo XM.
Kiedy przesiadłem się na mój pierwszy LCD z 1024 pomyślałem sobie coś w stylu "łał, więcej nigdy mi nie będzie potrzebne - bajka i optimum". Potem wzruszałem ramionami słysząc o co raz to nowych, wyższych rozdzielczościach. Ale koniec końców wylądowałem przed Full HD. I pomyślałem to samo. I tak samo wzruszyłem ramionami na pierwszą wzmiankę o 4K. Tyle tylko, że mój następny monitor zapewne 4K będzie.
Są i wady - wymagana moc obliczeniowa (a więc i całościowe zużycie prądu przez PC) oraz wygląd filmów w formacie DVD na Full HD czy Full HD na 4K oglądanych pełnoekranowo.
Ale ja nie o tym. Nauki widzę dwie:
1. To prawda, że kto się raz przesiądzie, nie chce wracać. Ale dopóki się nie przesiądzie, bywa zadowolony z tego, co ma.
2. Gdy się przesiądzie, z początku jest bardziej zadowolony, ale z czasem różnica mu powszednieje i nowa jakość staje się przeciętnością, standardem, a zadowolenie z jej powodu równa do dawnych poziomów. Co nie znaczy, że regres staje się jakąś opcją. Powrotu nie ma.
Podobny efekt występuje przy poprawie jakości dźwięku (karta dźwiękowa/jakość słuchawek/głośników/nagrań). I przy coraz to nowszych, lepszych grach przy których, o dziwo, człek nie umie się już bawić tak dobrze, jak bawił się kiedyś przy głupim Scorched Earth czy innym Pongu. Ale tak samo - powrotu nie ma, a nostalgia to zdradziecka bicz. Itp. itd.
Pokrewna sprawa - jaka przekątna monitora PC jest optimum dla gracza/filmów z bliska oglądacza, a jaka to już szkodliwa przesada? Tzn. ile są w stanie efektywnie ogarnąć na raz oczy z tego pół metra i czy to jest właściwe kryterium?
Tyle, że akurat w przypadku gier/filmów/płyt/książek bez problemu można znaleźć starocie, które świeżynkami wycierają podłogę.
Z tą technologią to też nie do końca jest tak, że nowsze znaczy lepsze. Kupiłem ostatnio dosłownie za grosze porządny telewizor CRT, co by zaległości na ps2 nadrabiać i może rozdzielczość nie urywa tyłka, ale kontrast, odwzorowanie kolorów, zerowy input lag i parę innych parameteów jest takich, że plazmy za grube tysiące mogą się tylko zwinąć w kłębek i cicho płakać. Tylko jest ciężki i duży. Znaczące przy ograniczonej przestrzeni, więc płaskie się spopularyzowały, ale wielu profesjonalistów (fotografowie, goście od efektów specjalnych) zostało przy kineskopach, bo płaskie ekrany nie zaspokajają ich potrzeb. Nie znam się na tym, ale ciekawe, czy gdyby kineskopy dalej rozwijać, to czy by teraz nie były porównywalne do dowolnego płaskiego ekranu także pod względem rozdzielczości i ergonomii (były 32" full hd, ale ważyły swoje).
Albo weźmy przykład nowego iphona. Nie ma jacka, bo jack jest analogowy, ma 50 lat, a więc jest przestarzały. Ale argumentów, co ligthning robi lepiej (poza ładowaniem oczywiście) jakoś na konferencji Apple nie było. Telefon będzie cieńszy. Osz ty w cara... Czyli zamiast 7 mm będzie miał 5. A że ludzie od LAT narzekają na akumulatory w smartfonach? Who cares. Wywalmy jacka - ot. Postęp.
Nie chcę tu twierdzić, że postęp techniczny jest zły, albo że tak naprawdę go nie ma.
Twierdzę natomiast, że korporacje technologiczne to molochy, które nie mogąc się przyznać do błędów, potrafią uparcie promować nowe rozwiązania, które nie koniecznie są lepsze od starszych, ale że kasa wydana na dział R&D musi się zwrócić, to produkty nie raz faktycznie dobre, ale tylko dobre wciska się jako prawdziwe rewolucje i gamechangery. A jak ktoś coś pokaże inni zrzynają i tak to się kręci.
4k wygląda owszem lepiej, ale filmy kinowe kręci się ponoć w rozdzielczości 2k (czyli Bluray 4k też ma upscallowany obraz), telewizje nadają max w Full HD, bo przepustowość przekaźników jest ograniczona, więc contentu na te 4k, o ile nie jest się pecetowym graczem z drogim kompem (czyli dość niszowy target w I świecie) za bardzo nie ma.
Ok. 4k stanie się za jakiś czas standardem. Ale na razie nim jeszcze nie jest. I każdy, kto twierdzi inaczej, daje się łapać na marketing. Co nie oznacza, że nie widać różnicy, i jak ktoś chce, to czemu sobie nie kupić? Tylko jak zwykle podstawowe pytanie powinno brzmieć - po co?
Tyle, że akurat w przypadku gier/filmów/płyt/książek bez problemu można znaleźć starocie, które świeżynkami wycierają podłogę.
Ponadczasowość wymienionych jest wszakże różna. Bodaj statystycznie największa dla muzyki. Duża w przypadku książek - starzeją się nie prędzej, niż język, którymi są spisane i tematyka w nich poruszona. Niektóre są uznawane za ponadczasowe, ale to nie znaczy, że współczesny czytelnik czerpie z ich lektury dokładnie to samo (np. tę samą przyjemność), co ówczesny.
Filmy, a zwłaszcza gry - no tu już znacznie gorzej. Tak, jak mówię - nostalgia to zdradziecka bicz jest. Wciąż pamiętamy, że przy danej grze bawiliśmy się o wiele lepiej niż przy obecnych hitach, choć owe hity technologicznie, ergonomią GUI a często nawet i gameplayowo wycierają antenatem podłogę, ściany i sufit. Ale cóż z tego. To może kwestia indywidualna, ale oswoiwszy się ze współczesnymi standardami audiowizualnymi nie umiem się już cieszyć starociem tak, jak bym się nim cieszył, gdy był nowością. A tym bardziej starociem, który już wówczas ograłem do bólu. Wiem, bo próbowałem kilkakrotnie wracać (Fallouty, BG, Torment, MoO2...). Za każdym razem porażka. Zmieniłem się. Lata grania zmieniły mi postrzeganie, bagaż doświadczeń rzutuje na odbiór nowości. A ogólne zblazowanie wyniosło poprzeczkę w kosmos. Ja już nie mogę patrzeć bez awersji na pikselozę i inne modne ostatnio retro jak 2D sidescrolle. A przecież kiedyś jarałem się tym jak głupi, co obecnie już się po prostu nie zdarza.
4K to maks. Jezus na więcej nie pozwoli.
Nostalgia to bicz, fakt. Ale teraz odpalam często jakiś stary klasyk, który mnie ominął i szczęka mi opada na zasadzie "oni wtedy tak dali radę?"
Outcast z 1999 na przykład.
A 2d jak dobre, to dobre. Mark of ninja polecam.
Metroid Fusion i Zero Mission.
Dooma w zeszłym roku po raz pierwszy przeszedłem :) I nie zmuszałem się.
Muszę Ocarina of time też w końcu zrobić.
Dokładnie jak mówi Rydygier, jestem zadowolonu ze swojego ekranu full hd i chciałbym za wszelką cenę uniknąć przesiadki na 4k żeby nie doświadczyć jego zajebistości.
W dobie słabych optymalozacji i w czasach gdy granie stało się na prawdę drogie nie czas na czterokrotne zwiększenie rozdzielczości co jeszcze dodatkowo pogłębi problem, nie wiem skąd takie parcie.
A co do nostalgii, żałuję że nie doświadczyłem tych wszystkich falloutów, baldurów i planescapów, ale już za późno niestety, przynajmniej na kotora się załapałem.
Są i wady - wymagana moc obliczeniowa (a więc i całościowe zużycie prądu przez PC)
Ta, jak kogoś stać na kompa ciągnącego gierki w 4K to z pewnością przejmuje się rachunkiem za prąd ;)
Ha, różne życie zna przypadki. Może ktoś długo oszczędzał lub miał jednorazowy zastrzyk kasy czy też dostał ekstra kompa w prezencie, ale regularne dochody ma niziutkie, na styk lub w ogóle regularnych nie ma. Takiemu wyższy rachunek za prąd może zrobić różnicę.
Ale tak, jak napisano - 4k będzie normą, ale na teraz nie ma co się jakoś specjalnie spieszyć. Full HD wydaje mi się na teraz w pełni satysfakcjonujące, a o pełnię satysfakcji przecież chodzi.
Świetny materiał! Aż, w oczekiwaniu na kolejną część, zrobię sobie maraton poprzednich "dekonstruktorów". Super sprawa.
Pamiętam wszystkie nowości techniczne w świecie gier, które poprawiały wrażenia na przykład wizualne, ale na jakiś czas hamowały rozwój gier. To znaczy, gdy pojawiały się te cholerne pixel-shadery w kartach, to przez jakiś czas niektóre gry robiono tylko po to, aby pokazać, że coś w ogóle wygląda fajnie na nowym sprzęcie. Tak powstawały lokomotywy dla poszczególnych platform. Czy ktoś jeszcze pamięta "Motor Storm" na premierę PlayStation 3?
Tak samo jest teraz. Studia łapią nowe technologie i zamiast robić porządne gry, w których liczy się gameplay, to czarują nową technologią i pokazują, że ruchomy obraz może wyglądać cudownie.
Kluczowe znaczenie ma niestety sprzęt, z jakiego korzystamy. Kiedy uruchomiłem "The Last of Us" na PlayStation 4, byłem w szoku. Wyższa rozdzielczość, więcej klatek na sekundę i ogólnie lepsze wrażenia. Kiedy jednak wymieniłem Samsunga ile tam cali na większy curved, który ma wszystko, co się da w HD i tak dalej, przeżyłem jeszcze większy szok. Odświeżanie jeszcze szybsze, rozdzielczość obrazu czyniła z gier jeszcze większe cacka.
Odswiezanie matrycy przy konsoli to drugorzedna sprawa, bo gry nie maja wiecej niz 60fps.
Try harder.
jak ktoś nosi gogle na nosie to nie obchodzi go czy obraz jest sd , hd , full hd czy 4k :D dla niego to bez różnicy, nawet antyaliasingu w grach nie potrzebuje heh
Możliwe, że dość gwałtownie przerwałem temat 4K i dla niektórych przesłanie materiału może się wydawać niejasne.
Więc jeszcze raz:
Ludzkie oko jest w stanie zobaczyć 4K, ale tylko przy odpowiedniej wielkości ekranu i odległości od niego.
1080p na monitorze 19 calowym daje nam gęstość 115 PPI. To tyle, ile człowiek o wizji 6/6 jest w stanie zobaczyć z odległości 75 cm. To oznacza, że w tym konkretnym przypadku podwyższenie rozdzielczości będzie minimalnie widoczne, jeśli w ogóle. Przeciętne oko nie dostrzeże 4K, dopóki człowiek nie zbliży się do monitora.
Z kolei, przy zachowaniu tej samej odległości, im większy monitor, tym większą widzimy różnicę. 1080p i 28 cali daje 78 PPI, więc wciąż jest możliwość poprawy poprzez zwiększenie rozdzielczości. Chociaż w tym wypadku rozsądniejsze wydawałoby się np. 1440p, a nie od razu 4K. Szczególnie biorąc pod uwagę wydajność. :)
Pamiętajcie: widzicie tylko tyle, ile jesteście w stanie zobaczyć z konkretnej odległości! Jeśli jesteście metr przed ekranem, to monitor 4K o przekątnej 24 cale jest przesadą. Tylko ludzie o sokolim wzroku zobaczą w tej konfiguracji przewagę nad 1440p (no chyba, że zbliżycie się na 60 cm do ekranu).
Bo to, proszę Księdza, jest tak, jak napisałem. Jak miałem gorszy monitor, to nie działo się nic, a jak kupiłem dużego Samsunga HD z zakrzywionym monitorem, to od razu zobaczyłem, że niektóre gry wyglądają i działają płynniej.
Jeszcze poprawka na to że 300 DPI w druku jest standardem dla materiałów oglądanych z bliska (ulotki, plakaty itp). Przy materiałach większych niż standardowe formaty papieru stosunek DPI obniża się wraz z rozmiarem. Czynnikiem pierwszym jest to o czym mówiłeś. Przy wydruku banneru 10 x 10 m, piksele (DPI schodzi nawet do 30) to wielkie kropy oddalone od siebie w zależności od projektu. Z bliska jest to zauważalne z większej odległości ludzki oko, a co za tym idzie mózg, odpowiednio to interpretuje w jednolity obraz. Dodatkowo dochodzą ograniczenia techniczne oraz to, że nikt nie znajdzie materiałów w takiej rozdzielczości by mógł je przygotować pod taki format w 300 DPI. ;)
Podsumowując to z tematem czyli wyświetlaczami. Można mieć TV 60" z FHD jednak odległość w stosunku do takiego samego TV ale z 4K musi być większa. Przy mniejszych ekranach mija się to z celem, patrz smartfony 5" z rozdzielczościami większymi niż FHD. Dopóki nie będzie to rzutowało na cenę tego sprzętu to ok, jeżeli w grę wchodzi dopłacanie to jest to marnotrawstwo pieniędzy.
"Z kolei, przy zachowaniu tej samej odległości, im większy monitor, tym większą widzimy różnicę. 1080p i 28 cali daje 78 PPI, więc wciąż jest możliwość poprawy poprzez zwiększenie rozdzielczości. Chociaż w tym wypadku rozsądniejsze wydawałoby się np. 1440p, a nie od razu 4K. Szczególnie biorąc pod uwagę wydajność. :)"
Yep. Posiadam monitor 22" 1080p oraz tablet 28" 1440p. Podbicie rozdzielczości miało na celu tylko zatarcie granicy w gęstości pikseli bo z obu sprzętów korzystam z bliskich odległości (chodź przy tablecie wychodzi nawet bliżej)
Kacper przeszedł samego siebie. Brawa za profeskę :) ; ale żeby tak od razu spławić Heda ? Nie ładnie :P Prawie dobrze mówił :E
Jesper - optymalna jest okolica 110-130 PPI, ale nadal pominąłeś wielkość piksela, oczywiście można sprytnie manipulować odległością, ale zakładając że przy monitorze gramy w odległości 45-50cm to wszystko powyżej 0,25mm jest całkowicie nieakceptowalne. Zresztą tak samo jak schodzenie poniżej 100 PPI.
1080p i 28" jako monitor to jest masochizm, ale oczywiście zawsze można powiedzieć że z odległości 2 metrów obraz jest doskonały bo widzimy już tylko same powierzchnie, a nie detale na nich.
Niemiec66 - nie tylko miało przede wszystkim na celu zmniejszenie także wielkości piksela przez to obraz wydaje ci się dużo lepszy.
Masz pierwszy lepszy link porównawczy na tej samej sceny
https://www.youtube.com/watch?v=BN4e82qLc7g
https://www.youtube.com/watch?v=0NA2uwXdH3I
Niemiec66 - nie tylko miało przede wszystkim na celu zmniejszenie także wielkości piksela przez to obraz wydaje ci się dużo lepszy.
Przy dwóch takich samych przekątnych wyświetlacza oczywistym jest ze zmniejsza się piksel oraz czarna plamka wraz z podbijaniem fizycznej ilości pikseli. Przy korelacji 22" 1080p, a 28" 1440p dodatkowe piksele wypełniły (teoretycznie) tylko lukę w rozmiarze (fizycznej wielkości matrycy). Obraz miał nie odbiegać od stosunku odległości z rozmiarem ekranu. Jeżeli wypuszczą tablety 28" z rewizją v2 w np 4K wtedy będziemy mogli mówić o podbiciu w celu jeszcze lepszej gęstości i ostrości obrazu. Taki przykład mam przy swoim CintiQ 13HD, gdzie przekątna to 13" a rozdzielczość 1080p a wersje przenośne mają własnie 1440p w stosunku do pierwotnej wersji.
ciekawa teoria prawie tak dobra i ciekawa jak teorie spiskowe. na wstepie ktory jest zakonczeniem, ta teoria od razu sie sypie nawet na prostych syntetycznych testach. masz to zreszta przed oczyma, ty jestes w stanie to zobaczyc i rozpoznajesz co dany syntetyk przedstawia czyli jednak jestes w stanie zauwazyc roznice. ta teoria laduje w koszu na smiecie zupelnych absurdow. gapienie sie w piksel nic nie daje, ludzkie oko i ludzki mozg ma wlasciwosci ktorych *genialni specjalisci* nawet nie posadzaja.
Świetny i ciekawy materiał! Bardzo dziękuję! Kacper, życzę Ci powodzenia w przygotowanie więcej takich materiały! :)
Jak zwykle świetny materiał za pomocą którego umiesz wyjaśnić pozornie skomplikowane rzeczy! Dobra robota!
I tu mała niespodzianka. W 2013 roku na targach NAB (najważniejsze światowe targi branży telewizyjnej i filmowej) japoński profesor, którego nazwiska już kompletnie nie pamiętam a dokumentacji z "wykładu" tez nie mogę znaleźć - trochę dawno to było, przedstawił swój eksperyment dot tego jaką rozdzielczość rozróżnia ludzkie oko. Zbudował coś na kształt wielkiego pokoju z lustrami (chodziło o zamaskowanie efektu trójwymiarowości widzianego "normalnie" przez ludzkie oczy), gdzie z jednej strony stała grupa ludzi wybranych do eksperymentu a z drugiej strony stał mechanizm który podmieniał płynnie model starego żaglowca na monitor, który wyświetlał zdjęcie tego modelu.
Okazało się, że ludzkie oko przestaje dostrzegać różnicę w przypadku obrazu 8k (wtedy były już telewizory i monitory wyświetlające taką rozdzielczość pokazywane na targach w formie prototypów, zwykle ogromnej wielkości, ale warto coś takiego zobaczyc na żywo). Wniosek wtedy był prosty - nie ma najmniejszego sensu iść w rozwoju jakości obrazu wyżej bo nikt nie jest w stanie dostrzec różnicy, a że już wtedy było wiadomo, że technologia 3d w przypadku telewizorów jest martwa wszyscy próbowali dyskutować "co dalej".
Jak ktoś ma ochotę poszukać coś więcej to był chyba 2 dzień targów NAB (2013), profesor był z japonii, a wykład był właśnie na temat tego jak oczy rozpoznają obraz tv.
Ciekawy materiał.