Mam pytanie. Jeżeli mam monitor o rozdzielczości natywnej 1920x1080 to ustawiając rozdziałkę np.1280x720 to obraz jest gorszej jakości niżby monitor miał natywną rozdzielczość 1280x720 i takową ustawioną? Czyli inaczej - czy jakość rozdzielczości natywnej x danego monitora = jakości tej samej rozdzielczości, tyle że nienatywnej dla innego monitora? Uff, ale namieszałem :P. Trudno zbudować klarowne zdanie :|
Nie znam się, więc się wypowiem.
Włącz jakąkolwiek grą lub benchmark i zobacz różnice w tych rozdziałkach. :)
Anyway, na mój chłopski rozum to zmiana rozdzielczości z takiej, w której monitor działa już naturalnie wiąze się z nieznacznym pogorszeniem, bo jest to niejako "wymuszanie" na większej ilości pikseli sprzętowych mniejszej ilości pikseli softwareu. ;) Vide 1080p i 1080i tylko, że vice versa :)
Przecież to oczywiste, że rozdzielczość 720p ustawiona na monitorze 1080p będzie wyglądała gorzej niż 720p na monitorze 720p.
Jeżeli mam monitor o rozdzielczości natywnej 1920x1080 to ustawiając rozdziałkę np.1280x720 to obraz jest gorszej jakości niżby monitor miał natywną rozdzielczość 1280x720 i takową ustawioną?
Tak. Monitory LCD mają ładny obraz tylko w natywnej rozdzielczości. Wyświetlając 1280x720 na monitorze 1920x1080 na jeden piksel obrazu będą przypadać ok. 1,5 pikseli monitora, a to oznacza skalowanie, które albo będzie oznaczać rozmyty obraz, albo bardzo widoczne ząbki.
Tak na marginesie, kompletnie nie rozumiem dlaczego w nowych konsolach dopuszczono do takiej sytuacji, by gry pracowały w 1600x900 czy nawet 1280x720, skoro każdy ma TV czy monitor 1920x1080? Przecież różnica jakości między natywną, a upscale'owaną rozdzielczością jest bardziej widoczna niż chociażby między ustawieniami niskimi, a maksymalnymi w większości gier na PC.
Prosta odpowiedź na Twoje pytanie nie jest możliwa ponieważ jakość obrazu nie zależy tylko od rozdzielczości natywnej, ale także jakości i rodzaju samej matrycy i innych elementów monitora. W przypadku podłączenia monitora przez łącze analogowe (np. "zwykłe VGA") zależy np. od przewodu (a raczej zakłóceń i ograniczeń pasma, które przewód wnosi w posagu).
Można prosto odpowiedzieć na pytanie - czy jeśli na monitorze o rozdzielczości FullHD ustawię w rozdzielczość niższą, to jakość będzie gorsza? - odpowiedź TAK. Ale na pytanie jak bardzo niższa - nie wiem ;)
"Grafika" zanim trafi do Twoich oczu poprzez monitor jest przygotowywana jako zbiór liczb siedzących wewnątrz komputera, a potem musi być zamieniona na świecące plamki, które Twój mózg przetworzy na obraz.
Umówmy się, że podzielimy proces na dwa etapy liczby wewnątrz i plamki na monitorze.
Krok 1. Liczby są wytwarzane w skrócie myślowym zawsze tak samo - dla większej rozdzielczości jest ich po prostu więcej. Gra "pogarsza jakość" obrazu gdy ustawisz niższą rozdzielczość, więc rozdzielczość niższa oznacza gorszą jakość jeszcze przed zamianą na plamki. Nasz niosek - na obu monitorach (natywnym i FullHD) chcesz mieć tę sama rozdzielczość więc na starcie jakość jest ta sama.
Krok 2. Liczby są zamieniane plamki. Przy natywnej 1 liczba odpowiada 1 plamce (jakość nie ulega zmianie - zależy tylko od jakości podzespołów monitora). Przy nienatywnej trzeba zmodyfikować obraz - tzn. "coś" z nim zrobić co zwykle pogarsza jakość. "Coś" zrobić bo np. z trzech liczb trzeba zrobić 2 plamki. Tzn. że jakość obrazu zależy od jakości podzespołów monitora i dodatkowej modyfikacji pierwotnego obrazu.
Wniosek - jeśli monitory są równie dobre - jakość natywna będzie lepsza. Wniosek oczywiści nie uwzględnia faktu, że jakość zależy często bardziej od subiektywnych wrażeń.
ps. przepraszam znających się za łopatologiczne i często nieprecyzyjne uproszczenia myślowe
dopisek - widzę, że w "międzyczasie" poprzednicy napisali już większość tego co naprodukowałem