Hardware Tanie i polecane Porady PC Windows Konsole Telefony Technologie

Hardware

Hardware 19 sierpnia 2019, 09:54

autor: Aquma

Nvidia G-Sync, AMD FreeSync i FreeSync 2 - jaką robią różnicę w grach

Techniki dynamicznego odświeżania obrazu nie są niczym nowym, ale różnice pomiędzy nimi nadal stanowią zagadkę dla wielu graczy. Przyglądamy się tym standardom, zwracając uwagę na różnice pomiędzy nimi oraz mocne i słabe strony.

FreeSync oraz G-Sync to terminy, które często pojawiają się w naszych tekstach, a także m.in. opisach sprzętu komputerowego, takiego jak karty graficzne czy monitory. Czym są i do czego służą wspomniane technologie? Na jakich zasadach działają? Jakie są pomiędzy nimi różnice? Przyjrzyjmy się tym zagadnieniom.

G-Sync czy FreeSync? - Nvidia G-Sync, AMD FreeSync i FreeSync 2 - jaką robią różnicę w grach - dokument - 2019-08-19
G-Sync czy FreeSync?

Masz problem z charakterystycznym „rozrywaniem” obrazu w grach? Monitory o zmiennej częstotliwości odświeżania, które synchronizują kompozycję obrazu z aktualnie wyświetlaną liczbą klatek na sekundę dostarczaną przez kartę graficzną, zapobiegają irytującemu zjawisku nazwanemu tearingiem.

Najpopularniejsze technologie synchronizujące kartę graficzną i wyświetlacz to między innymi G-Sync oraz FreeSync - i są przeznaczone zarówno dla kart graficznych Nvidia Geforce (G-Sync), jak i modeli wyprodukowanych przez AMD (FreeSync).

A czym jest VESA Adaptive-Sync?

Stworzona przez organizację VESA technologia Adaptive-Sync jest standardem wyświetlania obrazu o zmiennej częstotliwości odświeżania, który stanowi część specyfikacji wejścia Display Port 1.2a i został zaadaptowany przez AMD na potrzeby funkcji znanych jako FreeSync, FreeSync 2 oraz FreeSync HDR. W praktyce FreeSync i Adaptive-Sync to niemal to samo – „czerwoni” po prostu stosują pierwszą z nazw w celach marketingowych. Nie można jednak wypowiedzieć podobnego zdania o FreeSync 2 oraz FreeSync HDR, które oferują dodatkowe benefity i z którymi wiążą się inne wymagania (więcej na ten temat w dalszej części tekstu).

Dwie metody synchronizacji

Zarówno G-Sync, jak i FreeSync są technologiami dynamicznej synchronizacji obrazu, które dostosowują częstotliwość wyświetlania monitora do liczby klatek generowanych przez układ graficzny. W założeniu mają one zastąpić dość przestarzałe rozwiązanie programowe, znane większości graczy jako V-Sync. Obydwie techniki dynamicznego odświeżania pozwalają wyeliminować charakterystyczne artefakty, przypominające „rozrywanie się” obrazu w poziomie lub jego migotanie przy szybkim ruchu. W przeciwieństwie jednak do V-Sync, funkcje te osiągają ten efekt nie wpływając na wydajność i nie powodując efektu opóźnienia (tzw. input lag).

Komentarze Czytelników (25)

Dodaj swój komentarz
Wszystkie Komentarze
19.08.2019 10:30
3
mjmo
7
Centurion

Gry z G-Sync wyglądają super, ale dopłacanie do monitorów z tym zawsze jednak trochę bolało - nie wydaje mi się, żeby było to jakoś bardzo opłacalne.
Pod tym względem jednak FreeSync lepszy

19.08.2019 11:02
mirko81
odpowiedz
3 odpowiedzi
mirko81
13
1150 Power!

Przecież karty Nvidia od 1xxx zapadają G-sync na tanich ekranach (od 500zl) z Free-sync. Przejrzalem artykuł i chyba to pominieto.

19.08.2019 12:16
kaitso
kaitso
14
Lubię placki

GRYOnline.plRedakcja

Nie pominięto ;)

19.08.2019 13:29
mirko81
mirko81
13
1150 Power!

Przepraszam :)

19.08.2019 19:08
kaitso
kaitso
14
Lubię placki

GRYOnline.plRedakcja

A nic się nie stało, informacja może za mało wyróżniona po prostu :)

19.08.2019 11:24
😐
odpowiedz
2 odpowiedzi
Stary Tapczan
17
Centurion

To weź powiedz jaki monitor mam kupic do 2070 super.... trzy rzeczy.. pivot i 2560 hz wiecej niz standardowe 60

post wyedytowany przez Stary Tapczan 2019-08-19 11:24:58
19.08.2019 16:41
marcin24n
1
Junior

AORUS AD27QD
Pasuje do kart AMD i NVidii bo jest oficjalnie wspierany GSync, 95 procent pokrycia przestrzeni barw DCI-P3.

post wyedytowany przez marcin24n 2019-08-19 16:43:27
20.08.2019 08:35
AntyGimb
46
Generał

Min 800zl za drogi. Za 1950 jest ex3203r

19.08.2019 11:41
mirko81
19.08.2019 11:59
jakisnick
41
Pretorianin
Image

Ten artykuł, który tutaj wstawiłeś w ogóle nie podaje podstawowych informacji o tym jak skonfigurować gsync/ freesync tak żeby mieć jednocześnie niski lag. Ale czego spodziewać się po takim gniocie jak purepc.

Na artykule golowym omawiają ten temat od 5 strony. Gsync/ freesync to nie jest tylko wciśnięcie jednego guzika i włączenie gry. Źle skonfigurowany freesync/ gsync daje równoważne efekty do włączenia vsyncu na zwykłym monitorze. Możesz zobaczyć na zdjęciu input lag w przypadku różnych konfiguracji i jak w niektórych z nich możesz doprowadzić do katastrofy.

Ogółem obydwie te technologie to jedno wielkie naciąganie na kasę ładną naklejką, równie dobrą robotę zrobi ci ogranicznik fpsów, dostępny za darmo w każdym monitorze.

19.08.2019 12:18
kaitso
kaitso
14
Lubię placki

GRYOnline.plRedakcja

jakisnick jeśli uważasz że to naciąganie na kasę to chyba jednak nie widziałeś dobrze skonfigurowanego G-Syncka jak działa w praktyce ;)

19.08.2019 13:26
mirko81
1
mirko81
13
1150 Power!

Co ma ogranicznik klatek do tych technik? Ich dzialanie bardziej dotyczy spadkow fps. Nie mam czasu na jakies konfiguracj. Wciskam w opcjach g-sync i pieknie mi dziala do 75fps. w kazdej grze

19.08.2019 16:10
😃
odpowiedz
marcin24n
1
Junior

Ale Panie Władku! Przecież jak ustawimy w panelu sterowania nVidia synchronizację pionową to ona przejmuje kontrolę nad grą i tam już nie musimy nic kombinować z synchronizacją. W grze może być włączona, wyłączona, podwójna lub potrójna. Jakiś amator pisał tekst. Czemu nie pytał mądrego?

19.08.2019 17:06
odpowiedz
grzech1991
11
Legionista

niby autor zrobił dobry artykuł, ale nie widzę ani słowa o tym, że na g-sync nie ma ghostingu w przeciwieństwie do badziewnego freesynca.

19.08.2019 17:09
odpowiedz
1 odpowiedź
adamkk2022
9
Legionista

@mirko81 przydaje się to w starych grach gdzie masz setki klatek, wtedy Gsync nie działa.

19.08.2019 21:10
VanDust
VanDust
75
Konsul

A jak ograniczymy klatki? Np. NVidia Profile Inspector ? Na 144Hz monitorze obniżyć do np.135Hz i tyle..

19.08.2019 17:25
mirko81
odpowiedz
mirko81
13
1150 Power!

/pomylka/

post wyedytowany przez mirko81 2019-08-19 17:35:20
19.08.2019 20:42
A.l.e.X
👍
odpowiedz
A.l.e.X
126
Alekde

G-Sync i FreeSync 2 ale przede wszystkim G-Sync bardzo dobrze utrzyma płynność obrazu przy wzroście ms (spadku fps), pomijam już brak rozjeżdżania się obrazu ale wydobycie płynności, albo super płynności z gry przy niskim fps to coś co te technologię wprowadziły do normalnego użytkowania. O ile jeszcze spokojnie dałbym radę używać monitora 60Hz aczkolwiek zawsze lepiej mieć 120/144 czy 200 to monitora bez G-Sync / FreeSync 2 nie dałbym rady już użytkować. Te obie technologie sprawiły że odbiór obrazu jest jeszcze lepszy. Artykuł mimo że przedstawia ogólne informacje moim zdaniem dobrze naświetla temat.

19.08.2019 20:46
odpowiedz
2 odpowiedzi
Ali Wlaborg
26
Legionista

gdzie wy redaktorzy macie łeb?
najtańsze monitory obsługujące ten standard kupimy za około 1200 zł
link mnie prowadzi do monitora

spoiler start

Dell S2417DG 23,8"

spoiler stop


który zaczyna się od 1,8k.... najtańszy monitor w google sięga od 1742pln a najtańszy używany monitor w Alledrogo jest za 1,5k, co wy sponsorujecie?

19.08.2019 20:54
DanuelX
DanuelX
81
Kopalny

ten standard
Czyli który "standard"?

19.08.2019 21:05
Ali Wlaborg
26
Legionista

@DanuelX
to jest kopia części tekstu z 3ciej strony, tzn mowa o G-Sync

19.08.2019 22:50
😐
odpowiedz
Master4
8
Legionista

"Konfiguracja sterownika GeForce Experience" - przecież to jest zwykły panel sterowania Nvidii. Geforce Experience to zupełnie co innego.

20.08.2019 08:37
odpowiedz
2 odpowiedzi
AntyGimb
46
Generał

Nie ma w tej chwili bardziej opłacalnego monitora niż BenQ EX3203R. "2k", 32 cale, HDR 400, 144hz i Freesync 2. 1950zl.

post wyedytowany przez AntyGimb 2019-08-20 08:37:48
20.08.2019 11:41
marcin24n
1
Junior

Ale tylko do kart AMD bo nie ma certyfikatu Gsync od nvidii

20.08.2019 22:33
VanDust
VanDust
75
Konsul

LG 32GK850F-B te same parametry, tylko, a raczej dzięki Bogu - płaski. 1 999zł
A ten HDR 400, to lepiej pomińmy...

post wyedytowany przez VanDust 2019-08-20 22:34:31
Dodaj swój komentarz
Wszystkie Komentarze