G-SYNC nowym rozwiązaniem Nvidii mającym zapobiec rwaniu się obrazu w grach
Firma Nvidia zapowiedziała technologię G-SYNC mającą zapobiec rwaniu się obrazu w grach wideo. Specjalny moduł instalowany w niektórych monitorach ma pozwolić na idealną synchronizację karty graficznej i monitora.
Firma Nvidia zaprezentowała technologię G-SYNC, pozwalającą na idealną synchronizację karty graficznej i monitora, co ma rozwiązać problem zacięć i opóźnień w wyświetlaniu obrazu. Do ujawnienia G-SYNC doszło na wczorajszej imprezie w Montrealu.
Firma Nvidia zarzeka się, że nad technologią G-SYNC pracowała przez wiele lat. W końcu udało się zrealizować rozwiązanie, które bezbłędnie synchronizuje częstotliwość odświeżania monitora z prędkością renderowania karty graficznej. Co to oznacza dla graczy? Przede wszystkim bardziej płynną rozgrywkę i wyraźniejsze obiekty wyświetlane po ekranie. Wszystko dzięki temu, że wyrenderowane obrazy natychmiast pojawią się na monitorze.
Technologia działa na bazie modułu G-SYNC zaprojektowanego przez firmę Nvidia. Poczynając od 2014 roku, na rynku pojawią się pierwsze monitory wspierające G-SYNC. Najpierw będą to wyświetlacze takich firm jak ASUS, BenQ, Philips czy ViewSonic. Ceny monitorów i ich dokładne daty premier nie są jeszcze znane. Wiadomo natomiast, że technologia będzie współpracować z kartami graficznymi opartymi na architekturze Kepler – ich pełną listę znajdziecie pod tym adresem.
Jak dotąd wszelkie monitory odświeżały obraz ze stałą wartością, wynoszącą zazwyczaj 60 Hz. W grach wideo akcja jest jednak na tyle dynamiczna, że niemożliwe jest utrzymanie stałej liczby klatek na sekundę, co owocuje pewnymi zakłóceniami. Dotychczasowym obejściem tego problemu było aktywowanie synchronizacji pionowej (tzw. V-SYNC). Jej największą wadą są jednak opóźnienia w wyświetlaniu obrazu, co skutkowało spowolnieniami w grach. W przypadku technologii G-SYNC mowa o rozwiązaniu sprzętowym, dzięki czemu zabraknie tego typu problemów.
Więcej:„Intel miał misję żeby nas zabić” według Jensan Huanga; teraz zbuduje dla NVIDII 2 mikroprocesory
Komentarze czytelników
Pr0totype Generał
@Marcins94 No jeśli ta przystępna cena będzie na poziomie karty 600-700zł tych najtańszych i 400-600zł monitorach, tez tych najtańszych, to pewnie szybko furorę zrobi ta technologia. Ale jak dowalą po 1300zł w zawyż, to raczej już nie będzie zbyt ciekawie, bo mała liczba osób kupuje w tych cenach sprzęt.
zanonimizowany484441 Generał
Po reakcjach niektorych widze, ze typowy marketingowy belkot i wciskanie kitu nadal dziala;) Juz lece ustawiac sie w kolejce do sklepu, po plytke ktora w produkcji kosztuje pewnie smieszne pieniadze,a w pl bedzie kosztowala znajac zycie 700+ lol.
panZDZiCH Generał
Andre Linoge -> Każdy ma swój rozum. Będą testy, opinie, będą znane ceny, to będzie można się zastanowić. Taki sam jesteś mądry ze swoim sceptycyzmem i wróżeniem z fusów, jak ci którzy się już ustawili w kolejce do sklepu...
zanonimizowany484441 Generał
Nie no niektorzy juz krzycza , ze jest to najwieksza rewolucja od czasow wynalezienia koła;) Sory, ale jesli to nie bedzie kosztowalo max 200 pln to wielkiej kariery to nie zrobi.A nvidia juz tyle razy klamala oglaszajac wielkie rewolucje, z ktorych nic nie wyniklo,ze trzeba byc naprawde naiwnym albo glupim zeby teraz wierzyc w te jej opowiesci;)
panZDZiCH Generał
Jeżeli potwierdzą się te rewelacje, to naprawdę będziemy mieli do czynienia z dużą zmianą na lepsze. Sam byłbym skłonny dopłacić do monitora, który oferował by takie rozwiązanie, zobaczymy ile sobie krzykną i jak cena będzie się zmieniać z czasem.
