Data publikacji:

V-sync, G-sync i FreeSync - jak to działa, na czym polega różnica?

V-sync  lub też synchronizacja pionowa, to jedna z bardziej przydatnych opcji graficznych w grach, która może rozwiązać niektóre z problemów z obrazem, choć sama w sobie nie jest rozwiązaniem idealnym. Producenci sprzętu przygotowali jednak alternatywy pozwalające korzystać z zalet tego trybu synchronizacji, jednocześnie nie odczuwając zbyt dotkliwie jej wad.
v-sync co to
Czytaj również:Gra zdalna PS4. Jak grać w gry z PS4 na PC?

Czym jest v-sync?

Synchronizacja pionowa jest opcją, jaką znajdziemy w wielu grach na PC. Najczęściej poleca się ją włączyć, jeżeli podczas gry doświadczamy zjawiska tzw. tearingu, czyli obraz rwie się w poziomych liniach. Wygląda to tak, jakby tylko części wirtualnej kamery, przez którą oglądamy świat, nadążała za ruchem naszego kursora.

Efekt ten spowodowany jest różnicami w ilości klatek obrazu generowanych przez kartę graficzną i odbieranych przez monitor – mówiąc prościej, grafika próbuje pokazać nam w ciągu sekundy więcej klatek, niż ekran jest w stanie otworzyć.

Zjawisko to występuje częściej, jeżeli gramy w stare gry albo mamy bardzo mocną kartę graficzną, a monitor ma odświeżanie o częstotliwości 60 Hz, co przekłada się bezpośrednio na maksymalną ilość 60 klatek na sekundę.

Nadmiarowe klatki generowane przez kartę graficzną są wyświetlane na części ekranu próbującego nadążyć za przesyłanymi do niego informacjami, czego rezultatem jest tearing.

Włączenie opcji V-sync oznacza podporządkowanie liczby generowanych klatek częstotliwości monitora, sprawiając, że karta graficzna stara się nie przekraczać ustalonej wartości. V-sync możemy uruchomić z poziomu gry lub menu opcji karty graficznej, w zależności od potrzeb.

Problemy wynikające z v-sync

Największą wadą tego rozwiązania jest fakt, że generowane przez grafikę klatki i tak „czekają” momentami na wyświetlenie na ekranie, przez co nie zawsze są wyświetlane tak szybko, jakbyśmy chcieli.

W produkcjach, w których liczy się szybkość działania i refleks, to opóźnienie staje się odczuwalne, powodując z kolei wrażenie, że nasze kliknięcia myszy i naciśnięcia przycisków na klawiaturze są lekko opóźnione.

Z tego względu włączenie opcji v-sync w grach sieciowych może oznaczać zamienienie jednego problemu na drugi, zamiast rozwiązania go kompletnie.

Przeczytaj także: Najlepsze laptopy do gier

Drugą, potencjalnie poważniejszą wadą jest problem „krztuszenia się” obrazu – v-sync pomaga w sytuacjach, gdy ilość klatek produkowanych przez kartę graficzną jest za duża w porównaniu z tym, co chce wyświetlić monitor.

W odwrotnym scenariuszu, gdzie grafika nie jest w stanie wygenerować oczekiwanych przez wyświetlacz 60 klatek, bo na ekranie dzieje się więcej niż procesor graficzny jest w stanie przetworzyć. Spadki ilości klatek stają się znacznie bardziej zauważalne przy włączonym v-sync. Powoduje to zacięcia obrazu, które potrafią być znacznie bardziej uciążliwe, niż tearing.

Rozwiązania – w grach i sprzęcie

Swego rodzaju kontrą dla problemów generowanych przez v-sync przy niskiej liczbie klatek jest opcja triple buffering – rozwiązanie, sprawiające, że buforowana jest jedna „zapasowa” klatka, która jest wyświetlana, gdy obraz zaczyna się zacinać.

Sęk w tym, że rozwiązanie to dodatkowo obciąża pamięć karty graficznej, co w zależności od jej ilości może, ale nie musi być problemem.

Dla starszych procesorów graficznych – do serii 9XX – Nvidia opracowała rozwiązanie Adaptive V-Sync, które miało na celu wyłączać tryb synchronizacji pionowej w momentach, gdy ilość klatek spada poniżej wartości, jaką jest w stanie wyświetlać monitor.

AMD także ma swoją odpowiedź na ten problem w postaci funkcji Enhanced Sync dla swoich kart. Opcja ta pozwala na występowanie lekkiego tearingu, lecz znacząco redukuje zacinanie się gry w porównaniu ze zwykłym v-sync. Prawdziwymi, pełnoprawnymi rozwiązaniami tego problemu są jednak technologie G-sync i FreeSync wykorzystywane w monitorach.

Czym jest G-sync?

Nvidia postanowiła podejść do problemu synchronizacji z drugiej strony – zamiast zmuszać kartę graficzną do synchronizacji z częstotliwością monitora – technologia G-sync sprawia, że to monitor stara się dopasować swoją częstotliwość odświeżania do liczby klatek produkowanych przez grafikę.

W rezultacie spadki liczby klatek są znacznie mniej odczuwalne, bo monitor przechodzi całkiem płynnie między różnymi ich wartościami. Opóźnienia w reakcji na naciśnięcia klawiszy są nieodczuwalne.
Technologia jest szczególnie użyteczna w nowych urządzeniach zdolnych faktycznie wyprodukować duże liczby klatek, jednak Nvidia zadbała, by nawet starsze karty graficzne były zgodne z tym rozwiązaniem  - i mówimy tu o bardzo starych produktach, od 650 Ti w górę.

Przeczytaj także: Co wiemy o Watch Dogs Legion?

Na czym polega więc haczyk? Żeby korzystać z tego rozwiązania, musimy posiadać monitor zgodny z technologią G-sync, a to oznacza dodatkowy wydatek.

Choć HP i Dell mają w swojej ofercie tańsze produkty zgodne z tą technologią, cechują się one wysokimi czasami reakcji (które odczujemy w bardziej dynamicznych grach) i odświeżaniem na poziomie 60 Hz – podczas gdy do pełnego wykorzystania możliwości G-sync znacznie lepiej sprawdzają się monitory 120 lub 144 Hz (oraz, oczywiście, odpowiednio mocne karty).

Czym jest FreeSync?

FreeSync stanowi odpowiedź AMD na rozwiązania Nvidii – to znacznie szerzej przyjęte rozwiązanie, które efektywnie pełni tę samą funkcję. Główną różnicą jest fakt, że podczas gdy G-sync wymaga karty graficznej Nvidii, FreeSync bazuje na grafice od AMD.

Oferta i przystępność cenowa monitorów korzystających z FreeSync jest znacznie większa niż w przypadku poprzedniego rozwiązania, warto jednak zwrócić uwagę na parametry monitorów, bo w odróżnieniu od produktów zgodnych z technologią Nvidii, wiele z nich to wyświetlacze o częstotliwości 60 Hz, często z dość wysokim czasem reakcji.

Na początku roku Nvidia ogłosiła, że 12 monitorów z funkcją FreeSync – głównie urządzeń Acer i Asus – jest obsługiwanych przez jej karty. Należy spodziewać się, że do tej listy dołączać będą z czasem kolejne urządzenia, jednak dodatkowo zwiększa to opłacalność inwestowania w karty Nvidii.