Są rzeczy, o których nie tylko trudno pisać, ale i bardzo trudno. Które po prostu trzeba zobaczyć raz, a nie słyszeć o nich setki razy czy czytać w Internecie. Nie sposób na przykład opisać niektórych cudów natury, takich jak majestatyczny Wielki Kanion czy ośnieżone góry Ałtaj. Piękne zdjęcia z ich wizerunkami można oglądać setki razy i podziwiać filmy, ale to wszystko nie zastąpi wrażeń na żywo.

Temat płynnego wyświetlania klatek na monitorze przy użyciu technologii Nvidia G-Sync dotyczy również takich tematów - z opisów tekstowych zmiany nie wydają się aż tak istotne, ale już w pierwszych minutach grania w grę 3D na systemie z kartą Nvidia Karta graficzna Geforce podłączona do monitora G-Sync, staje się jasne, jak duży jest skok jakościowy. I choć od ogłoszenia technologii minął ponad rok, technologia ta nie traci na aktualności, nadal nie ma konkurencji (wśród rozwiązań, które weszły na rynek), a odpowiadające jej monitory są nadal produkowane.

Nvidia od dłuższego czasu pracuje nad poprawą wrażeń wizualnych użytkowników procesorów graficznych Geforce we współczesnych grach, poprawiając płynność renderowania. Można przywołać technologię adaptacyjnej synchronizacji Adaptive V-Sync, która jest hybrydą łączącą tryby z włączoną i wyłączoną synchronizacją pionową (odpowiednio V-Sync On i V-Sync Off). W przypadku, gdy procesor graficzny zapewnia renderowanie z częstotliwością mniejszą niż częstotliwość odświeżania monitora, synchronizacja jest wyłączona, a w przypadku FPS przekraczających częstotliwość odświeżania, jest włączona.

Adaptive Sync nie rozwiązała wszystkich problemów z płynnością, ale nadal była ważnym krokiem we właściwym kierunku. Ale dlaczego konieczne było stworzenie specjalnych trybów synchronizacji, a nawet wydanie rozwiązań programowych i sprzętowych? Co jest nie tak z technologiami, które istnieją od dziesięcioleci? Dzisiaj dowiemy się, jak technologia Nvidia G-Sync pomaga wyeliminować wszystkie znane artefakty wyświetlania, takie jak rozrywanie obrazu, niepłynny materiał filmowy i zwiększone opóźnienia.

Patrząc daleko w przyszłość, można powiedzieć, że technologia synchronizacji G-Sync pozwala uzyskać płynną zmianę klatek przy najwyższej możliwej wydajności i komforcie, co jest bardzo odczuwalne podczas grania na takim monitorze – jest to zauważalne nawet dla przeciętnego domowego użytkownika, a dla zapalonych graczy może to oznaczać poprawę czasu reakcji, a tym samym osiągnięć w grze.

Dziś większość graczy PC korzysta z monitorów o częstotliwości odświeżania 60 Hz - typowych ekranów LCD, obecnie najpopularniejszych. W związku z tym zarówno po włączeniu synchronizacji (V-Sync On), jak i po jej wyłączeniu, zawsze występują pewne niedociągnięcia związane z podstawowymi problemami starożytnych technologii, o których porozmawiamy później: duże opóźnienia i szarpnięcia FPS, gdy V- Synchronizacja jest włączona, a po wyłączeniu nieprzyjemne rozrywanie obrazu.

A ponieważ opóźnienia i niepłynna liczba klatek na sekundę bardziej zakłócają i irytują grę, rzadko który gracz w ogóle włącza synchronizację. I nawet niektóre modele monitorów o częstotliwości odświeżania 120 i 144 Hz, które pojawiły się na rynku, nie są w stanie całkowicie wyeliminować problemów, po prostu sprawiają, że są one nieco mniej zauważalne, aktualizując zawartość ekranu dwa razy częściej, ale nadal te same artefakty obecny: opóźnienia i brak tej samej komfortowej gładkości.

A ponieważ monitory z G-Sync w połączeniu z odpowiednią kartą graficzną Nvidia Geforce są w stanie zapewnić nie tylko wysoką częstotliwość odświeżania, ale także wyeliminować wszystkie te niedociągnięcia, zakup takich rozwiązań można uznać za jeszcze ważniejszy niż choćby modernizacja na mocniejszy procesor graficzny . Ale najpierw zastanówmy się, dlaczego konieczne było zrobienie czegoś innego niż znane od dawna rozwiązania - w czym tkwi problem?

Problemy z istniejącymi metodami wyjścia wideo

Technologie wyświetlania obrazu na ekranie o stałej częstotliwości odświeżania pojawiły się już od czasów, gdy używano monitorów kineskopowych (CRT). Większość czytelników powinna je pamiętać – brzuchate, zupełnie jak starożytne telewizory. Technologie te zostały pierwotnie opracowane do wyświetlania obrazu telewizyjnego ze stałą szybkością klatek, jednak w przypadku urządzeń do wyświetlania obrazu 3D dynamicznie obliczanego na komputerze PC, rozwiązanie to rodzi poważne problemy, które nie zostały dotychczas rozwiązane.

Nawet najnowocześniejsze monitory LCD mają stałą częstotliwość odświeżania obrazu na ekranie, choć technologicznie nic nie stoi na przeszkodzie, aby zmieniać obraz na nich w dowolnym momencie i z dowolną częstotliwością (oczywiście w rozsądnych granicach). Jednak gracze PC od czasów monitorów CRT zmuszeni byli godzić się na zdecydowanie niedoskonałe rozwiązanie problemu synchronizacji liczby klatek na sekundę w renderowaniu 3D i częstotliwości odświeżania monitora. Do tej pory było bardzo niewiele opcji wyjścia obrazu - dwie i obie miały wady.

Źródłem wszystkich problemów jest to, że przy stałej częstotliwości odświeżania obrazu na monitorze karta graficzna renderuje każdą klatkę w innym czasie - wynika to ze stale zmieniającej się złożoności sceny i obciążenia procesora graficznego. A czas renderowania każdej klatki nie jest stały, zmienia się w każdej klatce. Nic więc dziwnego, że przy próbie wyświetlenia na monitorze większej liczby klatek pojawiają się problemy z synchronizacją, gdyż niektóre z nich wymagają znacznie więcej czasu na wyrenderowanie niż inne. W efekcie dla każdej klatki otrzymujemy różne czasy przygotowania: czasem np. 10 ms, czasem 25 ms. A monitory, które istniały przed pojawieniem się G-Sync, mogły wyświetlać klatki dopiero po pewnym czasie – ani wcześniej, ani później.

Sprawę dodatkowo komplikuje bogactwo konfiguracji programowych i sprzętowych komputerów do gier, w połączeniu z bardzo różnym obciążeniem w zależności od gry, ustawień jakości, ustawień sterowników graficznych itp. W efekcie nie da się skonfigurować każdego systemu do gier tak, aby szkolenie odbywa się ze stałymi lub przynajmniej niezbyt różnymi czasami we wszystkich aplikacjach i warunkach 3D - co jest możliwe na konsolach do gier z ich pojedynczą konfiguracją sprzętową.

Naturalnie, w przeciwieństwie do konsol z przewidywalnym czasem renderowania klatek, gracze na PC nadal mają poważnie ograniczone możliwości zapewnienia płynnej rozgrywki bez zauważalnych spadków i opóźnień. W idealnym (czytelnym - w rzeczywistości niemożliwym) przypadku aktualizacja obrazu na monitorze powinna odbywać się ściśle po wyliczeniu i przygotowaniu kolejnej klatki przez procesor graficzny:

Jak widać, w tym hipotetycznym przykładzie procesor graficzny zawsze ma czas na narysowanie klatki, zanim będzie trzeba ją przenieść na monitor - czas klatki jest zawsze nieco krótszy niż czas pomiędzy aktualizacjami informacji na wyświetlaczu, a w pomiędzy GPU trochę odpoczywa. Ale w rzeczywistości wszystko jest zupełnie inne - czas renderowania klatek jest zupełnie inny. Wyobraź sobie, że GPU nie ma czasu na wyrenderowanie klatki w wyznaczonym czasie – wtedy klatka musi albo zostać wyświetlona później, pomijając jedną aktualizację obrazu na monitorze (włączona synchronizacja pionowa – V-Sync On), albo klatki muszą zostać wyświetlane w częściach z wyłączoną synchronizacją, a następnie na monitorze jednocześnie będą pojawiały się fragmenty z kilku sąsiednich klatek.

Większość użytkowników wyłącza V-Sync, aby uzyskać mniejsze opóźnienia i płynniejsze klatki na ekranie, jednak to rozwiązanie wprowadza widoczne artefakty w postaci rozrywania obrazu. A po włączeniu synchronizacji nie będzie rozrywania obrazu, ponieważ klatki będą wyświetlane wyłącznie w całości, ale opóźnienie między akcją gracza a aktualizacją obrazu na ekranie wzrasta, a częstotliwość wyświetlania klatek jest bardzo nierówna, ponieważ procesor graficzny nigdy nie rysuje klatek ściśle według czasu aktualizacji obrazu na monitorze.

Problem ten istnieje od wielu lat i wyraźnie zakłóca komfort oglądania efektu renderowania 3D, jednak do pewnego czasu nikt nie zaprzątnął sobie głowy jego rozwiązaniem. A rozwiązanie w teorii jest dość proste – wystarczy wyświetlać informację na ekranie ściśle wtedy, gdy GPU zakończy pracę nad kolejną klatką. Ale najpierw przyjrzyjmy się bliżej przykładom, jak dokładnie działają istniejące technologie wyjściowe obrazu i jakie rozwiązanie oferuje nam Nvidia w swojej technologii G-Sync.

Wady wyjścia, gdy synchronizacja jest wyłączona

Jak już wspomnieliśmy, zdecydowana większość graczy woli mieć wyłączoną synchronizację (V-Sync Off), aby klatki rysowane przez GPU były wyświetlane na monitorze tak szybko, jak to możliwe i przy minimalnym opóźnieniu pomiędzy akcje (naciśnięcia klawiszy, polecenia myszy) i ich wyświetlanie. Dla poważnych graczy jest to konieczne do zwycięstw, a dla zwykłych graczy w tym przypadku wrażenia będą przyjemniejsze. Tak wygląda schematycznie praca z wyłączoną synchronizacją V-Sync:

Nie ma żadnych problemów ani opóźnień w wysyłaniu klatek. Ale choć wyłączona synchronizacja pionowa w jak największym stopniu rozwiązuje problem opóźnień, zapewniając minimalne opóźnienia, to jednocześnie na obrazie pojawiają się artefakty - rozrywanie obrazu, gdy obraz na ekranie składa się z kilku fragmentów sąsiadujących ze sobą klatek rysowanych przez GPU. Zauważalny jest także brak płynności obrazu wynikający z nierównomierności klatek przechodzących z procesora graficznego na ekran – obraz załamuje się w różnych miejscach.

To rozrywanie obrazu występuje w wyniku wyrenderowania obrazu składającego się z dwóch lub większej liczby klatek na GPU podczas jednego cyklu odświeżania monitora. Z kilku - gdy liczba klatek na sekundę przekracza częstotliwość odświeżania monitora, i z dwóch - gdy w przybliżeniu jej odpowiada. Spójrz na diagram pokazany powyżej - jeśli zawartość bufora ramki będzie aktualizowana w połowie pomiędzy kolejnymi momentami wyświetlania informacji na monitorze, to końcowy obraz na nim będzie zniekształcony - część informacji w tym przypadku należy do poprzedniej ramkę, a resztę do aktualnie rysowanej.

Przy wyłączonej synchronizacji ramki są przesyłane do monitora bez względu na częstotliwość i czas ich aktualizacji, a zatem nigdy nie pokrywają się z częstotliwością odświeżania monitora. Innymi słowy, przy wyłączonej funkcji V-Sync monitory bez obsługi G-Sync zawsze będą doświadczać takiego rozrywania obrazu.

Chodzi nie tylko o to, że dla gracza nieprzyjemne jest widzieć drgające paski na całym ekranie, ale także o to, że jednoczesne renderowanie fragmentów różnych klatek może dezinformować mózg, co jest szczególnie zauważalne przy dynamicznych obiektach w kadrze – gracz widzi części obiektów przesunięte względem siebie. Trzeba to znosić tylko dlatego, że wyłączenie V-Sync zapewnia w tej chwili minimalne opóźnienia wyjściowe, ale dalekie od idealnej dynamicznej jakości obrazu, co widać na poniższych przykładach (klikanie klatek w pełnej rozdzielczości):

Korzystając z powyższych przykładów, wykonanych przy użyciu kompleksu programowo-sprzętowego FCAT, można zauważyć, że rzeczywisty obraz na ekranie może składać się z fragmentów kilku sąsiadujących ze sobą klatek - a czasem nierównomiernie, gdy z jednej z klatek zostanie pobrany wąski pasek, a sąsiednie zajmują pozostałą (zauważalnie większą) część ekranu.

Problemy z rozrywaniem obrazu są jeszcze bardziej widoczne w dynamice (jeśli Twój system i/lub przeglądarka nie obsługuje odtwarzania filmów MP4/H.264 w rozdzielczości 1920x1080 pikseli przy częstotliwości odświeżania 60 FPS, to będziesz musiał je pobrać i przeglądaj je lokalnie za pomocą odtwarzacza multimedialnego z odpowiednimi możliwościami):

Jak widać, nawet przy dynamice łatwo zauważalne są nieprzyjemne artefakty w postaci załamań obrazu. Zobaczmy jak to wygląda schematycznie - na schemacie przedstawiającym sposób wyjścia, gdy synchronizacja jest wyłączona. W tym przypadku klatki pojawiają się na monitorze natychmiast po zakończeniu ich renderowania przez GPU, a obraz jest wyświetlany na wyświetlaczu nawet jeśli wyprowadzenie informacji z bieżącej klatki nie zostało jeszcze w pełni zakończone – pozostała część bufora przypada na następna aktualizacja ekranu. Dlatego każda klatka naszego przykładu wyświetlana na monitorze składa się z dwóch klatek narysowanych na GPU - z przerwą w obrazie w miejscu zaznaczonym na czerwono.

W tym przykładzie pierwsza klatka (Rysunek 1) jest rysowana przez procesor graficzny do bufora ekranu szybciej niż czas odświeżania wynoszący 16,7 ms – i przed przesłaniem obrazu na monitor (Skanowanie 0/1). GPU natychmiast rozpoczyna pracę nad kolejną klatką (Rysunek 2), co powoduje przerwanie obrazu na monitorze, zawierającego kolejną połowę poprzedniej klatki.

W rezultacie w wielu przypadkach na obrazie pojawia się wyraźnie widoczny pasek – granica pomiędzy częściowym wyświetleniem sąsiednich klatek. W przyszłości proces ten się powtarza, gdyż GPU pracuje na każdej klatce przez inną ilość czasu i bez synchronizacji procesu klatki z GPU i te wyświetlane na monitorze nigdy się nie zgadzają.

Plusy i minusy Vsync

Gdy włączona jest tradycyjna synchronizacja pionowa (V-Sync On), informacje na monitorze są aktualizowane dopiero po całkowitym zakończeniu pracy nad klatką przez procesor graficzny, co eliminuje rozrywanie obrazu, ponieważ klatki wyświetlane są wyłącznie na ekranie . Ponieważ jednak monitor aktualizuje zawartość tylko w określonych odstępach czasu (w zależności od charakterystyki urządzenia wyjściowego), to powiązanie powoduje inne problemy.

Większość nowoczesnych monitorów LCD aktualizuje informacje z częstotliwością 60 Hz, czyli 60 razy na sekundę – mniej więcej co 16 milisekund. Po włączeniu synchronizacji czas wyświetlania obrazu jest ściśle powiązany z częstotliwością odświeżania monitora. Ale jak wiemy, szybkość renderowania GPU jest zawsze zmienna, a czas potrzebny na renderowanie każdej klatki różni się w zależności od stale zmieniającej się złożoności sceny 3D i ustawień jakości.

Nie zawsze może być równy 16,7 ms, ale będzie albo mniejszy od tej wartości, albo większy. Gdy synchronizacja jest włączona, praca GPU na klatkach kończy się ponownie wcześniej lub później niż czas odświeżania ekranu. Jeśli klatka została wyrenderowana szybciej niż w tym momencie, nie ma specjalnych problemów - informacja wizualna po prostu czeka na aktualizację monitora, aby wyświetlić całą klatkę na ekranie, a procesor graficzny jest bezczynny. Jeśli jednak klatka nie ma czasu na wyrenderowanie w wyznaczonym czasie, wówczas musi poczekać na kolejny cykl aktualizacji obrazu na monitorze, co powoduje zwiększenie opóźnienia pomiędzy działaniami gracza a jego wizualnym wyświetleniem na ekranie. W takim przypadku na ekranie ponownie wyświetlany jest obraz poprzedniej „starej” klatki.

Choć wszystko to dzieje się dość szybko, wzrost opóźnienia jest wizualnie łatwo zauważalny i to nie tylko przez profesjonalnych graczy. A ponieważ czas renderowania klatek jest zawsze zmienny, włączenie powiązania z częstotliwością odświeżania monitora powoduje szarpnięcia podczas wyświetlania obrazu dynamicznego, ponieważ klatki są wyświetlane albo szybko (z częstotliwością odświeżania monitora), albo dwa, trzy lub cztery razy wolniej. Spójrzmy na schematyczny przykład takiej pracy:

Ilustracja przedstawia sposób wyświetlania klatek na monitorze, gdy włączona jest synchronizacja pionowa (Włączona synchronizacja pionowa). Pierwsza klatka (Draw 1) jest renderowana przez GPU szybciej niż 16,7 ms, więc GPU nie przechodzi do pracy nad rysowaniem kolejnej klatki i nie rozdziera obrazu jak ma to miejsce przy V-Sync Off, tylko czeka aby pierwsza klatka została w całości wyświetlona na monitorze. I dopiero potem zaczyna rysować kolejną klatkę (Rys 2).

Jednak praca nad drugą klatką (Rysunek 2) trwa dłużej niż 16,7 ms, więc po ich upływie na ekranie wyświetlana jest informacja wizualna z poprzedniej klatki i jest ona pokazywana na ekranie przez kolejne 16,7 ms. Nawet gdy procesor graficzny zakończy pracę nad następną klatką, nie jest ona wyświetlana na ekranie, ponieważ monitor ma stałą częstotliwość odświeżania. W sumie na wyświetlenie drugiej klatki trzeba poczekać 33,3 ms, a cały ten czas jest dodawany do opóźnienia pomiędzy akcją gracza a końcem klatki wyświetlanej na monitorze.

Do problemu opóźnienia czasowego dochodzi luka w płynności sekwencji wideo, zauważalna w szarpnięciu animacji 3D. Problem bardzo wyraźnie widać na krótkim filmie:

Ale nawet najpotężniejsze procesory graficzne w wymagających nowoczesnych grach nie zawsze mogą zapewnić wystarczająco wysoką liczbę klatek na sekundę, przekraczającą typową częstotliwość odświeżania monitora wynoszącą 60 Hz. I w związku z tym nie pozwolą na komfortową grę z włączoną synchronizacją i bez problemów, takich jak rozrywanie obrazu. Zwłaszcza jeśli chodzi o gry takie jak gra sieciowa Battlefield 4, bardzo wymagająca Far Cry 4 i Assassin’s Creed Unity w wysokich rozdzielczościach i maksymalnych ustawieniach gry.

Oznacza to, że współczesny odtwarzacz nie ma wielkiego wyboru - albo uzyska brak płynności i zwiększone opóźnienia, albo zadowoli się niedoskonałą jakością obrazu z połamanymi fragmentami klatek. Oczywiście w rzeczywistości wszystko nie wygląda tak źle, bo jakoś cały ten czas graliśmy, prawda? Ale w czasach, gdy starają się osiągnąć ideał zarówno pod względem jakości, jak i komfortu, chcesz więcej. Co więcej, wyświetlacze LCD mają podstawową zdolność technologiczną do generowania klatek, gdy procesor graficzny to wskazuje. Pozostało jeszcze tylko podłączyć GPU i monitor, a takie rozwiązanie już istnieje – technologia Nvidia G-Sync.

Technologia G-Sync - rozwiązanie problemów Nvidii

Tak więc większość nowoczesnych gier, gdy synchronizacja jest wyłączona, powoduje zrywanie obrazu, a gdy synchronizacja jest włączona, powodują niepłynne zmiany klatek i zwiększone opóźnienia. Nawet przy wysokich częstotliwościach odświeżania tradycyjne monitory nie eliminują tych problemów. Całkiem prawdopodobne, że pracownicy Nvidii od wielu lat tak mieli dość wyboru pomiędzy dwiema niezbyt idealnymi opcjami wyświetlania klatek w aplikacjach 3D, że postanowili pozbyć się problemów, dając graczom zasadniczo nowe podejście do aktualizacji informacji na wyświetlacz.

Różnica między technologią G-Sync a istniejącymi metodami wyświetlania polega na tym, że taktowanie i liczba klatek na sekundę w wariancie Nvidii są określane przez procesor graficzny Geforce i są dynamicznie zmienne, a nie stałe, jak miało to miejsce wcześniej. Innymi słowy, w tym przypadku procesor graficzny przejmuje pełną kontrolę nad wyjściową klatką - gdy tylko zakończy pracę nad następną klatką, zostanie ona wyświetlona na monitorze, bez opóźnień i rozrywania obrazu.

Użycie takiego połączenia pomiędzy procesorem graficznym a specjalnie dostosowanym sprzętem monitora daje graczom lepszą metodę wyjściową - po prostu idealną pod względem jakości, eliminującą wszystkie problemy, o których wspomnieliśmy powyżej. G-Sync zapewnia idealnie płynne zmiany klatek na monitorze, bez żadnych opóźnień, szarpnięć czy artefaktów spowodowanych wyświetlaniem informacji wizualnych na ekranie.

Naturalnie G-Sync nie działa magicznie i aby technologia działała po stronie monitora, wymagane jest dodanie specjalnej logiki sprzętowej w postaci małej płytki dostarczonej przez Nvidię.

Firma współpracuje z producentami monitorów, aby uwzględnić karty G-Sync w swoich modelach wyświetlaczy do gier. W przypadku niektórych modeli istnieje nawet możliwość samodzielnego upgrade'u przez użytkownika, jednak taka opcja jest droższa i nie ma sensu, bo łatwiej jest od razu kupić monitor G-Sync. W przypadku komputera PC wystarczy mieć w konfiguracji dowolną z nowoczesnych kart graficznych Nvidia Geforce i zainstalowany sterownik wideo zoptymalizowany pod kątem G-Sync - wystarczy dowolna z najnowszych wersji.

Gdy włączona jest technologia Nvidia G-Sync, po zakończeniu przetwarzania kolejnej klatki sceny 3D, procesor graficzny Geforce wysyła specjalny sygnał do wbudowanej w monitorze płyty kontrolera G-Sync i informuje monitor, kiedy należy zaktualizować obraz na ekranie. Pozwala to osiągnąć po prostu idealną płynność i responsywność podczas grania na komputerze PC - możesz to sprawdzić oglądając krótki film (koniecznie w 60 klatkach na sekundę!):

Zobaczmy jak wygląda konfiguracja z włączoną technologią G-Sync, według naszego diagramu:

Jak widać, wszystko jest bardzo proste. Włączenie G-Sync blokuje częstotliwość odświeżania monitora do końca renderowania każdej klatki na GPU. GPU w pełni kontroluje pracę: gdy tylko zakończy renderowanie klatki, obraz od razu wyświetla się na monitorze kompatybilnym z G-Sync, a efektem nie jest stała częstotliwość odświeżania wyświetlacza, ale zmienna - dokładnie tak, jak GPU częstotliwość wyświetlania klatek. Eliminuje to problemy z rozrywaniem obrazu (w końcu zawsze zawiera informacje z jednej klatki), minimalizuje zacinanie się szybkości klatek (monitor nie czeka dłużej, aż klatka zostanie fizycznie przetworzona na GPU) i zmniejsza opóźnienie wyjściowe w porównaniu do metody z V -synchronizacja włączona.

Trzeba przyznać, że graczom najwyraźniej nie było dość takiego rozwiązania; nowy sposób synchronizacji GPU i monitora Nvidia G-Sync naprawdę bardzo mocno wpływa na komfort grania na PC - pojawia się niemal idealna płynność , którego wcześniej nie było - w czasach supermocnych kart graficznych! Od czasu ogłoszenia technologii G-Sync stare metody natychmiast stały się anachroniczne, a przejście na monitor G-Sync obsługujący zmienną częstotliwość odświeżania do 144 Hz wydaje się bardzo atrakcyjną opcją, która pozwala w końcu pozbyć się problemów, opóźnienia i artefakty.

Czy G-Sync ma jakieś wady? Oczywiście, jak każda technologia. Na przykład G-Sync ma nieprzyjemne ograniczenie, które polega na tym, że zapewnia płynne wyświetlanie klatek na ekranie z częstotliwością 30 FPS. Wybrana częstotliwość odświeżania monitora w trybie G-Sync wyznacza górny limit szybkości odświeżania zawartości ekranu. Oznacza to, że przy częstotliwości odświeżania ustawionej na 60 Hz maksymalna płynność zostanie zapewniona przy częstotliwości 30–60 FPS, a przy 144 Hz - od 30 do 144 FPS, ale nie mniej niż dolna granica. A przy zmiennej częstotliwości (na przykład od 20 do 40 FPS) wynik nie będzie już idealny, chociaż jest zauważalnie lepszy niż tradycyjny V-Sync.

Jednak główną wadą G-Sync jest to, że jest to własna technologia Nvidii, do której konkurencja nie ma dostępu. Dlatego na początku tego roku AMD ogłosiło podobną technologię FreeSync, która również polega na dynamicznej zmianie liczby klatek na sekundę monitora zgodnie z przygotowaniem klatek z procesora graficznego. Istotną różnicą jest to, że rozwój AMD jest otwarty i nie wymaga dodatkowych rozwiązań sprzętowych w postaci wyspecjalizowanych monitorów, gdyż FreeSync został przekształcony w Adaptive-Sync, który stał się opcjonalną częścią standardu DisplayPort 1.2a ze znanego organizacja VESA (Stowarzyszenie Standardów Elektroniki Wideo). Okazuje się, że AMD umiejętnie wykorzysta na swoją korzyść motyw opracowany przez konkurenta, gdyż bez pojawienia się i popularyzacji G-Sync nie mieliby, jak nam się wydaje, FreeSync.

Co ciekawe, technologia Adaptive-Sync jest również częścią wbudowanego standardu DisplayPort (eDP) VESA i jest już stosowana w wielu komponentach wyświetlaczy, które wykorzystują eDP do transmisji sygnału. Kolejną różnicą w stosunku do G-Sync jest to, że członkowie VESA mogą korzystać z Adaptive-Sync bez konieczności płacenia. Jest jednak bardzo prawdopodobne, że Nvidia w przyszłości będzie wspierać także Adaptive-Sync w ramach standardu DisplayPort 1.2a, gdyż taka obsługa nie będzie od nich wymagała dużego wysiłku. Ale firma nie zrezygnuje też z G-Sync, uznając własne rozwiązania za priorytet.

Pierwsze monitory z obsługą Adaptive-Sync powinny pojawić się w pierwszym kwartale 2015 roku, będą miały nie tylko porty DisplayPort 1.2a, ale także specjalną obsługę Adaptive-Sync (nie wszystkie monitory z obsługą DisplayPort 1.2a będą mogły się pochwalić Ten). Dlatego też w marcu 2015 roku Samsung planuje wprowadzić na rynek linie monitorów Samsung UD590 (23,6 i 28 cali) oraz UE850 (23,6, 27 i 31,5 cali) obsługujące rozdzielczość UltraHD i technologię Adaptive-Sync. AMD twierdzi, że monitory obsługujące tę technologię będą nawet o 100 dolarów tańsze od podobnych urządzeń ze wsparciem G-Sync, jednak trudno je porównywać, gdyż wszystkie monitory są inne i wychodzą na rynek w różnym czasie. Poza tym na rynku nie ma już tak drogich modeli z G-Sync.

Różnica wizualna i subiektywne wrażenia

Teorię opisaliśmy powyżej, a teraz czas, aby wszystko jasno pokazać i opisać swoje uczucia. Przetestowaliśmy technologię Nvidia G-Sync w praktyce w kilku aplikacjach 3D, korzystając z karty graficznej Inno3D iChill Geforce GTX 780 HerculeZ X3 Ultra i monitora Asus PG278Q obsługującego technologię G-Sync. Na rynku dostępnych jest kilka modeli monitorów obsługujących G-Sync od różnych producentów: Asus, Acer, BenQ, AOC i innych, a w przypadku modelu monitora Asus VG248QE można nawet kupić zestaw, aby zaktualizować go do obsługi G-Sync na Twój własny.

Najmłodszym modelem karty graficznej korzystającej z technologii G-Sync jest Geforce GTX 650 Ti, z niezwykle ważnym wymogiem dotyczącym złącza DisplayPort na pokładzie. Inne wymagania systemowe obejmują system operacyjny co najmniej Microsoft Windows 7, użycie dobrego kabla DisplayPort 1.2 oraz zalecane jest użycie wysokiej jakości myszy o dużej czułości i częstotliwości odpytywania. Technologia G-Sync współpracuje ze wszystkimi pełnoekranowymi aplikacjami 3D, które korzystają z interfejsów graficznych OpenGL i Direct3D w systemach operacyjnych Windows 7 i 8.1.

Do działania nada się każdy nowoczesny sterownik, który – G-Sync od ponad roku wspierany jest przez wszystkie sterowniki firmy. Jeśli posiadasz wszystkie wymagane komponenty, wystarczy włączyć w sterownikach G-Sync, jeśli jeszcze tego nie zrobiono, a technologia będzie działać we wszystkich aplikacjach pełnoekranowych - i tylko w nich, w oparciu o samą zasadę technologii.

Aby włączyć technologię G-Sync dla aplikacji pełnoekranowych i uzyskać najlepsze wrażenia, musisz włączyć częstotliwość odświeżania 144 Hz w Panelu sterowania Nvidia lub w ustawieniach pulpitu systemu operacyjnego. Następnie musisz upewnić się, że korzystanie z tej technologii jest dozwolone na odpowiedniej stronie „Konfiguracja G-Sync”...

A także - wybierz odpowiedni element na stronie „Zarządzaj parametrami 3D” w parametrze „Puls synchronizacji pionowej” globalnych parametrów 3D. Tam możesz także wyłączyć korzystanie z technologii G-Sync do celów testowych lub w przypadku pojawienia się jakichkolwiek problemów (patrząc w przyszłość, nie znaleźliśmy ich podczas naszych testów).

Technologia G-Sync działa we wszystkich rozdzielczościach obsługiwanych przez monitory, aż do UltraHD, jednak w naszym przypadku zastosowaliśmy natywną rozdzielczość 2560x1440 pikseli przy 144 Hz. Do porównań z obecnym stanem rzeczy użyłem trybu częstotliwości odświeżania 60 Hz z wyłączoną funkcją G-Sync, aby emulować zachowanie typowych monitorów bez G-Sync, spotykanych u większości graczy. Większość z nich korzysta z monitorów Full HD obsługujących tryb maksymalny 60 Hz.

Na pewno warto wspomnieć, że choć przy włączonym G-Sync odświeżanie ekranu będzie z idealną częstotliwością – gdy GPU tego „chce”, optymalny tryb nadal będzie renderował z szybkością około 40-60 FPS – to to najodpowiedniejsza liczba klatek na sekundę dla współczesnych gier, niezbyt mała, aby osiągnąć dolną granicę 30 FPS, ale też nie wymagająca obniżania ustawień. Swoją drogą, do takiej częstotliwości dąży program Geforce Experience firmy Nvidia, zapewniający odpowiednie ustawienia dla popularnych gier w oprogramowaniu o tej samej nazwie dołączonym do sterowników.

Oprócz gier wypróbowaliśmy także specjalistyczną aplikację testową firmy Nvidia - . Ta aplikacja pokazuje scenę wahadłową 3D, która jest wygodna do oceny płynności i jakości, pozwala symulować różne liczby klatek na sekundę i wybrać tryb wyświetlania: V-Sync Off/On i G-Sync. Za pomocą tego oprogramowania testowego bardzo łatwo jest pokazać różnicę pomiędzy różnymi trybami synchronizacji - na przykład pomiędzy V-Sync On i G-Sync:

Aplikacja Pendulum Demo pozwala przetestować różne metody synchronizacji w różnych warunkach, symuluje dokładną liczbę klatek na sekundę 60 FPS, aby porównać V-Sync i G-Sync w idealnych warunkach dla przestarzałej metody synchronizacji - w tym trybie po prostu nie powinno być różnica pomiędzy metodami. Jednak tryb 40–50 FPS stawia V-Sync On w niezręcznej sytuacji, gdzie opóźnienia i niepłynne zmiany klatek są widoczne gołym okiem, ponieważ czas renderowania klatek przekracza okres odświeżania przy 60 Hz. Po włączeniu G-Sync wszystko staje się idealne.

Jeśli chodzi o porównywanie trybów z wyłączoną V-Sync i włączoną G-Sync, tutaj także aplikacja Nvidia pomaga dostrzec różnicę - przy częstotliwości klatek pomiędzy 40 a 60 FPS, rozdzieranie obrazu jest wyraźnie widoczne, chociaż opóźnień jest mniej niż przy V- Synchronizuj wł. I nawet niepłynna sekwencja wideo w stosunku do trybu G-Sync jest zauważalna, choć teoretycznie nie powinno tak być - być może w ten sposób mózg postrzega „zepsute” klatki.

Cóż, przy włączonej G-Sync, każdy z trybów aplikacji testowej (stała liczba klatek na sekundę lub zmienna – nie ma to znaczenia) zawsze zapewnia możliwie najpłynniejszą płynność wideo. A w grach wszystkie problemy tradycyjnego podejścia do aktualizacji informacji na monitorze ze stałą częstotliwością odświeżania są czasami jeszcze bardziej zauważalne - w tym przypadku można wyraźnie ocenić różnicę między wszystkimi trzema trybami na przykładzie gry StarCraft II (przeglądanie zapisanego wcześniej nagrania):

Jeśli Twój system i przeglądarka obsługują odtwarzanie wideo w formacie MP4/H.264 z częstotliwością 60 FPS, to wyraźnie zobaczysz, że przy wyłączonym trybie synchronizacji występują wyraźne rozrywanie obrazu, a przy włączonej V-Sync, obserwuje się szarpnięcia i niepłynność obrazu wideo. Wszystko to znika po włączeniu Nvidia G-Sync, w którym nie ma artefaktów w obrazie, nie ma wzrostu opóźnień ani „nierównej” liczby klatek na sekundę.

Oczywiście G-Sync to nie magiczna różdżka i ta technologia nie pozbędzie się opóźnień i spowolnień, które nie są spowodowane procesem wysyłania klatek na monitor o stałej częstotliwości odświeżania. Jeśli sama gra ma problemy z płynnością wyświetlania klatek i dużymi szarpnięciami FPS spowodowanymi ładowaniem tekstur, przetwarzaniem danych na procesorze, nieoptymalną pracą z pamięcią wideo, brakiem optymalizacji kodu itp., to pozostaną na swoim miejscu. Co więcej, staną się jeszcze bardziej zauważalne, ponieważ wydruk pozostałych klatek będzie idealnie gładki. Jednak w praktyce problemy nie zdarzają się zbyt często na wydajnych systemach, a G-Sync naprawdę poprawia odbiór dynamicznego wideo.

Ponieważ nowa technologia wyjściowa Nvidii wpływa na cały potok wyjściowy, teoretycznie może powodować artefakty i nierówną liczbę klatek na sekundę, szczególnie jeśli gra w pewnym momencie sztucznie ogranicza liczbę klatek na sekundę. Prawdopodobnie takie przypadki, jeśli istnieją, są tak rzadkie, że nawet ich nie zauważyliśmy. Zauważyli jednak wyraźną poprawę komfortu grania – grając na monitorze z włączoną technologią G-Sync, można odnieść wrażenie, że PC stał się na tyle mocny, że jest w stanie utrzymać stałą liczbę klatek na sekundę na poziomie co najmniej 60 FPS bez jakiekolwiek wypadki.

Uczucie, jakie towarzyszy graniu na monitorze G-Sync, jest bardzo trudne do opisania słowami. Różnica jest szczególnie zauważalna przy 40-60 FPS – liczbie klatek bardzo częstej w wymagających współczesnych grach. Różnica w porównaniu do konwencjonalnych monitorów jest po prostu niesamowita, a my postaramy się nie tylko wyrazić to słowami i pokazać na przykładach wideo, ale także pokazać wykresy liczby klatek na sekundę uzyskane w różnych trybach wyświetlania.

W grach z takich gatunków jak strategia czasu rzeczywistego i pokrewnych, jak StarCraft II, League of Legends, DotA 2 itp. zalety technologii G-Sync są wyraźnie widoczne, co widać na przykładzie w powyższym filmie . Ponadto takie gry zawsze wymagają szybkiej akcji, która nie toleruje opóźnień i niepłynnej liczby klatek na sekundę, a płynne przewijanie odgrywa dość ważną rolę w komforcie, co znacznie utrudnia rozrywanie obrazu przy wyłączonej synchronizacji V oraz opóźnienia i opóźnienia przy V -Synchronizacja włączona. Technologia G-Sync jest więc idealna do gier tego typu.

Strzelanki pierwszoosobowe, takie jak Crysis 3 i Far Cry 4, są jeszcze bardziej popularne; są również bardzo wymagające pod względem zasobów obliczeniowych, a przy ustawieniach wysokiej jakości gracze często uzyskują liczbę klatek na sekundę na poziomie około 30-60 FPS - idealne do korzystania z G-Sync , co naprawdę znacznie poprawia komfort gry w takich warunkach. Tradycyjna metoda synchronizacji pionowej bardzo często zmusza Cię do generowania klatek z częstotliwością zaledwie 30 FPS, zwiększając opóźnienia i szarpnięcia.

To samo dotyczy gier trzecioosobowych, takich jak Batman, Assassin's Creed i Tomb Raider. Te gry również wykorzystują najnowszą technologię graficzną i wymagają dość wydajnych procesorów graficznych, aby osiągnąć wysoką liczbę klatek na sekundę. Przy maksymalnych ustawieniach w tych grach i wyłączeniu V-Sync, FPS często daje wynik rzędu 30–90, co powoduje nieprzyjemne rozrywanie obrazu. Włączenie V-Sync pomaga tylko w niektórych scenach o niższych wymaganiach dotyczących zasobów, a liczba klatek na sekundę skacze z 30 do 60 kroków, co powoduje spowolnienia i szarpnięcia. Włączenie G-Sync rozwiązuje wszystkie te problemy, co jest wyraźnie zauważalne w praktyce.

Przećwicz wyniki testów

W tej sekcji przyjrzymy się wpływowi G-Sync i V-Sync na liczbę klatek na sekundę – wykresy wydajności dają jasny obraz wydajności różnych technologii. Podczas testów przetestowaliśmy kilka gier, ale nie wszystkie są wygodne, aby pokazać różnicę między V-Sync i G-Sync - niektóre testy porównawcze gier nie pozwalają na wymuszenie V-Sync, inne gry nie mają wygodnego sposobu grając dokładnie według sekwencji gier (niestety większość współczesnych gier), jeszcze inne działają w naszym systemie testowym albo zbyt szybko, albo w wąskich granicach liczby klatek na sekundę.

Zdecydowaliśmy się więc na Just Cause 2 z maksymalnymi ustawieniami, a także kilka testów porównawczych: Unigine Heaven i Unigine Valley – również przy maksymalnych ustawieniach jakości. Szybkość klatek w tych aplikacjach jest dość zróżnicowana, co jest wygodne dla naszego celu pokazania, co dzieje się z wyjściową ramką w różnych warunkach.

Niestety w tej chwili nie dysponujemy systemem programowo-sprzętowym FCAT i nie będziemy w stanie pokazać wykresów rzeczywistych FPS oraz filmów nagranych w różnych trybach. Zamiast tego przetestowaliśmy drugą średnią i chwilową liczbę klatek na sekundę za pomocą dobrze znanego narzędzia przy częstotliwościach odświeżania monitora 60 i 120 Hz, korzystając z metod odświeżania ekranu V-Sync On, V-Sync Off, Adaptive V-Sync i G-Sync technologii przy częstotliwości 144 Hz, aby pokazać wyraźną różnicę pomiędzy nową technologią a obecnymi monitorami 60 Hz z tradycyjną synchronizacją pionową.

G-Sync vs V-Sync włączony

Nasze badanie zaczniemy od porównania trybów z włączoną synchronizacją pionową (V-Sync On) i technologią G-Sync – to najbardziej odkrywcze porównanie, które pokaże różnicę pomiędzy metodami, które nie mają wad rozrywania obrazu. Najpierw przyjrzymy się aplikacji testowej Heaven na maksymalnych ustawieniach jakości w rozdzielczości 2560x1440 pikseli (kliknięcie na miniaturki otwiera wykresy w pełnej rozdzielczości):

Jak widać na wykresie, liczba klatek na sekundę przy włączonym G-Sync i bez synchronizacji jest prawie taka sama, za wyjątkiem częstotliwości powyżej 60 FPS. Ale FPS w trybie z włączoną metodą synchronizacji pionowej jest zauważalnie inny, ponieważ w nim liczba klatek na sekundę może być mniejsza lub równa 60 FPS i wielokrotności liczb całkowitych: 1, 2, 3, 4, 5, 6.. ., ponieważ czasami monitor musi wyświetlać tę samą poprzednią klatkę w kilku okresach aktualizacji (dwa, trzy, cztery itd.). Oznacza to, że możliwe „kroki” wartości liczby klatek na sekundę przy włączonej synchronizacji V i częstotliwości 60 Hz: 60, 30, 20, 15, 12, 10,… FPS.

Gradację tę widać wyraźnie na czerwonej linii wykresu – podczas wykonywania tego testu liczba klatek na sekundę często wynosiła 20 lub 30 FPS, a znacznie rzadziej – 60 FPS. Chociaż przy wyłączonych G-Sync i V-Sync (bez synchronizacji) często mieściło się w szerszym zakresie: 35–50 FPS. Przy włączonej funkcji V-Sync taka częstotliwość wyjściowa nie jest możliwa, dlatego w takich przypadkach monitor zawsze wyświetla 30 klatek na sekundę, co ogranicza wydajność i dodaje opóźnienie do całkowitego czasu wyjściowego.

Należy zaznaczyć, że powyższy wykres nie pokazuje chwilowej liczby klatek na sekundę, ale wartości średnie w ciągu sekundy, a w rzeczywistości FPS może „przeskakiwać” znacznie więcej – prawie każdą klatkę, co powoduje nieprzyjemną niestabilność i opóźnienia. Aby to wyraźnie zobaczyć, prezentujemy kilka wykresów z natychmiastowym FPS, a dokładniej z wykresami czasu renderowania każdej klatki w milisekundach. Przykład pierwszy (linie są lekko przesunięte względem siebie, pokazane jest jedynie przybliżone zachowanie w każdym trybie):

Jak widać, w tym przykładzie liczba klatek na sekundę w przypadku G-Sync zmienia się mniej więcej płynnie, a przy V-Sync On zmienia się stopniowo (w obu przypadkach występują pojedyncze skoki w czasie renderowania - jest to normalne) . Przy włączonej funkcji Vsync czas renderowania klatek i wyjścia może wynosić zaledwie 16,7 ms; 33,3 ms; 50 ms, jak widać na wykresie. W liczbach FPS odpowiada to 60, 30 i 20 klatek na sekundę. Poza tym nie ma szczególnej różnicy między zachowaniem obu linii; w obu przypadkach występują wartości szczytowe. Przyjrzyjmy się innemu znaczącemu okresowi:

W tym przypadku występują wyraźne wahania czasu renderowania klatek, a wraz z nimi FPS w przypadku włączonej synchronizacji pionowej. Spójrz, przy włączonej V-Sync następuje nagła zmiana czasu renderowania klatek z 16,7 ms (60 FPS) na 33,3 ms (30 FPS) i odwrotnie - w rzeczywistości powoduje to bardzo niewygodną niepłynność i wyraźnie widoczne szarpnięcia w sekwencji wideo . Płynność zmian klatek w przypadku G-Sync jest znacznie większa i gra w tym trybie będzie zauważalnie wygodniejsza.

Spójrzmy na wykres FPS w drugiej aplikacji testowej - Unigine Valley:

W tym benchmarku zauważamy to samo co w Niebie. Liczba klatek na sekundę w trybach G-Sync i V-Sync Off jest prawie taka sama (poza szczytem powyżej 60 Hz), a włączona V-Sync powoduje wyraźną skokową zmianę FPS, najczęściej pokazując 30 FPS, czasem spadając do 20 FPS i wzrost do 60 FPS - typowe zachowanie tej metody, powodujące opóźnienia, szarpnięcia i niepłynność materiału wideo.

W tym podrozdziale wystarczy przyjrzeć się wycinkowi z wbudowanego testu gry Just Cause 2:

Ta gra doskonale pokazuje nieadekwatność przestarzałej metody synchronizacji V-Sync On! Gdy liczba klatek na sekundę waha się od 40 do 60-70 FPS, linie G-Sync i V-Sync Off prawie pokrywają się, ale liczba klatek na sekundę przy włączonej V-Sync osiąga 60 FPS tylko w krótkich okresach. Oznacza to, że przy rzeczywistych możliwościach procesora graficznego do grania w 40-55 FPS, gracz będzie zadowolony tylko z 30 FPS.

Co więcej, w części wykresu, w której czerwona linia przeskakuje z 30 na 40 FPS, w rzeczywistości podczas oglądania obrazu widać wyraźną niepłynność liczby klatek na sekundę - przeskakuje z 60 do 30 prawie co klatkę, co wyraźnie nie dodaje płynność i komfort podczas gry. Ale może synchronizacja pionowa lepiej poradzi sobie z częstotliwością odświeżania klatki na poziomie 120 Hz?

G-Sync vs V-Sync 60/120 Hz

Przyjrzyjmy się dwóm trybom włączonej synchronizacji pionowej V-Sync On przy częstotliwości odświeżania obrazu 60 i 120 Hz, porównując je z trybem V-Sync Off (jak zdefiniowaliśmy wcześniej, ta linia jest prawie identyczna z G-Sync). Przy częstotliwości odświeżania 120 Hz do znanych już „kroków” FPS dodawane są kolejne wartości: 120, 40, 24, 17 FPS itd., co może sprawić, że wykres będzie mniej schodkowy. Przyjrzyjmy się liczbie klatek na sekundę w benchmarku Heaven:

Można zauważyć, że częstotliwość odświeżania 120 Hz pomaga w trybie V-Sync On osiągnąć lepszą wydajność i płynniejszą liczbę klatek na sekundę. W przypadkach, gdy przy 60 Hz wykres pokazuje 20 FPS, tryb 120 Hz daje wartość pośrednią co najmniej 24 FPS. A na wykresie wyraźnie widać 40 FPS zamiast 30 FPS. Ale kroków jest nie mniej, ale nawet więcej, więc liczba klatek na sekundę przy aktualizacji 120 Hz, choć zmienia się w mniejszym stopniu, robi to częściej, co również niekorzystnie wpływa na ogólną płynność.

W benchmarku Valley jest mniej zmian, ponieważ średnia liczba klatek na sekundę jest najbliższa poziomowi 30 FPS dostępnemu zarówno dla częstotliwości odświeżania 60, jak i 120 Hz. Sync Off zapewnia płynniejsze klatki, ale z artefaktami wizualnymi, a tryby V-Sync On ponownie pokazują postrzępione linie. W tym podrozdziale musimy tylko przyjrzeć się grze Just Cause 2.

I znowu wyraźnie widać, jak wadliwa jest synchronizacja pionowa, która nie zapewnia płynnej zmiany klatek. Nawet przełączenie na częstotliwość odświeżania 120 Hz zapewnia trybowi V-Sync On zaledwie kilka dodatkowych „kroków” FPS - skoki częstotliwości odświeżania z jednego kroku na drugi nie zniknęły - wszystko to jest bardzo nieprzyjemne podczas oglądania animowane sceny 3D, możesz nam wierzyć na słowo lub jeszcze raz obejrzeć powyższe przykładowe filmy.

Wpływ metody wyjściowej na średnią liczbę klatek na sekundę

Co dzieje się ze średnią liczbą klatek na sekundę, gdy wszystkie te tryby synchronizacji są włączone i jak włączenie V-Sync i G-Sync wpływa na średnią wydajność? Można z grubsza oszacować utratę prędkości nawet na podstawie pokazanych powyżej wykresów FPS, ale przedstawimy również średnie wartości liczby klatek na sekundę, które uzyskaliśmy podczas testów. Pierwszą z nich będzie ponownie Unigine Heaven:

Wydajność w trybach Adaptive V-Sync i V-Sync Off jest prawie taka sama – w końcu prędkość prawie nie wzrasta powyżej 60 FPS. Logiczne jest, że włączenie V-Sync prowadzi również do zmniejszenia średniej liczby klatek na sekundę, ponieważ w tym trybie wykorzystywane są stopniowane wskaźniki FPS. Przy 60 Hz spadek średniej liczby klatek na sekundę wyniósł ponad jedną czwartą, a włączenie 120 Hz przyniosło tylko połowę utraty średniej liczby klatek na sekundę.

Najciekawsze dla nas jest to, jak bardzo spada średnia liczba klatek na sekundę w trybie G-Sync. Z jakiegoś powodu prędkość powyżej 60 FPS jest obcinana, mimo że monitor był ustawiony na tryb 144 Hz, więc prędkość przy włączonym G-Sync była nieco niższa niż w trybie z wyłączoną synchronizacją. Generalnie można założyć, że strat w ogóle nie ma i na pewno nie da się ich porównać z brakiem prędkości przy V-Sync On. Rozważmy drugi punkt odniesienia - Dolinę.

W tym przypadku spadek średniej prędkości renderowania w trybach z włączoną funkcją V-Sync zmniejszył się, ponieważ liczba klatek na sekundę w całym teście była bliska 30 FPS - jeden z „kroków” częstotliwości dla V-Sync w obu trybach: 60 i 120 Hz. Otóż ​​z oczywistych względów straty w drugim przypadku były nieco mniejsze.

Po włączeniu G-Sync średnia liczba klatek na sekundę była ponownie niższa niż odnotowana w wyłączonym trybie synchronizacji, a wszystko z tego samego powodu - włączenie G-Sync „zabiło” wartości FPS powyżej 60. Ale różnica jest niewielka , a nowy tryb Nvidii zapewnia zauważalnie większe prędkości niż przy włączonej funkcji Vsync. Spójrzmy na ostatni wykres – średnia liczba klatek na sekundę w grze Just Cause 2:

W przypadku tej gry tryb V-Sync On ucierpiał znacznie bardziej niż w aplikacjach testowych na silniku Unigine. Średnia liczba klatek na sekundę w tym trybie przy 60 Hz jest ponad półtora raza niższa niż przy całkowicie wyłączonej synchronizacji! Włączenie częstotliwości odświeżania 120 Hz znacznie poprawia sytuację, ale nadal G-Sync pozwala uzyskać zauważalnie lepszą wydajność nawet przy średniej liczbie FPS, nie mówiąc już o komforcie gry, którego nie da się już ocenić samymi liczbami – masz żeby zobaczyć to na własne oczy.

Tak więc w tej sekcji dowiedzieliśmy się, że technologia G-Sync zapewnia liczbę klatek na sekundę zbliżoną do trybu z wyłączoną synchronizacją, a jej włączenie prawie nie ma wpływu na wydajność. W przeciwieństwie do V-Sync, gdy jest włączony, liczba klatek na sekundę zmienia się stopniowo i często występują przeskoki z jednego kroku do drugiego, co powoduje niepłynne ruchy podczas generowania animowanej serii klatek i ma szkodliwy wpływ na komfort w grach 3D.

Innymi słowy, zarówno nasze subiektywne wrażenia, jak i wyniki testów sugerują, że technologia G-Sync firmy Nvidia naprawdę zmienia komfort wizualny gier 3D na lepsze. Nowa metoda pozbawiona jest artefaktów graficznych w postaci rozrywania obrazu składającego się z kilku sąsiadujących ze sobą klatek, co widać w trybie z wyłączoną V-Sync, nie ma też problemów z płynnością przesyłania klatek na monitor i zwiększoną opóźnienia wyjściowe, jak przy włączonym trybie V-Sync.

Wniosek

Biorąc pod uwagę wszystkie trudności związane z obiektywnym pomiarem płynności sygnału wideo, chciałbym najpierw wyrazić subiektywną ocenę. Byliśmy pod wrażeniem wrażeń z gry na karcie Nvidia GeForce i monitorze Asus z obsługą G-Sync. Nawet jednorazowa demonstracja G-Sync „na żywo” naprawdę robi duże wrażenie płynnością zmian klatek, a po długich próbach tej technologii dalsze granie na monitorze ze starymi metodami wyświetlania obrazów staje się bardzo ponure na ekranie.

Być może G-Sync można uznać za największą zmianę w procesie wyświetlania informacji wizualnej na ekranie od dłuższego czasu – w końcu zobaczyliśmy coś naprawdę nowego w połączeniu wyświetlaczy z procesorami graficznymi, co bezpośrednio wpływa na komfort oglądania grafiki 3D, a nawet i tak zauważalnie. A zanim Nvidia ogłosiła technologię G-Sync, przez wiele lat byliśmy przywiązani do przestarzałych standardów wyjściowego obrazu, zakorzenionych w wymaganiach branży telewizyjnej i filmowej.

Oczywiście chciałbym mieć takie możliwości jeszcze wcześniej, ale teraz nie jest zły moment na ich wdrożenie, gdyż w wielu wymagających grach 3D, przy maksymalnych ustawieniach, topowe współczesne karty graficzne zapewniają liczbę klatek na sekundę, przy której korzyści z włączenia G -Synchronizacja stała się maksymalna. A przed pojawieniem się technologii Nvidii realizm osiągany w grach był po prostu „zabijany”, zdecydowanie od najlepszych metod aktualizacji obrazu na monitorze, powodując rozrywanie obrazu, zwiększone opóźnienia i szarpnięcia w liczbie klatek na sekundę. Technologia G-Sync pozwala pozbyć się tych problemów, zrównując liczbę klatek na sekundę na ekranie z szybkością renderowania procesora graficznego (choć z pewnymi ograniczeniami) - procesem tym zarządza teraz sam procesor graficzny.

Nie spotkaliśmy ani jednej osoby, która wypróbowałaby G-Sync w pracy i pozostała niezadowolona z tej technologii. Recenzje pierwszych szczęśliwców, którzy przetestowali tę technologię podczas wydarzenia Nvidii jesienią ubiegłego roku, były całkowicie entuzjastyczne. Dziennikarze z prasy branżowej i twórcy gier (John Carmack, Tim Sweeney i Johan Andersson) również poparli nową metodę wypłaty. Teraz się przyłączamy – po kilku dniach używania monitora z G-Sync nie chcę już wracać do starych urządzeń z przestarzałymi metodami synchronizacji. Ach, gdyby tylko był większy wybór monitorów z G-Sync i gdyby nie były one wyposażone wyłącznie w matryce TN...

Cóż, wśród wad technologii Nvidii można zauważyć, że działa ona z częstotliwością co najmniej 30 FPS, co można uznać za irytującą wadę - byłoby lepiej, gdyby nawet przy 20-25 FPS obraz był wyświetlany wyraźnie po został przygotowany na GPU. Jednak główną wadą tej technologii jest to, że G-Sync jest rozwiązaniem własnym firmy, z którego nie korzystają inni producenci procesorów graficznych: AMD i Intel. Nvidię też można zrozumieć, bo wydali środki na rozwój i wdrożenie technologii oraz negocjowali z producentami monitorów, aby ją wspierali właśnie z chęci zarobienia pieniędzy. Faktycznie, po raz kolejny odegrały rolę motoru postępu technicznego, pomimo rzekomej żądzy zysku firmy. Zdradźmy wielki „sekret”: zysk jest głównym celem każdej komercyjnej firmy, a Nvidia nie jest wyjątkiem.

A jednak przyszłość najprawdopodobniej będzie należeć do bardziej uniwersalnych, otwartych standardów, w istocie podobnych do G-Sync, takich jak Adaptive-Sync, opcjonalna funkcja w DisplayPort 1.2a. Ale na pojawienie się i dystrybucję monitorów z takim wsparciem trzeba będzie jeszcze trochę poczekać - gdzieś do połowy przyszłego roku, a monitory G-Sync różnych firm (Asus, Acer, BenQ, AOC i inne) trafiły już do sprzedaży przez kilka miesięcy, choć niezbyt tanio. Nic nie stoi na przeszkodzie, aby Nvidia w przyszłości wspierała Adaptive-Sync, choć oficjalnie nie skomentowała tego tematu. Miejmy nadzieję, że fani GeForce'a nie tylko teraz będą mieli działające rozwiązanie w postaci G-Sync, ale że w przyszłości będzie można korzystać z dynamicznych częstotliwości odświeżania w ramach ogólnie przyjętego standardu.

Wśród innych wad technologii Nvidia G-Sync dla użytkowników zauważamy, że jej wsparcie po stronie monitora kosztuje producenta określoną kwotę, co również skutkuje wzrostem ceny detalicznej w stosunku do standardowych monitorów. Jednak wśród monitorów G-Sync można znaleźć modele w różnych cenach, w tym takie, które nie są zbyt drogie. Najważniejsze, że są już w sprzedaży i każdy gracz może uzyskać maksymalny komfort grania właśnie teraz, i to na razie tylko przy korzystaniu z kart graficznych Nvidia Geforce - firma ręczy za tę technologię.

Czy masz monitor obsługujący technologię G-SYNC i kartę graficzną NVIDIA? Przyjrzyjmy się, czym jest G-SYNC, jak go włączyć i poprawnie skonfigurować, aby w pełni wykorzystać potencjał i możliwości tej technologii. Pamiętaj, że samo włączenie to nie wszystko.

Każdy gracz wie, czym jest synchronizacja pionowa (V-Sync). Funkcja ta synchronizuje klatki obrazu w taki sposób, aby wyeliminować efekt rozrywania ekranu. Jeśli wyłączysz synchronizację pionową na zwykłym monitorze, zmniejszysz input lag (opóźnienie) i zauważysz, że gra będzie lepiej reagować na Twoje polecenia, ale przez to klatki nie będą odpowiednio synchronizowane i skończy się to rozrywaniem ekranu .

V-Sync eliminuje rozrywanie ekranu, ale jednocześnie powoduje wzrost opóźnienia wyjściowego obrazu w stosunku do sterowania, przez co gra staje się mniej komfortowa. Za każdym razem, gdy poruszasz myszą, wydaje się, że efekt ruchu występuje z niewielkim opóźnieniem. I tu z pomocą przychodzi funkcja G-SYNC, która pozwala wyeliminować obydwa te mankamenty.

Co to jest G-SYNC?

Dość drogim, ale skutecznym rozwiązaniem dla kart graficznych NVIDIA GeForce jest zastosowanie technologii G-SYNC, która eliminuje rozrywanie ekranu bez stosowania dodatkowego opóźnienia wejściowego. Ale do jego realizacji potrzebny jest monitor zawierający moduł G-SYNC. Moduł dostosowuje częstotliwość odświeżania ekranu do ilości klatek na sekundę, dzięki czemu nie ma dodatkowego opóźnienia i wyeliminowany jest efekt rozrywania ekranu.

Wielu użytkowników po zakupie takiego monitora włącza jedynie obsługę NVIDIA G-SYNC w ustawieniach Panelu sterowania NVIDIA, wierząc, że to wszystko, co powinni zrobić. Teoretycznie tak, bo G-SYNC będzie działać, ale jeśli chcesz w pełni zmaksymalizować wykorzystanie tej technologii, to musisz włączyć szereg dodatkowych funkcji związanych z odpowiednim ustawieniem klasycznego V-sync i ograniczeniem FPS w grach do liczba klatek mniejsza niż maksymalna częstotliwość odświeżania monitora. Dlaczego? Tego wszystkiego dowiesz się z poniższych zaleceń.

Włączanie G-SYNC w Panelu sterowania NVIDIA

Zacznijmy od najprostszego rozwiązania podstawowego, czyli od momentu włączenia modułu G-SYNC. Można to zrobić za pomocą Panelu sterowania NVIDIA. Kliknij prawym przyciskiem myszy pulpit i wybierz Panel sterowania NVIDIA.

Następnie przejdź do zakładki Wyświetlacz - Konfiguracja G-SYNC. Tutaj możesz włączyć technologię za pomocą pola „Włącz G-SYNC”. Oznacz to.

Następnie możesz określić, czy będzie działać tylko w trybie pełnoekranowym, czy też będzie można go aktywować w grach działających w trybie okienkowym lub w oknie pełnoekranowym (bez obramowań).

Jeżeli zaznaczysz opcję „Włącz G-SYNC dla trybu pełnoekranowego”, funkcja będzie działać tylko w grach, które mają ustawiony tryb pełnoekranowy (opcję tę można zmienić w ustawieniach poszczególnych gier). Gry działające w trybie okienkowym lub pełnoekranowym nie będą korzystać z tej technologii.

Jeśli chcesz, aby gry okienkowe również korzystały z technologii G-SYNC, włącz opcję „Włącz G-SYNC w trybie okienkowym i pełnoekranowym”. Po wybraniu tej opcji funkcja przechwytuje aktualnie aktywne okno i nakłada na nie swoje działanie, umożliwiając mu obsługę zmodyfikowanego odświeżania ekranu. Aby aktywować tę opcję, może być konieczne ponowne uruchomienie komputera.

Jak sprawdzić, czy ta technologia jest włączona. Aby to zrobić, otwórz menu Wyświetlacz znajdujące się w górnej części okna i zaznacz w nim pole „Wskaźnik G-SYNC”. Po uruchomieniu gry zostaniesz poinformowany, że funkcja G-SYNC jest włączona.

Następnie przejdź do zakładki Zarządzaj ustawieniami 3D w bocznym menu. W sekcji „Ustawienia globalne” znajdź pole „Preferowana częstotliwość odświeżania”.

Ustaw tę opcję na „Najwyższa dostępna”. Niektóre gry mogą narzucać własną częstotliwość odświeżania, co może skutkować niepełnym wykorzystaniem funkcji G-SYNC. Dzięki temu parametrowi wszelkie ustawienia gry będą ignorowane i zawsze włączona będzie możliwość korzystania z maksymalnej częstotliwości odświeżania monitora, która w urządzeniach z G-SYNC wynosi najczęściej 144 Hz.

Ogólnie rzecz biorąc, jest to podstawowa konfiguracja, którą należy wykonać, aby włączyć funkcję G-SYNC. Jeśli jednak chcesz w pełni wykorzystać potencjał swojego sprzętu, warto zapoznać się z poniższą instrukcją.

Co powinienem zrobić z V-SYNC, jeśli mam G-SYNC? Zostawić to włączone czy wyłączyć?

To najczęstszy dylemat posiadaczy monitorów G-SYNC. Powszechnie przyjmuje się, że technologia ta całkowicie zastępuje klasyczną technologię V-SYNC, którą można całkowicie wyłączyć w Panelu sterowania NVIDIA lub po prostu zignorować.

Najpierw musisz zrozumieć różnicę między nimi. Zadanie obu funkcji jest teoretycznie takie samo – przezwyciężenie efektu rozdarcia ekranu. Ale metoda działania jest znacząco inna.

V-SYNC synchronizuje klatki, aby dopasować je do stałej częstotliwości odświeżania monitora. W związku z tym funkcja pełni rolę pośrednika, przechwytując obraz, a tym samym ramkę wyświetlacza, tak aby dostosować je do stałej liczby klatek na sekundę, zapobiegając w ten sposób rozrywaniu obrazu. W rezultacie może to prowadzić do opóźnienia sygnału wejściowego, ponieważ V-SYNC musi najpierw „przechwycić i uporządkować” obraz, a dopiero potem wyświetlić go na ekranie.

G-SYNC działa dokładnie odwrotnie. Dopasowuje nie obraz, ale częstotliwość odświeżania monitora do liczby klatek wyświetlanych na ekranie. Wszystko odbywa się sprzętowo, za pomocą wbudowanego w monitor modułu G-SYNC, dzięki czemu nie ma dodatkowego opóźnienia w wyświetlaniu obrazu, jak ma to miejsce w przypadku synchronizacji pionowej. To jest jego główna zaleta.

Cały problem polega na tym, że G-SYNC działa dobrze tylko wtedy, gdy FPS mieści się w obsługiwanym zakresie częstotliwości odświeżania. Zakres ten obejmuje częstotliwości od 30 Hz do maksymalnej wartości obsługiwanej przez monitor (60 Hz lub 144 Hz). Oznacza to, że technologia ta pracuje w pełni, gdy liczba klatek na sekundę nie spada poniżej 30 i nie przekracza 60 lub 144 klatek na sekundę, w zależności od maksymalnej obsługiwanej częstotliwości odświeżania. Poniższa infografika, stworzona przez BlurBusters, wygląda naprawdę nieźle.

Co się stanie, jeśli liczba klatek na sekundę przekroczy ten zakres? G-SYNC nie będzie w stanie dostosować aktualizacji ekranu, więc wszystko spoza zakresu nie będzie działać. Znajdziesz dokładnie te same problemy, co na zwykłym monitorze bez G-SYNC i zadziała klasyczna synchronizacja pionowa. Jeśli jest wyłączony, nastąpi rozdarcie ekranu. Jeśli jest włączony, nie zobaczysz efektu przerwy, ale pojawi się opóźnienie iput (opóźnienie).

Dlatego w Twoim najlepszym interesie leży trzymanie się zakresu odświeżania G-SYNC, który wynosi co najmniej 30 Hz i maksymalnie maksymalną częstotliwość monitora (najczęściej stosowana jest częstotliwość 144 Hz, ale są też wyświetlacze 60 Hz). Jak to zrobić? Stosowanie odpowiednich parametrów synchronizacji pionowej, a także ograniczenie maksymalnej liczby FPS.

Jaki w takim razie z tego wniosek? W sytuacji, gdy liczba klatek na sekundę spadnie poniżej 30 FPS, należy pozostawić synchronizację pionową nadal włączoną. Są to rzadkie przypadki, ale jeśli tak się stanie, V-SYNC gwarantuje, że nie będzie efektu rozdzierania. W przypadku przekroczenia górnego limitu wszystko jest proste - trzeba ograniczyć maksymalną liczbę klatek na sekundę, aby nie zbliżyć się do górnego limitu, po przekroczeniu włącza się V-SYNC, zapewniając w ten sposób ciągłą pracę G-SYNC .

Dlatego jeśli masz monitor 144 Hz, musisz włączyć ograniczenie FPS na 142, aby uniknąć zbytniego zbliżania się do górnego limitu. Jeśli monitor ma częstotliwość 60 Hz, ustaw limit na 58. Nawet jeśli komputer będzie w stanie wygenerować więcej FPS, nie zrobi tego. Wtedy V-SYNC nie włączy się i będzie aktywny tylko G-SYNC.

Włączanie Vsync w ustawieniach NVIDIA

Otwórz Panel sterowania NVIDIA i przejdź do zakładki „Zarządzaj ustawieniami 3D”. W sekcji Ustawienia globalne znajdź opcję Synchronizacja pionowa i ustaw ją na „Wł.”.

Dzięki temu synchronizacja pionowa zawsze będzie gotowa do włączenia, jeśli FPS spadnie poniżej 30 FPS, a monitor z technologią G-SYNC by sobie z tym nie poradził.

Ogranicz liczbę klatek na sekundę do wartości mniejszej niż maksymalna częstotliwość odświeżania ekranu

Najlepszym sposobem na ograniczenie klatek na sekundę jest użycie programu RTSS (RivaTuner Statistics Server). Oczywiście najlepszym rozwiązaniem jest skorzystanie z limitera wbudowanego w grę, lecz nie każdy takowy posiada.

Pobierz i uruchom program, następnie na liście gier po lewej stronie zaznacz pole Globalne. Tutaj możesz ustawić wspólny ogranicznik dla wszystkich aplikacji. Po prawej stronie znajdź pole „Limit klatek”. Ustaw tutaj limit dla monitorów 144 Hz - odpowiednio 142 FPS, dla urządzeń 60 Hz - 58 FPS.

Po ustawieniu limitu nie będzie opóźnień w włączeniu klasycznej synchronizacji pionowej, a gra stanie się znacznie wygodniejsza.

Najlepsze monitory do gier | Modele obsługujące technologie Nvidia G-Sync

Technologia zmiennej lub adaptacyjnej częstotliwości odświeżania ekranu jest dostępna w dwóch odmianach: AMD FreeSync i Nvidia G-Sync. Pełnią tę samą funkcję - zmniejszają częstotliwość odświeżania źródła (karty graficznej) i wyświetlacza, aby zapobiec irytującemu rozrywaniu klatek podczas szybkich ruchów w grze. FreeSync jest częścią specyfikacji DisplayPort, podczas gdy G-Sync wymaga dodatkowego sprzętu na licencji Nvidii. Implementacja G-Sync zwiększa cenę monitora o około 200 dolarów. Jeśli posiadasz już nowoczesną kartę graficzną GeForce, wybór jest oczywisty. Jeśli nadal nie jesteś zdecydowany, powinieneś wiedzieć, że G-Sync ma jedną zaletę. Gdy liczba klatek na sekundę spadnie poniżej progu G-Sync, który wynosi 40 klatek na sekundę, klatki są duplikowane, aby zapobiec rozrywaniu obrazu. FreeSync nie ma takiej funkcji.


Stół obrotowy


Model AOC G2460PG Asusa RoG PG248Q Dell S2417DG Asus ROG SWIFT PG279Q
Kategoria FHD FHD Jakość HD Jakość HD
Najlepsza cena w Rosji, rub. 24300 28990 31000 58100
Typ panelu/podświetlenia TN/W-LED Matryca krawędziowa TN/W-LED Matryca krawędziowa TN/W-LED Matryca krawędziowa AHVA/W-LED
24" / 16:9 24" / 16:9 24" / 16:9 27" / 16:9
Promień krzywizny NIE NIE NIE NIE
1920x1080 przy 144 Hz 1920x1080 @ 144 Hz, 180 Hz podkręcone 2560 x 1440 @ 144 Hz, 165 Hz podkręcone 2560 x 1440 przy 165 Hz
Zakres działania FreeSync NIE NIE NIE NIE
Głębia kolorów/gama kolorów 8-bitowy (6-bitowy z FRC) / sRGB 8-bitów/sRGB 8-bitów/sRGB 8-bitów/sRGB
Czas reakcji (GTG), ms 1 1 1 4
Jasność, cd/m2 350 350 350 350
Głośniki NIE NIE NIE (2) 2 W
Wejścia wideo (1) DisplayPort (1) DisplayPort v1.2, (1) HDMI v1.4 (1) DisplayPort v1.2, (1) HDMI v1.4
Złącza audio NIE (1) Wyjście słuchawkowe 3,5 mm (1) Wejście stereo 3,5 mm, (1) Wyjście słuchawkowe 3,5 mm (1) Wyjście słuchawkowe 3,5 mm
USB v3.0: (1) wejście, (2) wyjścia; v2.0: (2) wyjścia v3.0: (1) wejście, (2) wyjście v3.0: (1) wejście, (4) wyjście v3.0: (1) wejście, (2) wyjście
Zużycie energii, W 40 typowo 65 maks. 33 typowe Maks. 90, oczekiwane 0,5
559x391-517x237 562x418-538x238 541x363x180 620x553x238
Grubość panelu, mm 50 70 52 66
Szerokość ramy, mm 16-26 11 góra/bok: 6, dół: 15 8-12
Waga (kg 6,5 6,6 5,8 7
Gwarancja 3 lata 3 lata 3 lata 3 lata

Model Acer Predator XB271HK Acer Predator XB321HK Asusa ROG PG348Q Acer Predator Z301CTМ
Kategoria UHD UHD WQHD Jakość HD
Najlepsza cena w Rosji, rub. 43900 62000 102000 58000
Typ panelu/podświetlenia Matryca krawędziowa AHVA/W-LED Matryca brzegowa IPS/W-LED Matryca brzegowa AH-IPS/W-LED AMVA/W-LED, matryca krawędziowa
Współczynnik przekątnej/proporcji ekranu 27" / 16:9 32" / 16:9 34" / 21:9 30" / 21:9
Promień krzywizny NIE NIE 3800 mm 1800 mm
Maksymalna rozdzielczość/częstotliwość aktualizacje 3840 x 2160 przy 60 Hz 3840 x 2160 przy 60 Hz 3440 x 1440 @ 75 Hz, 100 Hz podkręcone 2560 x 1080 @ 144 Hz, 200 Hz podkręcone
Zakres działania FreeSync NIE NIE NIE 8-bitów/sRGB
Głębia kolorów/gama kolorów 10-bitów/sRGB 10-bitów/sRGB 10-bitów/sRGB 10-bitów/sRGB
Czas reakcji (GTG), ms 4 4 5 4
Jasność, cd/m2 300 350 300 300
Głośniki (2) 2 W, DTS (2) 2 W, DTS (2) 2 W (2) 3W, DTS
Wejścia wideo (1) DisplayPort v1.2, (1) HDMI v1.4 (1) DisplayPort, (1) HDMI (1) DisplayPort v1.2, (1) HDMI v1.4 (1) DisplayPort v1.2, (1) HDMI v1.4
Złącza audio (1) Wyjście słuchawkowe 3,5 mm (1) Wyjście słuchawkowe 3,5 mm (1) Wyjście słuchawkowe 3,5 mm (1) Wyjście słuchawkowe 3,5 mm
USB v3.0: (1) wejście, (4) wyjście v3.0: (1) wejście, (4) wyjście v3.0: (1) wejście, (4) wyjście v3.0: (1) wejście, (3) wyjście
Zużycie energii, W 71,5 typowe 56 typowe 100 maks. 34 W przy 200 nitach
Wymiary DxWxS (z podstawą), mm 614x401-551x268 737x452-579x297 829x558x297 714x384-508x315
Grubość panelu, mm 63 62 73 118
Szerokość ramy, mm góra/bok: 8, dół: 22 góra/bok: 13, dół: 20 góra/bok: 12, dół: 24 góra/bok: 12, dół: 20
Waga (kg 7 11,5 11,2 9,7
Gwarancja 3 lata 3 lata 3 lata 3 lata

AOC G2460PG – FHD 24 cale


  • Najlepsza cena w Rosji: 24 300 rubli.

ZALETY

  • Doskonała implementacja G-Sync
  • Częstotliwość odświeżania ekranu 144 Hz
  • Eliminacja rozmycia ruchu ULMB
  • Wysoka jakość wykonania
  • Bardzo wysoka jakość kolorów i skali szarości

WADY

  • Niestandardowa gamma
  • Niewystarczająca jasność dla optymalnej wydajności ULMB
  • Bez napiwku

WERDYKT

Chociaż G-Sync pozostaje opcją premium i kosztowną, AOC G2460PG jest pierwszym monitorem w tym segmencie skierowanym do nabywcy budżetowego. Kosztuje około połowy ceny Asusa ROG Swift, więc możesz zaoszczędzić trochę pieniędzy lub zainstalować na biurku dwa monitory jednocześnie.

Asus RoG PG248Q – FHD 24 cale


  • Najlepsza cena w Rosji: 28 990 rubli.

ZALETY

  • G-Sync
  • 180 Hz
  • Małe opóźnienia
  • Reakcja na coś
  • Dokładność kolorów dzięki kalibracji
  • Elegancki wygląd
  • Jakość wykonania

WADY

  • Aby uzyskać najlepszy obraz, wymagane są regulacje
  • Kontrast
  • Drogi

WERDYKT

PG248Q jest jak egzotyczny samochód sportowy – drogi i niepraktyczny w obsłudze. Ale jeśli podczas instalacji skonfigurujesz prawidłowe ustawienia, uzyskasz doskonałe wrażenia z gry. Pod względem płynności i szybkości reakcji ten monitor jest prawdopodobnie najlepszym, jaki do tej pory testowaliśmy. Jest wart wydanych pieniędzy i czasu. Wysoce polecany.

Dell S2417DG


  • Najlepsza cena w Rosji: 31 000 rub.

    ZALETY

    • Doskonała jakość przetwarzania ruchu
    • Dokładność kolorów przy ustawieniach fabrycznych
    • Rozdzielczość QHD
    • Częstotliwość odświeżania 165 Hz
    • Funkcje gier
    • Rama 6 mm

    WADY

    • Kontrast
    • Dokładność krzywej gamma
    • ULMB zmniejsza moc światła i kontrast
    • Kąty widzenia

    WERDYKT

    Gdyby firma Dell naprawiła problemy z gamma, które napotkaliśmy podczas testów, model S2417DG zdobyłby naszą nagrodę Editor's Choice. Monitor przekazuje ruchy niezwykle płynnie, bez żadnych efektów duchowych, drgań i rozrywania obrazu – nie można od niego oderwać wzroku. Korzyści z funkcji ULMB są niewielkie, ale mimo to są obecne. Nie jest to najtańszy 24-calowy monitor do gier, ale bije na głowę droższych konkurentów i zasługuje na miejsce na liście.

    Asus RoG Swift PG279Q – QHD 27 cali


    • Najlepsza cena w Rosji: 58 100 rubli.

    ZALETY

    • Stabilna praca przy 165 Hz
    • G-Sync
    • Żywe i ostre obrazy
    • Nasycony kolor
    • GraPlus
    • Joystick do menu OSD
    • Stylowy wygląd
    • Wysoka jakość wykonania

    WADY

    • Znaczące zmniejszenie strumienia świetlnego w trybie ULMB
    • Aby uzyskać najlepszą jakość obrazu, wymagana jest kalibracja
    • Drogi

    WERDYKT

    Nowy dodatek Asusa do linii ROG nie jest idealny, ale zdecydowanie warto mu się przyjrzeć. PG279Q ma wszystko, czego potrzebuje entuzjasta, w tym wyraźny i jasny panel IPS, częstotliwość odświeżania 165 Hz i G-Sync. Monitor ten nie jest tani, ale nie słyszeliśmy jeszcze, aby użytkownicy żałowali zakupu. Granie na tym monitorze sprawiało nam przyjemność i prawdopodobnie Tobie też będzie się to podobać.

    Acer Predator XB271HK – UHD 27 cali


    • Najlepsza cena w Rosji: 43 900 rubli.

    ZALETY

    • Bogate kolory
    • Dokładność obrazu przy ustawieniach fabrycznych
    • G-Sync
    • Rozdzielczość Ultra HD
    • Kąty widzenia
    • Jakość wykonania

    WADY

    • Drogi

    Przegląd technologii G-Sync | Krótka historia stałej częstotliwości odświeżania

    Dawno, dawno temu monitory były nieporęczne i zawierały lampy elektronopromieniowe i działa elektronowe. Wyrzutnie elektronowe bombardują ekran fotonami, aby oświetlić kolorowe kropki fosforu, które nazywamy pikselami. Rysują od lewej do prawej każdą linię „skanującą” od góry do dołu. Dostosowywanie prędkości działa elektronowego od jednej pełnej aktualizacji do następnej nie było wcześniej zbyt praktyczne i nie było takiej potrzeby przed pojawieniem się gier 3D. Dlatego CRT i powiązane analogowe standardy wideo zostały zaprojektowane ze stałą częstotliwością odświeżania.

    Monitory LCD stopniowo zastępowały CRT, a złącza cyfrowe (DVI, HDMI i DisplayPort) zastąpiły złącza analogowe (VGA). Jednak stowarzyszenia odpowiedzialne za standaryzację sygnałów wideo (na czele z VESA) nie odeszły od stałych częstotliwości odświeżania. Film i telewizja nadal opierają się na sygnale wejściowym o stałej liczbie klatek na sekundę. Po raz kolejny przejście na zmienną częstotliwość odświeżania nie wydaje się wcale konieczne.

    Regulowana liczba klatek na sekundę i stała częstotliwość odświeżania to nie to samo

    Przed pojawieniem się nowoczesnej grafiki 3D stałe częstotliwości odświeżania nie były problemem dla wyświetlaczy. Ale pojawiło się to, gdy po raz pierwszy zetknęliśmy się z wydajnymi procesorami graficznymi: szybkość, z jaką procesor graficzny renderuje poszczególne klatki (to, co nazywamy liczbą klatek na sekundę, zwykle wyrażaną w FPS lub klatkach na sekundę) nie jest stała. Zmienia się z biegiem czasu. W ciężkich scenach graficznych karta może zapewnić 30 FPS, a patrząc w puste niebo - 60 FPS.

    Wyłączenie synchronizacji powoduje luki

    Okazuje się, że zmienna liczba klatek na sekundę procesora graficznego i stała częstotliwość odświeżania panelu LCD nie współpracują zbyt dobrze. W tej konfiguracji napotykamy artefakt graficzny zwany „łzawieniem”. Występuje, gdy dwie lub więcej częściowych klatek jest renderowanych razem podczas tego samego cyklu odświeżania monitora. Zwykle są one przesunięte, co daje bardzo nieprzyjemny efekt podczas poruszania się.

    Powyższy obrazek przedstawia dwa dobrze znane artefakty, które są powszechne, ale trudne do uchwycenia. Ponieważ są to artefakty wyświetlane, nie zobaczysz ich na zwykłych zrzutach ekranu z gier, ale nasze obrazy pokazują to, co faktycznie widzisz podczas gry. Aby je sfotografować, potrzebujesz aparatu z trybem szybkiego fotografowania. Lub jeśli masz kartę obsługującą przechwytywanie wideo, możesz nagrać nieskompresowany strumień wideo z portu DVI i wyraźnie zobaczyć przejście z jednej klatki do drugiej; Jest to metoda, której używamy w testach FCAT. Opisywany efekt najlepiej jednak obserwować na własne oczy.

    Efekt rozdarcia widoczny jest na obu zdjęciach. Górne zdjęcie zostało wykonane za pomocą kamery, dolne za pomocą funkcji przechwytywania wideo. Dolny obraz jest „przycięty” w poziomie i wygląda na przesunięty. Na dwóch górnych zdjęciach lewe zdjęcie zostało zrobione na ekranie Sharp z częstotliwością odświeżania 60 Hz, prawe zostało zrobione na wyświetlaczu Asus z częstotliwością odświeżania 120 Hz. Łzawienie na wyświetlaczu 120 Hz jest mniej wyraźne, ponieważ częstotliwość odświeżania jest dwukrotnie wyższa. Efekt jest jednak widoczny i wygląda tak samo jak na lewym obrazku. Tego typu artefakt jest wyraźnym sygnałem, że zdjęcia zostały wykonane przy wyłączonej synchronizacji pionowej (synchronizacja pionowa).

    Battlefield 4 na karcie GeForce GTX 770 z wyłączoną synchronizacją pionową

    Drugi efekt widoczny na obrazach BioShock: Infinite to duchy. Jest to szczególnie widoczne w lewym dolnym rogu zdjęcia i wiąże się z opóźnieniem odświeżania ekranu. Krótko mówiąc, pojedyncze piksele nie zmieniają koloru wystarczająco szybko, co powoduje tego typu poświatę. Pojedyncza klatka nie jest w stanie oddać efektu duchów na samą grę. Panele z czasem reakcji od szarego do szarego wynoszące 8 ms, takie jak Sharp, będą generować rozmazany obraz przy każdym ruchu na ekranie. Dlatego te wyświetlacze nie są generalnie zalecane do strzelanek pierwszoosobowych.

    Synchronizacja pionowa: „zmarnowana na mydło”

    Synchronizacja pionowa lub synchronizacja pionowa to bardzo stare rozwiązanie problemu rozrywania obrazu. Gdy ta funkcja jest włączona, karta graficzna próbuje dopasować się do częstotliwości odświeżania ekranu, całkowicie eliminując rozrywanie obrazu. Problem polega na tym, że jeśli Twoja karta graficzna nie jest w stanie utrzymać liczby klatek na sekundę powyżej 60 FPS (na wyświetlaczu 60 Hz), efektywna liczba klatek na sekundę będzie skakać pomiędzy wielokrotnościami częstotliwości odświeżania ekranu (60, 30, 20, 15 FPS itp.) .) itp.), co z kolei doprowadzi do zauważalnych spowolnień.

    Gdy liczba klatek na sekundę spadnie poniżej częstotliwości odświeżania przy włączonej synchronizacji pionowej, wystąpią zacięcia

    Co więcej, ponieważ synchronizacja pionowa powoduje, że karta graficzna czeka i czasami korzysta z niewidocznego bufora powierzchniowego, synchronizacja pionowa może wprowadzić dodatkowe opóźnienie wejściowe do łańcucha renderowania. Zatem synchronizacja pionowa może być zarówno błogosławieństwem, jak i przekleństwem, rozwiązując niektóre problemy, ale powodując inne wady. Nieformalna ankieta przeprowadzona wśród naszych pracowników wykazała, że ​​gracze mają tendencję do wyłączania synchronizacji pionowej i włączają ją tylko wtedy, gdy łzawienie staje się nie do zniesienia.

    Bądź kreatywny: Nvidia przedstawia G-Sync

    Podczas uruchamiania nowej karty graficznej GeForce GTX 680 Nvidia wprowadziła tryb sterownika o nazwie Adaptacyjna synchronizacja pionowa, który próbuje złagodzić problemy, włączając synchronizację pionową, gdy liczba klatek na sekundę przekracza częstotliwość odświeżania monitora i szybko ją wyłączając, gdy wydajność gwałtownie spada poniżej częstotliwości odświeżania. Chociaż technologia dobrze spełniła swoje zadanie, było to obejście, które nie eliminowało rozrywania obrazu, jeśli liczba klatek na sekundę była niższa niż częstotliwość odświeżania monitora.

    Realizacja G-Sync o wiele bardziej interesujące. Ogólnie rzecz biorąc, Nvidia pokazuje, że zamiast zmuszać karty graficzne do pracy ze stałą częstotliwością wyświetlania, możemy zmusić nowe monitory do pracy ze zmienną częstotliwością.

    Liczba klatek GPU określa częstotliwość odświeżania monitora, usuwając artefakty związane z włączaniem i wyłączaniem synchronizacji pionowej

    Mechanizm pakietowego przesyłania danych złącza DisplayPort otworzył nowe możliwości. Dzięki zastosowaniu zmiennych interwałów wygaszania w sygnale wideo DisplayPort i zastąpieniu skalera monitora modułem obsługującym zmienne sygnały wygaszenia, panel LCD może działać ze zmienną częstotliwością odświeżania związaną z liczbą klatek na sekundę wysyłaną przez kartę graficzną (w ramach monitora). częstotliwość odświeżania). W praktyce Nvidia twórczo wykorzystała specjalne funkcje interfejsu DisplayPort i próbowała upiec dwie pieczenie na jednym ogniu.

    Jeszcze przed rozpoczęciem testów chciałbym pochwalić zespół za kreatywne podejście do rozwiązania realnego problemu wpływającego na gry komputerowe. To innowacja w najlepszym wydaniu. Ale jakie są rezultaty G-Sync na praktyce? Dowiedzmy Się.

    Nvidia przesłała nam próbkę techniczną monitora Asusa VG248QE, w którym urządzenie skalujące zastępuje się modułem G-Sync. Ten wyświetlacz już znamy. Artykuł jest mu poświęcony „Recenzja Asus VG248QE: 24-calowy monitor do gier 144 Hz za 400 dolarów”, w którym monitor zdobył nagrodę Tom's Hardware Smart Buy. Teraz czas przekonać się, jak nowa technologia Nvidii wpłynie na najpopularniejsze gry.

    Przegląd technologii G-Sync | 3D LightBoost, wbudowana pamięć, standardy i 4K

    Przeglądając materiały prasowe Nvidii zadawaliśmy sobie wiele pytań, zarówno o miejsce technologii w teraźniejszości, jak i jej rolę w przyszłości. Podczas niedawnej wizyty w siedzibie firmy w Santa Clara nasi koledzy z USA otrzymali kilka odpowiedzi.

    G-Sync i 3D LightBoost

    Pierwszą rzeczą, którą zauważyliśmy, było to, że Nvidia przysłała monitor Asusa VG248QE, zmodyfikowany do obsługi G-Sync. Monitor ten obsługuje także technologię 3D LightBoost firmy Nvidia, która pierwotnie została zaprojektowana w celu zwiększenia jasności wyświetlaczy 3D, ale od dawna jest nieoficjalnie używana w trybie 2D, wykorzystującym pulsujące podświetlenie panelu w celu ograniczenia efektu duchów (lub rozmycia ruchu). Naturalnie stało się interesujące, czy ta technologia jest stosowana G-Sync.

    Nvidia udzieliła odpowiedzi negatywnej. Choć idealnym rozwiązaniem byłoby jednoczesne korzystanie z obu technologii, obecnie strobowanie podświetlenia ze zmienną częstotliwością odświeżania prowadzi do problemów z migotaniem i jasnością. Rozwiązanie ich jest niezwykle trudne, ponieważ trzeba regulować jasność i śledzić impulsy. W rezultacie wybór jest teraz pomiędzy obiema technologiami, choć firma stara się znaleźć sposób na ich jednoczesne wykorzystanie w przyszłości.

    Wbudowana pamięć modułu G-Sync

    Jak już wiemy, G-Sync eliminuje krokowe opóźnienie wejściowe związane z synchronizacją pionową, ponieważ nie ma już potrzeby czekania na zakończenie skanowania panelu. Zauważyliśmy jednak, że moduł G-Sync posiada wbudowaną pamięć. Czy moduł może samodzielnie buforować ramki? Jeśli tak, ile czasu zajmie przebycie ramki przez nowy kanał?

    Według Nvidii ramki nie są buforowane w pamięci modułu. Gdy dane napływają, są one wyświetlane na ekranie, a pamięć wykonuje inne funkcje. Jednak czas przetwarzania dla G-Sync zauważalnie krócej niż jedna milisekunda. Tak naprawdę z niemal takim samym opóźnieniem mamy do czynienia przy wyłączonej synchronizacji pionowej i jest to związane z charakterystyką gry, sterownikiem graficznym, myszą itp.

    Czy G-Sync będzie ustandaryzowany?

    To pytanie padło w niedawnym wywiadzie dla AMD, gdy czytelnik chciał poznać reakcję firmy na technologię G-Sync. Chcieliśmy jednak zapytać bezpośrednio dewelopera i dowiedzieć się, czy Nvidia planuje doprowadzić tę technologię do standardu branżowego. Teoretycznie firma może zaoferować G-Sync jako uaktualnienie standardu DisplayPort, zapewniające zmienne częstotliwości odświeżania. W końcu Nvidia jest członkiem stowarzyszenia VESA.

    Nie planuje się jednak żadnych nowych specyfikacji dla DisplayPort, HDMI ani DVI. G-Sync obsługuje już DisplayPort 1.2, czyli standardu nie trzeba zmieniać.

    Jak wspomniano, Nvidia pracuje nad kompatybilnością G-Sync z technologią, która obecnie nazywa się 3D LightBoost (ale wkrótce będzie miała inną nazwę). Ponadto firma szuka sposobu na obniżenie kosztów modułów G-Sync i uczynić je bardziej dostępnymi.

    G-Sync w rozdzielczościach Ultra HD

    Nvidia obiecuje monitory ze wsparciem G-Sync i rozdzielczości do 3840x2160 pikseli. Jednak model Asusa, któremu dzisiaj przyjrzymy się, obsługuje jedynie rozdzielczość 1920x1080 pikseli. Obecnie monitory Ultra HD wykorzystują kontroler STMicro Athena, który posiada dwa skalery umożliwiające utworzenie wyświetlacza kafelkowego. Zastanawiamy się, czy będzie moduł G-Sync obsługuje konfigurację MST?

    Tak naprawdę wyświetlacze 4K ze zmienną liczbą klatek na sekundę będą musiały jeszcze poczekać. Nie ma jeszcze osobnego urządzenia do skalowania obsługującego rozdzielczość 4K, najbliższe powinno pojawić się w pierwszym kwartale 2014 roku, a wyposażone w nie monitory pojawią się dopiero w drugim kwartale. Ponieważ moduł G-Sync zastępuje urządzenie skalujące, po tym momencie zaczną pojawiać się kompatybilne panele. Na szczęście moduł natywnie obsługuje Ultra HD.

    Monitory NVIDIA G-SYNC są wyposażone w rewolucyjną technologię NVIDIA, która eliminuje rozrywanie ekranu i opóźnienie sygnału wejściowego dzięki synchronizacji klatek VSync i zwiększa możliwości nowoczesnych monitorów, zapewniając najpłynniejszą i najbardziej responsywną rozgrywkę, jaką kiedykolwiek widziałeś.

    W rezultacie sceny z gry pojawiają się natychmiast, obiekty stają się wyraźniejsze, a rozgrywka staje się płynniejsza.

    JAK DZIAŁA NVIDIA G-SYNC?

    NVIDIA® G-SYNC™ to innowacyjne rozwiązanie, które przełamuje stare schematy, tworząc najbardziej zaawansowane i responsywne wyświetlacze komputerowe w historii. Moduł NVIDIA G-SYNC można zainstalować niezależnie lub kupić jako preinstalowany w najnowszych monitorach do gier. Pomaga zapomnieć o rozrywaniu się ekranu, opóźnieniu sygnału wejściowego i drganiach powodujących zmęczenie oczu, które były spowodowane starszymi technologiami, które migrowały z telewizorów analogowych do nowoczesnych monitorów.

    PROBLEM: STARY TECHNOLOGIA MONITORA

    Kiedy wynaleziono telewizory, zastosowano lampy elektronopromieniowe, których działanie polegało na skanowaniu przepływu elektronów po powierzchni lampy pokrytej luminoforem. Wiązka ta powodowała migotanie piksela, a gdy wystarczająca liczba pikseli została aktywowana dość szybko, lampa elektronopromieniowa stwarzała wrażenie wideo w pełnym ruchu. Wierzcie lub nie, ale te wczesne telewizory działały z częstotliwością odświeżania 60 Hz, ponieważ komercyjna częstotliwość prądu przemiennego w Stanach Zjednoczonych wynosi 60 Hz. Dopasowanie częstotliwości odświeżania telewizora do przemysłowej częstotliwości prądu przemiennego ułatwiło budowanie wczesnych urządzeń elektronicznych i zmniejszenie szumów ekranu.

    Do czasu wynalezienia komputerów osobistych na początku lat 80. XX wieku technologia telewizji katodowej była już ugruntowana jako najprostsza i najbardziej opłacalna technologia tworzenia monitorów komputerowych. Częstotliwość odświeżania 60 Hz i stała częstotliwość stały się standardem, a twórcy systemów nauczyli się jak najlepiej wykorzystywać nieidealną sytuację. W ciągu ostatnich trzydziestu lat, gdy technologia telewizji katodowej ewoluowała w kierunku technologii telewizorów LCD i LED, żadna duża firma nie odważyła się rzucić wyzwania temu stereotypowi, a synchronizacja procesora graficznego z częstotliwością odświeżania monitora do dziś pozostaje standardową praktyką branżową.

    Problem polega na tym, że karty graficzne nie renderują obrazów ze stałą częstotliwością. W rzeczywistości liczba klatek na sekundę procesora graficznego będzie się znacznie różnić nawet w tej samej scenie w tej samej grze, w zależności od bieżącego obciążenia procesora graficznego. A jeśli monitory mają stałą częstotliwość odświeżania, to jak przenieść obrazy z procesora graficznego na ekran? Pierwszy sposób polega po prostu na zignorowaniu częstotliwości odświeżania monitora i odświeżeniu obrazu w połowie cyklu. Nazywamy ten tryb wyłączonym VSync i tak domyślnie gra większość graczy. Wadą jest to, że gdy jeden cykl odświeżania monitora obejmuje dwa obrazy, pojawia się bardzo zauważalna „linia przerwania”, powszechnie nazywana rozrywaniem ekranu. Dobrze znanym sposobem zapobiegania rozrywaniu się ekranu jest włączenie technologii VSync, która powoduje, że procesor graficzny opóźnia odświeżanie ekranu do momentu rozpoczęcia nowego cyklu odświeżania monitora. Powoduje to drgania obrazu, gdy częstotliwość odświeżania GPU jest niższa niż częstotliwość odświeżania wyświetlacza. Zwiększa także opóźnienia, co prowadzi do input lag – zauważalnego opóźnienia pomiędzy naciśnięciem klawisza, a pojawieniem się wyniku na ekranie.

    Co gorsza, wielu graczy cierpi na zmęczenie oczu spowodowane drganiami obrazu, a u innych występują bóle głowy i migreny. To doprowadziło nas do opracowania technologii Adaptive VSync, skutecznego rozwiązania, które zostało dobrze przyjęte przez krytyków. Pomimo powstania tej technologii, problem opóźnienia wejściowego nadal pozostaje, co jest nie do przyjęcia dla wielu entuzjastów gier i jest całkowicie nieodpowiednie dla profesjonalnych graczy (e-sport), którzy samodzielnie konfigurują swoje karty graficzne, monitory, klawiatury i myszy, aby zminimalizować irytację opóźnienia między akcją a reakcją.

    ROZWIĄZANIE: NVIDIA G-SYNC

    Poznaj technologię NVIDIA G-SYNC, która eliminuje rozrywanie ekranu, opóźnienie wyświetlania VSync i drgania obrazu. Aby osiągnąć tę rewolucyjną funkcję, stworzyliśmy technologię G-SYNC dla monitorów, która umożliwia synchronizację monitora z liczbą klatek na sekundę procesora graficznego, a nie odwrotnie, co skutkuje szybszym, płynniejszym i pozbawionym łez obrazem, który przenosi rozgrywkę na wyższy poziom. Następny poziom.

    Guru branży John Carmack, Tim Sweeney, Johan Andersson i Mark Rein byli pod wrażeniem technologii NVIDIA G-SYNC. Gracze e-sportu i ligi e-sportu ustawiają się w kolejce, aby skorzystać z technologii NVIDIA G-SYNC, która uwolni ich prawdziwe umiejętności, wymagające jeszcze szybszych reakcji dzięki niezauważalnemu opóźnieniu między akcjami na ekranie a poleceniami z klawiatury. Podczas wewnętrznych testów zapaleni gracze spędzali czas na lunchu, grając w mecze online w sieci LAN przy użyciu monitorów obsługujących G-SYNC, aby wygrać.

    Jeśli posiadasz monitor obsługujący NVIDIA G-SYNC, będziesz miał niezaprzeczalną przewagę nad innymi graczami w grach online, pod warunkiem, że będziesz miał również niski ping.

    REWOLUCYJNE ROZWIĄZANIE JEST TUTAJ

    W czasach cudów technologii niewiele osiągnięć można nazwać naprawdę „innowacyjnymi” lub „rewolucyjnymi”. Jednak NVIDIA G-SYNC jest jednym z niewielu przełomów, które rewolucjonizują przestarzałą technologię monitorów dzięki innowacyjnemu podejściu, którego nigdy wcześniej nie wypróbowano.

    G-SYNC eliminuje opóźnienia sygnału wejściowego, rozrywanie obrazu i drgania, zapewniając oszałamiające wrażenia wizualne na każdym monitorze obsługującym G-SYNC; są tak wspaniałe, że już nigdy nie będziesz chciał używać zwykłego monitora. Oprócz rewolucji wizualnej gracze w trybie wieloosobowym skorzystają z połączenia G-SYNC, szybkiej grafiki GeForce GTX i urządzeń wejściowych o niskim opóźnieniu. To z pewnością zainteresuje fanów strzelanek. Dla sportowców e-sportowych NVIDIA G-SYNC stanowi znaczące ulepszenie. Ponieważ G-SYNC eliminuje opóźnienia wejściowe, sukces lub porażka zależą teraz od graczy, pomagając oddzielić profesjonalistów od amatorów.

    Jeśli ty, podobnie jak sportowcy e-sportowi, pragniesz możliwie najostrzejszych, płynniejszych i najbardziej responsywnych wrażeń w grach, monitory z obsługą NVIDIA G-SYNC będą przełomem, którego nie znajdziesz nigdzie indziej. Prawdziwa innowacja w erze ulepszeń, NVIDIA G-SYNC zrewolucjonizuje sposób, w jaki grasz w gry.



  • Ten artykuł jest również dostępny w następujących językach: tajski

    • Następny

      DZIĘKUJĘ bardzo za bardzo przydatne informacje zawarte w artykule. Wszystko jest przedstawione bardzo przejrzyście. Wydaje się, że włożono dużo pracy w analizę działania sklepu eBay

      • Dziękuję Tobie i innym stałym czytelnikom mojego bloga. Bez Was nie miałbym wystarczającej motywacji, aby poświęcić dużo czasu na utrzymanie tej witryny. Mój mózg jest zbudowany w ten sposób: lubię kopać głęboko, systematyzować rozproszone dane, próbować rzeczy, których nikt wcześniej nie robił i nie patrzył na to z tej perspektywy. Szkoda, że ​​nasi rodacy nie mają czasu na zakupy w serwisie eBay ze względu na kryzys w Rosji. Kupują na Aliexpress z Chin, ponieważ towary tam są znacznie tańsze (często kosztem jakości). Ale aukcje internetowe eBay, Amazon i ETSY z łatwością zapewnią Chińczykom przewagę w zakresie artykułów markowych, przedmiotów vintage, przedmiotów ręcznie robionych i różnych towarów etnicznych.

        • Następny

          W Twoich artykułach cenne jest osobiste podejście i analiza tematu. Nie rezygnuj z tego bloga, często tu zaglądam. Takich powinno być nas dużo. Napisz do mnie Niedawno otrzymałem e-mail z ofertą, że nauczą mnie handlu na Amazon i eBay. Przypomniałem sobie Twoje szczegółowe artykuły na temat tych zawodów. obszar Przeczytałem wszystko jeszcze raz i doszedłem do wniosku, że te kursy to oszustwo. Jeszcze nic nie kupiłem na eBayu. Nie jestem z Rosji, ale z Kazachstanu (Ałmaty). Ale nie potrzebujemy jeszcze żadnych dodatkowych wydatków. Życzę powodzenia i bezpiecznego pobytu w Azji.

    • Miło też, że próby eBay’a zmierzające do rusyfikacji interfejsu dla użytkowników z Rosji i krajów WNP zaczęły przynosić efekty. Przecież przeważająca większość obywateli krajów byłego ZSRR nie posiada dobrej znajomości języków obcych. Nie więcej niż 5% populacji mówi po angielsku. Wśród młodych jest ich więcej. Dlatego przynajmniej interfejs jest w języku rosyjskim - jest to duża pomoc przy zakupach online na tej platformie handlowej. eBay nie poszedł drogą swojego chińskiego odpowiednika Aliexpress, gdzie dokonuje się maszynowego (bardzo niezgrabnego i niezrozumiałego, czasem wywołującego śmiech) tłumaczenia opisów produktów. Mam nadzieję, że na bardziej zaawansowanym etapie rozwoju sztucznej inteligencji wysokiej jakości tłumaczenie maszynowe z dowolnego języka na dowolny w ciągu kilku sekund stanie się rzeczywistością. Póki co mamy to (profil jednego ze sprzedawców na eBayu z rosyjskim interfejsem, ale z angielskim opisem):
      https://uploads.disquscdn.com/images/7a52c9a89108b922159a4fad35de0ab0bee0c8804b9731f56d8a1dc659655d60.png