Є речі, писати про які не просто важко, а дуже важко. Які просто потрібно один раз побачити, ніж сто разів почути про них чи прочитати в Інтернеті. Наприклад, неможливо описати якісь природні дива, на зразок величного Гранд-Каньону чи засніжених Алтайських гір. Можна сто разів дивитися на красиві картинки з їхнім зображенням та милуватися відеороликами, але живих вражень це не замінить.

Тема плавності виведення кадрів на монітор із застосуванням технології Nvidia G-Sync теж відноситься до таких тем - за текстовими описами зміни не здаються такими істотними, але в перші ж хвилини за 3D-грою на системі з відеокартою Nvidia Geforce, підключеної до G-Sync -монітору, стає зрозуміло, наскільки більшим є якісний стрибок. І хоча з моменту анонсу технології минуло вже більше року, технологія не втрачає актуальності, конкурентів у неї досі немає (серед рішень, що вийшли на ринок), а відповідні монітори продовжують випускатися.

Компанія Nvidia вже давно займається питанням поліпшення сприйняття користувачами графічних процесорів Geforce відеоряду в сучасних іграх шляхом підвищення плавності рендерингу. Можна згадати технологію адаптивної синхронізації Adaptive V-Sync, яка є гібридом, що поєднує режими з увімкненою та вимкненою вертикальною синхронізацією (V-Sync On та V-Sync Off, відповідно). У разі, коли GPU забезпечує рендеринг із частотою кадрів менше частоти оновлення монітора, синхронізація відключається, а для FPS, що перевищує частоту оновлення, - включається.

Проблеми плавності за допомогою адаптивної синхронізації вирішилися не всі, але все ж таки це був важливий крок у правильному напрямку. Але чому взагалі знадобилося робити якісь спеціальні режими синхронізації та навіть випускати програмно-апаратні рішення? Що не так у технологіях, які існують уже десятки років? Сьогодні ми розповімо вам про те, як технологія Nvidia G-Sync допомагає усунути всі відомі артефакти виведення зображення на екран, на кшталт розривів зображення, неплавності відеоряду та збільшення затримок.

Забігаючи далеко вперед, можна сказати, що технологія синхронізації G-Sync дозволяє отримати плавну зміну кадрів з максимально можливою продуктивністю і комфортом, що дуже відчутно при грі за таким монітором - це помітно навіть звичайному домашньому користувачеві, а для затятих гравців може означати поліпшення часу реакції, а заразом і ігрових досягнень.

На сьогоднішній день, більшість ПК-гравців використовують монітори з частотою оновлення 60 Гц – типові РК-екрани, найпопулярніші зараз. Відповідно, і при включеній синхронізації (V-Sync On), і при вимкненій - завжди спостерігаються будь-які недоліки, пов'язані з базовими проблемами древніх технологій, про які ми поговоримо далі: високі затримки та ривки FPS при включеному V-Sync і неприємні розриви зображення при вимкненому.

Оскільки затримки і неплавність частоти кадрів сильніше заважають грі і дратують, рідко хто з гравців включає зовсім синхронізацію. І навіть деякі моделі моніторів з частотою оновлення 120 і 144 Гц, що з'явилися на ринку, не можуть допомогти усунути проблеми повністю, вони їх просто роблять дещо менш помітними, оновлюючи вміст екрана вдвічі частіше, але ті ж артефакти присутні: лаги і відсутність тієї самої комфортної плавності.

І оскільки монітори з G-Sync у парі з відповідною відеокартою Nvidia Geforce здатні забезпечити не тільки високу частоту оновлення, але й усунути всі ці недоліки, то придбання подібних рішень можна вважати навіть більш важливим, ніж апгрейд на більш потужний GPU. Але давайте розберемося спочатку з тим, чому взагалі знадобилося робити щось, що відрізняється від давно відомих рішень - у чому тут проблема?

Проблеми існуючих методів відеовиводу

Технології виведення зображення на екран з фіксованою частотою оновлення з'явилися ще з тих часів, коли монітори використовувалися на електронно-променевих трубках (ЕЛТ). Більшість читачів мають їх пам'ятати – пузатенькі такі, як і стародавні телевізори. Ці технології спочатку розроблялися для показу телевізійного зображення з фіксованою частотою кадрів, але у разі пристроїв для виведення 3D-картинки, що динамічно розраховується на ПК, це рішення викликає великі проблеми, не вирішені досі.

Навіть найсучасніші РК-монітори мають фіксовану частоту оновлення зображення на екрані, хоча технологічно ніщо не заважає змінювати картинку на них у будь-який час, з будь-якою частотою (у розумних межах, зрозуміло). Але ПК-гравці з давніх-давен ЕПТ-моніторів змушені миритися з явно неідеальним рішенням проблеми синхронізації частоти кадрів 3D-рендерінгу та частоти оновлення монітора. Варіантів виведення зображення досі було зовсім небагато - два, і вони мають недоліки.

Корінь всіх проблем полягає в тому, що при фіксованій частоті оновлення картинки на моніторі, відеокарта малює кожен кадр за різний час - так виходить через складність сцени, що постійно змінюється, і навантаження на графічний процесор. І час рендерингу кожного кадру є непостійним, він змінюється кожен кадр. Не дивно, що при спробі вивести низку кадрів на монітор виникають проблеми синхронізації, адже деякі з них вимагають значно більше часу на малювання, ніж інші. У результаті виходить різний час підготовки кожного кадру: то 10 мс, то 25 мс, наприклад. А монітори, що існують до появи G-Sync, могли виводити кадри тільки через певний проміжок часу - не раніше, не пізніше.

Справа ускладнюється ще й багатством програмно-апаратних конфігурацій ігрових ПК, у поєднанні з дуже різним навантаженням в залежності від гри, налаштувань якості, налаштувань відеодрайвера і т. д. В результаті, неможливо налаштувати кожну ігрову систему так, щоб підготовка кадрів велася з постійним або хоча б не надто різним часом у всіх 3D-додатках та умовах - як це можливо на ігрових консолях з їхньою єдиною апаратною конфігурацією.

Природно, що на відміну від консолей з їхнім передбачуваним часом рендерингу кадрів, ПК-гравці досі серйозно обмежені можливості досягнення плавного ігрового ряду без відчутних просадок і лагів. В ідеальному (читай - неможливому в реальності) випадку оновлення зображення на моніторі повинно здійснюватися строго після того, як графічним процесором розрахований і підготовлений черговий кадр:

Як бачите, у цьому гіпотетичному прикладі GPU завжди встигає відмалювати кадр доти, як його потрібно передати на монітор - час кадру завжди трохи менше часу між оновленнями інформації на дисплеї, а в перервах графічний процесор трохи відпочиває. Але насправді все зовсім по-іншому - час малювання кадрів сильно відрізняється. Уявіть, якщо GPU не встигає відрендерити кадр за відведений час - тоді кадр необхідно або виводити пізніше, пропустивши одне оновлення зображення на моніторі (вертикальна синхронізація включена - V-Sync On), або виводити кадри частинами при вимкненій синхронізації, і тоді на моніторі одночасно будуть присутні шматки з кількох сусідніх кадрів.

Більшість користувачів вимикають V-Sync, щоб отримати менші затримки та більш плавне виведення кадрів на екран, але це рішення сприяє появі видимих ​​артефактів у вигляді розривів зображення. А з увімкненою синхронізацією розривів картинки не буде, тому що кадри виводяться виключно повністю, але затримка між дією гравця та оновленням зображення на екрані зростає, а частота виведення кадрів виходить дуже нерівномірною, оскільки GPU ніколи не малює кадри у суворій відповідності з часом оновлення картинки. на моніторі.

Ця проблема існує вже багато років і явно заважає комфорту при перегляді результату 3D-рендерінгу, але до деяких пір ніхто так і не спромігся її вирішити. А рішення те в теорії досить просте - потрібно просто виводити інформацію на екран суворо тоді, коли GPU закінчує роботу над наступним кадром. Але спочатку ще докладніше розберемо на прикладах, як саме працюють існуючі технології виведення зображення, і яке рішення пропонує нам компанія Nvidia у своїй технології G-Sync.

Недоліки виведення при вимкненій синхронізації

Як ми вже згадували, абсолютна більшість гравців воліє тримати синхронізацію вимкненої (V-Sync Off), щоб отримати відображення графічних процесорів кадрів на моніторі максимально оперативно і з мінімальною затримкою між дією гравця (натискання клавіш, команди від миші) і їх відображенням. Для серйозних гравців це необхідно для перемог, та й для звичайних у такому разі відчуття будуть приємнішими. Ось так робота з відключеним V-Sync виглядає схематично:

Проблем та затримок із висновком кадрів немає. Але хоча відключена вертикальна синхронізація вирішує проблему лага наскільки це можливо, забезпечуючи мінімальну затримку, разом з цим з'являються артефакти на зображенні - розриви картинки, коли зображення на екрані складається з кількох шматків сусідніх кадрів, графічним процесором. Також помітна і відсутність плавності відеоряду через нерівномірність кадрів, що надходять від GPU на екран - розривів зображення в різних місцях.

Ці розриви зображення виникають в результаті виведення картинки, що складається з двох кадрів, відрендерованих на GPU за час одного циклу оновлення інформації на моніторі. З кількох – коли частота кадрів перевищує частоту оновлення монітора, і з двох – коли приблизно відповідає їй. Подивіться на діаграму, зображену вище - якщо вміст кадрового буфера оновлюється в середині між часом виведення інформації на монітор, то підсумкова картинка на ньому буде спотворена - частина інформації в такому випадку належить до попереднього кадру, а решта - до поточного малюнку.

З відключеною синхронізацією кадри передаються на монітор абсолютно без огляду на частоту та час його оновлення, тому ніколи не збігаються із частотою оновлення монітора. Іншими словами, з відключеним V-Sync на моніторах без підтримки G-Sync завжди спостерігатимуться такі розриви картинки.

Йдеться не тільки про те, що гравцеві неприємно спостерігати смуги, що смикаються по всьому екрану, але й про те, що одночасне відмальовування частин різних кадрів може дезінформувати мозок, що особливо помітно при динамічних об'єктах у кадрі - гравець бачить зрушені відносно один одного частини об'єктів. Міритися з цим доводиться лише тому, що відключення V-Sync забезпечує мінімальні затримки виведення на даний момент, але далеко не ідеальна якість динамічного зображення, як ви можете переконатися на наступних прикладах (на кліку доступні кадри в повній роздільній здатності):

На прикладах вище, знятих за допомогою програмно-апаратного комплексу FCAT, ви можете переконатися, що реальне зображення на екрані може бути складене з шматків кількох сусідніх кадрів - причому іноді і нерівномірно, коли від одного з кадрів береться вузька смужка, а сусідні займають решту ( помітно більшу) частину екрана.

Ще наочніше проблеми з розривом зображення помітні в динаміці (якщо ваша система і/або браузер не підтримує програвання роликів MP4/H.264 у роздільній здатності 1920×1080 пікселів з частотою оновлення 60 FPS, то вам доведеться завантажити їх і переглянути локально, відповідними можливостями):

Як бачите, навіть у динаміці легко помітні неприємні артефакти як розривів картинки. Давайте подивимося, як це виглядає схематично - на діаграмі, де показаний метод виведення при відключеної синхронізації. При цьому кадри надходять на монітор відразу після того, як роботу над їх рендерингом закінчує GPU, і зображення виводиться на дисплей навіть якщо виведення інформації з поточного кадру ще не закінчено повністю - частина буфера, що залишилася, припадає на наступне оновлення екрану. Саме тому кожен виведений на монітор кадр нашого прикладу складається з двох відмальованих на GPU кадрів – з розривом зображення у позначеному червоним кольором місці.

У цьому прикладі перший кадр (Draw 1) малюється графічним процесором в екранний буфер швидше, ніж його час оновлення 16,7 мс - і раніше, ніж зображення буде передано монітору (Scan 0/1). GPU відразу починає роботу над наступним кадром (Draw 2), який і розриває картинку на моніторі, що містить ще половину попереднього кадру.

В результаті у багатьох випадках на зображенні з'являється явно помітна смуга - межа між частковим відображенням сусідніх кадрів. Надалі цей процес повторюється, тому що GPU працює над кожним кадром різну кількість часу, і без синхронізації процесу кадри від GPU та виведені на монітор ніколи не збігаються.

Плюси та мінуси вертикальної синхронізації

При включенні традиційної вертикальної синхронізації (V-Sync On) інформація на моніторі оновлюється тільки тоді, коли робота над кадром повністю закінчена графічним процесором, що виключає розриви в зображенні, адже кадри виводяться на екран виключно повністю. Але, оскільки монітор оновлює вміст лише у певні проміжки часу (залежно від характеристик пристрою виведення), це прив'язка приносить інші проблеми.

Більшість сучасних РК-моніторів оновлюють інформацію із частотою 60 Гц, тобто 60 разів на секунду – приблизно кожні 16 мілісекунд. І з увімкненою синхронізацією час виведення зображення жорстко прив'язаний до частоти оновлення монітора. Але, як ми знаємо, частота рендерингу кадрів на GPU завжди змінна, і час відтворення кожного кадру відрізняється в залежності від складності 3D-сцени, що постійно змінюється, і налаштувань якості.

Воно не може бути завжди рівним 16,7 мс, а буде або менше цього значення або більше. При включеній синхронізації робота графічного процесора над кадрами знову завершується то раніше, то пізніше часу оновлення екрана. У випадку, якщо кадр був відмальований швидше за цей момент, то особливих проблем немає - візуальна інформація просто чекає часу оновлення монітора для виведення кадру на екран повністю, а GPU простоює. А ось якщо кадр не встигає відрендеритися за відведений час, то йому доводиться чекати наступного циклу оновлення зображення на моніторі, що викликає збільшення затримки між діями гравця та візуальним відображенням на екрані. При цьому на екран знову виводиться зображення попереднього "старого" кадру.

Хоча все це відбувається досить швидко, але збільшення затримки візуально легко помітне, і не тільки професійними гравцями. А оскільки час рендерингу кадрів завжди змінний, то включення прив'язки до частоти оновлення монітора викликає ривки при виведенні динамічного зображення, адже кадри виводяться то швидко (рівно частоті оновлення монітора), то вдвічі-втричі-вчетверо повільніше. Розглянемо схематичний приклад такої роботи:

На ілюстрації показано, як кадри виводяться на монітор при увімкненій вертикальній синхронізації (V-Sync On). Перший кадр (Draw 1) малюється графічним процесором швидше, ніж 16,7 мс, тому GPU не переходить до роботи над відображенням наступного кадру, і не розриває зображення, як у випадку V-Sync Off, а чекає на повний виведення першого кадру на монітор. І вже після цього починає малювати наступний кадр (Draw 2).

А ось робота над другим кадром (Draw 2) займає більше часу ніж 16,7 мс, тому після їх закінчення на екран виводиться візуальна інформація з попереднього кадру, і він показується на екрані ще 16,7 мс. І навіть після того, як GPU закінчує роботу над наступним кадром, він не виводиться на екран, оскільки монітор має фіксовану частоту оновлення. Загалом доводиться чекати 33,3 мс для виведення другого кадру, і весь цей час додається до затримки між дією гравця та закінченням виведення кадру на монітор.

До проблеми тимчасового лага додається ще й розрив у плавності відеоряду, помітний за смиканням 3D-анімації. Дуже наочно проблема показана у короткому відеоролику:

Адже навіть найпотужніші графічні процесори у вимогливих сучасних іграх не завжди можуть забезпечити досить високу частоту кадрів, що перевищує типову частоту оновлення моніторів 60 Гц. І, відповідно, не дадуть можливості комфортної гри із включеною синхронізацією та відсутністю проблем на кшталт розриву картинки. Особливо якщо мова про такі ігри, як мережева гра Battlefield 4, дуже вимогливі Far Cry 4 і Assassin Creed Unity у високих дозволах і максимальних ігрових налаштуваннях.

Тобто вибір у сучасного гравця невеликий - або отримуй відсутність плавності та збільшені затримки, або задовольняйся неідеальною якістю картинки з розірваними шматками кадрів. Звичайно, в реальності все виглядає далеко не так погано, адже якось ми грали весь цей час, правда? Але в часи, коли намагаються досягти ідеалу і як і в комфорті, хочеться більшого. Тим більше, що РК-дисплеї мають принципову технологічну можливість виводити кадри тоді, коли на це вкаже графічний процесор. Справа за малим – зв'язати GPU та монітор, і таке рішення вже є – технологія Nvidia G-Sync.

Технологія G-Sync - вирішення проблем у виконанні Nvidia

Отже, більшість сучасних ігор у варіанті з вимкненою синхронізацією викликають розриви картинки, а з включеною – неплавну зміну кадрів та збільшені затримки. Навіть за високої частоти оновлення традиційні монітори не дозволяють позбутися цих проблем. Ймовірно, вибір між двома далеко не ідеальними варіантами виведення кадрів у 3D-додатках за багато років настільки набрид працівникам компанії Nvidia, що вони вирішили позбутися проблем, давши гравцям принципово новий підхід до оновлення інформації на дисплеї.

Різниця між технологією G-Sync і існуючими методами виведення зображення на дисплеї полягає в тому, що час і частота виведення кадрів у випадку варіанта Nvidia визначається графічним процесором Geforce, і вона динамічно змінюється, а не фіксованою, як це було раніше. Інакше кажучи, у разі повне управління виведенням кадрів бере він GPU - щойно він закінчує роботу над черговим кадром, він виводиться на монітор, без затримок і розривів зображення.

Використання такого зв'язку між графічним процесором і спеціальним чином адаптованою апаратною частиною монітора, дає гравцям найкращий метод виведення - просто ідеальний, з точки зору якості, що позбавляє всіх зазначених вище проблем. G-Sync забезпечує ідеально плавну зміну кадрів на моніторі, без затримок, ривків і артефактів, викликаних саме виведенням візуальної інформації на екран.

Природно, G-Sync працює не чарівним чином, і для роботи технології з боку монітора потрібно додати спеціальну апаратну логіку у вигляді невеликої плати, яку поставляє Nvidia.

Компанія працює з виробниками моніторів, щоб ті включили плати G-Sync до їх моделей ігрових дисплеїв. Для деяких моделей є навіть варіант апгрейду руками самого користувача, але такий варіант дорожчий та й не має сенсу, адже простіше відразу купити G-Sync-монітор. Від ПК досить присутності в його конфігурації будь-якої з сучасних відеокарт Nvidia Geforce, та й встановленого G-Sync-оптимізованого відеодрайвера - підійде кожна з нових версій.

При задіянні технології Nvidia G-Sync після закінчення обробки чергового кадру 3D-сцени графічний процесор Geforce посилає спеціальний сигнал у плату контролера G-Sync, вбудовану в монітор, а та вказує монітору, коли потрібно оновити зображення на екрані. Це дозволяє досягти просто ідеальної плавності та чуйності при грі на ПК - ви можете переконатися в цьому, переглянувши коротенький відеоролик (обов'язково при 60 кадрах на секунду!):

Давайте подивимося, як виглядає робота конфігурації з увімкненою технологією G-Sync, за нашою схемою:

Як бачите, все дуже просто. Увімкнення G-Sync прив'язує частоту оновлення монітора до закінчення рендерингу кожного кадру на графічному процесорі. GPU повністю контролює роботу: як тільки він закінчує прорахунок кадру, зображення відразу виводиться на G-Sync-сумісний монітор, і в результаті виходить не фіксована частота оновлення дисплея, а змінна - як частота кадрів GPU. Це усуває проблеми з розривом зображення (адже воно завжди містить інформацію з одного кадру), мінімізує ривки у частоті кадрів (монітор не чекає більше часу, ніж кадр фізично обробляється на GPU) та знижує затримки виводу щодо методу із включеною вертикальною синхронізацією.

Треба сказати, що подібного рішення гравцям явно не вистачало, новий метод синхронізації GPU і монітора Nvidia G-Sync реально дуже позначається на комфорті гри на ПК - з'являється та сама майже ідеальна плавність, якої не було досі - в наш час надпотужних відеокарт! З моменту анонсу технології G-Sync, старі методи вмить стали анахронізмом і апгрейд до G-Sync-монітора, здатного на змінну частоту оновлення до 144 Гц, здається дуже привабливим варіантом, що дозволяє нарешті позбавитися проблем, лагів і артефактів.

Чи є у G-Sync недоліки? Звісно, ​​як і в будь-якій технології. Наприклад, у G-Sync є неприємне обмеження, яке полягає в тому, що вона забезпечує плавне виведення кадрів на екран при частоті від 30 FPS. А вибрана частота оновлення монітора в режимі G-Sync встановлює верхню планку швидкості оновлення вмісту екрана. Тобто, при виставленій частоті оновлення 60 Гц максимальна плавність забезпечуватиметься на частоті 30-60 FPS, а за 144 Гц - від 30 до 144 FPS, але не менше нижньої межі. І при змінній частоті (наприклад, від 20 до 40 FPS), результат вже не буде ідеальним, хоча й помітно краще за традиційний V-Sync.

Але найголовнішим недоліком G-Sync є те, що це власна технологія компанії Nvidia, до якої немає доступу у конкурентів. Тому, на початку року, що минає, компанія AMD анонсувала аналогічну технологію FreeSync - також полягає в динамічній зміні кадрової частоти монітора відповідно до підготовки кадрів від GPU. Важлива відмінність у тому, що розробка AMD відкрита і не вимагає додаткових апаратних рішень у вигляді спеціалізованих моніторів, оскільки FreeSync перетворилася на Adaptive-Sync, що стала опціональною частиною стандарту DisplayPort 1.2a від відомої організації VESA (Video Electronics Standards Association). Виходить, що компанія AMD вміло скористається розробленою конкурентом темою собі на благо, тому що без появи та популяризації G-Sync ніякого FreeSync би у них не було, як нам здається.

Цікаво, що технологія Adaptive-Sync також є частиною стандарту VESA embedded DisplayPort (eDP), і вже застосовується в багатьох компонентах для дисплеїв, в яких використовується eDP для передачі сигналу. Ще одна відмінність від G-Sync - учасники VESA можуть використовувати Adaptive-Sync без необхідності оплати. Втім, ймовірно, що Nvidia в майбутньому також буде підтримувати і Adaptive-Sync, як частина стандарту DisplayPort 1.2a, адже така підтримка не вимагатиме від них особливих зусиль. Але й від G-Sync компанія не відмовиться, оскільки вважає пріоритетними власні рішення.

Перші монітори з підтримкою Adaptive-Sync повинні з'явитися в першому кварталі 2015 року, вони матимуть не лише порти DisplayPort 1.2a, а й спеціальну підтримку Adaptive-Sync (не всі монітори з підтримкою DisplayPort 1.2a зможуть похвалитися цим). Так, компанія Samsung у березні 2015 року планує вивести на ринок лінійки моніторів Samsung UD590 (23,6 та 28 дюймів) та UE850 (23,6, 27 та 31,5 дюймів) з підтримкою дозволу UltraHD та технології Adaptive-Sync. Компанія AMD запевняє, що монітори з підтримкою цієї технології будуть до $100 дешевшими за аналогічні пристрої з підтримкою G-Sync, але їх складно порівнювати, тому що всі монітори різні і виходять у різний час. До того ж, на ринку вже є і не такі вже й дорогі G-Sync-моделі.

Наочна різниця та суб'єктивні враження

Вище ми описали теорію, а тепер настав час показати все наочно та описати свої відчуття. Ми протестували технологію Nvidia G-Sync на практиці в кількох 3D-додатках, використовуючи відеокарту Inno3D iChill Geforce GTX 780 HerculeZ X3 Ultra та монітор Asus PG278Q, що підтримує технологію G-Sync. На ринку продається кілька моделей моніторів з підтримкою G-Sync від різних виробників: Asus, Acer, BenQ, AOC та інших, а для монітора моделі Asus VG248QE можна навіть купити набір для модернізації його підтримки G-Sync власними силами.

Наймолодшою ​​моделлю відеокарти для використання технології G-Sync є Geforce GTX 650 Ti з виключно важливою вимогою роз'єму DisplayPort на борту. З інших системних вимог зазначимо операційну систему як мінімум Microsoft Windows 7, застосування гарного кабелю DisplayPort 1.2, а також рекомендується використання якісної миші з високою чутливістю та частотою опитування. Технологія G-Sync працює з усіма повноекранними 3D-додатками, які використовують графічні API OpenGL та Direct3D під час запуску в операційних системах Windows 7 та 8.1.

Для роботи підійде будь-який сучасний драйвер, який G-Sync вже більше року підтримується всіма драйверами компанії. За наявності всіх необхідних компонентів, потрібно лише включити G-Sync в драйверах, якщо це ще не зроблено, і технологія працюватиме у всіх повноекранних додатках - і тільки в них, виходячи із принципу роботи технології.

Щоб увімкнути технологію G-Sync для повноекранних програм і отримати максимально комфортний результат, потрібно включити частоту оновлення 144 Гц на панелі керування Nvidia або налаштуваннях робочого столу операційної системи. Потім потрібно переконатися в тому, що використання технології дозволено на відповідній сторінці «Налаштування G-Sync».

А також - вибрати відповідний пункт на сторінці "Керування параметрами 3D" у параметрі "Вертикальний синхроімпульс" глобальних параметрів 3D. Там же можна і відключити використання технології G-Sync у тестових цілях або при появі будь-яких проблем (забігаючи вперед - за час нашого тестування таких нами не було виявлено).

Технологія G-Sync працює на всіх дозволах, що підтримуються моніторами, аж до UltraHD, але в нашому випадку ми використовували рідну роздільну здатність 2560×1440 пікселів при 144 Гц. У своїх порівняннях з поточним станом справ використовувався режим із частотою оновлення 60 Гц і відключеною технологією G-Sync, щоб емулювати поведінку типових моніторів без підтримки цієї технології, присутніх у більшості гравців. Більшість із яких використовує Full HD-монітори, здатні максимум режим на 60 Гц.

Обов'язково треба згадати, що хоча при включеному G-Sync оновлення екрану буде на ідеальній частоті - коли цього "хоче" графічний процесор, оптимальним режимом все ж таки буде рендеринг з частотою кадрів близько 40-60 FPS - це найбільш підходяща частота кадрів для сучасних ігор, не надто маленька, щоб упертися в нижню межу 30 FPS, але й не потребує зниження налаштувань. До речі, саме такої частоти прагнуть у програмі Geforce Experience компанії Nvidia, надаючи відповідні налаштування для популярних ігор в однойменному ПЗ, що додається в комплекті з драйверами.

Окрім ігор, ми також випробували і спеціалізований тестовий додаток від Nvidia - . Ця програма показує зручну для оцінки плавності та якості 3D-сцену з маятником, дозволяє імітувати різну частоту кадрів та вибирати режим відображення: V-Sync Off/On та G-Sync. За допомогою цього тестового програмного забезпечення дуже легко показати різницю між різними режимами синхронізації - наприклад, між V-Sync On і G-Sync:

Програма Pendulum Demo дозволяє протестувати різні способи синхронізації в різних умовах, вона імітує точну частоту кадрів 60 FPS для порівняння V-Sync і G-Sync в ідеальних для застарілого способу синхронізації умовах - в цьому режимі різниці між методами просто не повинно бути. А ось режим 40-50 FPS ставить V-Sync On у незручне становище, коли затримки та неплавна зміна кадрів видно неозброєним поглядом, оскільки час рендерингу кадру перевищує період оновлення при 60 Гц. При включенні G-Sync все стає ідеально.

Що стосується порівняння режимів з відключеною V-Sync і включеним G-Sync, то і тут додаток Nvidia також допомагає побачити різницю - при частотах кадрів між 40 і 60 FPS розриви зображення видно чітко, хоча лагів менше, ніж при V-Sync On. І навіть неплавний відеоряд щодо G-Sync режиму помітний, хоча теоретично цього не повинно бути - можливо, так позначається сприйняття мозком «розірваних» кадрів.

Ну а з увімкненим G-Sync будь-який з режимів тестової програми (постійна частота кадрів або змінна - не важливо) завжди забезпечується максимально плавний відеоряд. Та й в іграх всі проблеми традиційного підходу до оновлення інформації на моніторі з фіксованою частотою оновлення часом помітні мало не ще сильніше - в даному випадку ви можете наочно оцінити різницю між усіма трьома режимами на прикладі гри StarCraft II (перегляд раніше збереженого запису):

Якщо ваша система та браузер підтримує програвання формату відео даних MP4/H.264 з частотою 60 FPS, то ви наочно побачите, що в режимі відключеної синхронізації помітні явні розриви картинки, при включенні V-Sync спостерігаються ривки та неплавність відеоряду. Все це зникає при включенні Nvidia G-Sync, при якій немає ні артефактів на зображенні, ні збільшення затримок, ні рваного темпу зміни кадрів.

Звичайно ж, G-Sync - це не чарівна паличка, і від затримок та пригальмовування, викликаних не самим процесом виведення кадрів на монітор з фіксованою частотою оновлення, ця технологія не позбавить. Якщо в самій грі є проблеми з плавністю виведення кадрів і великі ривки в FPS, викликані завантаженням текстур, обробкою даних на CPU, неоптимальною роботою з відеопам'яттю, відсутністю оптимізації коду і т.д., то вони залишаться на місці. Більше того, вони стануть помітні ще сильніше, оскільки виведення інших кадрів буде ідеально плавним. Втім, на практиці на потужних системах проблеми зустрічається не надто часто, і G-Sync реально покращує сприйняття динамічного відеоряду.

Так як нова технологія виведення Nvidia впливає на весь конвеєр виведення, то вона теоретично може викликати артефакти та нерівномірність у частоті кадрів, особливо якщо гра штучно обмежує FPS на будь-якій позначці. Мабуть, такі випадки якщо й є, то такі рідкісні, що ми їх навіть не помітили. Зате відзначили явне покращення комфорту при грі - при грі за монітором із задіяною технологією G-Sync складається таке враження, що ПК став настільки потужнішим, що здатний до постійної частоти кадрів не менше 60 FPS без будь-яких просадок.

Відчуття, що отримуються при грі за G-Sync монітором, дуже складно описати словами. Особливо помітна різниця при 40-60 FPS - частоті кадрів, що дуже часто зустрічається у вимогливих сучасних іграх. Різниця в порівнянні зі звичайними моніторами просто приголомшлива, і ми постараємося не тільки розповісти це словами і показати у відеоприкладах, а й показати графіки частоти кадрів, отримані за різних режимів виведення зображення на дисплей.

В іграх таких жанрів, як стратегії реального часу і подібних, на зразок StarCraft II, League of Legends, DotA 2 і т.д., переваги технології G-Sync відмінно видно, як можна переконатися за прикладом з відеоролика вище. Крім цього, такі ігри завжди вимагають стрімких дій, що не терплять затримок і неплавності в частоті кадрів, а плавний скролінг грає досить важливу роль у комфорті, якому сильно заважають розриви картинки при V-Sync Off, затримки та лаги при V-Sync On. Тож технологія G-Sync ідеально підійде для ігор такого типу.

Ще більше поширені шутери від першої особи, на кшталт Crysis 3 і Far Cry 4, вони заодно є і дуже вимогливими до обчислювальних ресурсів, і при високих налаштуваннях якості гравці в них часто отримують частоту кадрів близько 30-60 FPS - ідеальний варіант для застосування G-Sync, що реально значно покращує комфорт при грі в таких умовах. Традиційний метод вертикальної синхронізації дуже часто змусить виводити кадри з частотою всього лише 30 FPS, збільшуючи лаги і ривки.

Приблизно те саме стосується ігор з виглядом від третьої особи, на кшталт серіалів Batman, Assassin Creed і Tomb Raider. Ці ігри також використовують новітні графічні технології та вимагають досить потужних GPU для досягнення високої частоти кадрів. При максимальних налаштуваннях у цих іграх та відключення V-Sync часто виходить FPS близько 30-90, що викликає неприємні розриви картинки. Увімкнення V-Sync допомагає лише в деяких сценах з меншими вимогами до ресурсів, а частота кадрів скаче від 30 до 60 ступінчасто, що викликає уповільнення та ривки. А включення G-Sync вирішує всі ці проблеми, і це добре помітно на практиці.

Результати практичних тестів

У цьому розділі ми розглянемо вплив G-Sync і V-Sync на частоту кадрів - за графіками продуктивності можна зрозуміти, як працюють різні технології. За час тестування ми перевірили кілька ігор, але далеко не всіма зручно показати різницю між V-Sync і G-Sync - деякі ігрові бенчмарки не дозволяють форсувати V-Sync, інші ігри не мають зручного засобу програвання точної ігрової послідовності (більшість сучасних ігор, на жаль), треті виконуються на нашій тестовій системі або надто швидко або у вузьких межах частоти кадрів.

Так що ми зупинилися на грі Just Cause 2 з максимальними налаштуваннями, а також парою бенчмарків: Unigine Heaven та Unigine Valley - також при максимальних налаштуваннях якості. Частота кадрів у цих додатках змінюється у досить широких межах, що зручно для нашої мети – показати, що відбувається з виведенням кадрів у різних умовах.

На жаль, на даний момент у нас немає програмно-апаратної системи FCAT, і ми не зможемо показати графіки реального FPS і записані відеоролики в різних режимах. Натомість ми провели тестування щосекундної усередненої та миттєвої частоти кадрів за допомогою відомої утиліти при частоті оновлення монітора 60 та 120 Гц з використанням методів оновлення екрану V-Sync On, V-Sync Off, з використанням адаптивної синхронізації Adaptive V-Sync, а також з технологією G-Sync при 144 Гц, щоб показати наочну різницю між новою технологією та нинішніми 60 Гц моніторами із традиційною вертикальною синхронізацією.

G-Sync проти V-Sync On

Почнемо ми наше дослідження з порівняння режимів із включеною вертикальною синхронізацією (V-Sync On) та технологією G-Sync - це найбільш показове порівняння, в якому буде видно різницю між методами, які не мають недоліків у вигляді розриву зображення. Першим ми розглянемо тестовий додаток Heaven при максимальних налаштуваннях якості в роздільній здатності 2560×1440 пікселів (на кліку на зменшених картинках відкриваються графіки в повній роздільній здатності):

Як видно на графіку, частота кадрів при включеному G-Sync і за відсутності синхронізації практично збігається, крім частоти вище 60 FPS. А ось FPS в режимі з увімкненим методом вертикальної синхронізації помітно відрізняється, адже в ньому частота кадрів може бути нижчою або рівною 60 FPS і кратною цілим числам: 1, 2, 3, 4, 5, 6..., оскільки монітору іноді доводиться показувати той самий попередній кадр по кілька періодів оновлення (два, три, чотири тощо). Тобто, можливі «ступені» значення частоти кадрів за V-Sync On і 60 Гц: 60, 30, 20, 15, 12, 10, ... FPS.

Ця ступінчастість відмінно видно по червоній лінії графіка - під час прогону даного тесту, частота кадрів часто дорівнювала 20 або 30 FPS, і значно рідше - 60 FPS. Хоча при G-Sync і V-Sync Off (No Sync) вона часто знаходилася у ширших межах: 35–50 FPS. При включеному режимі V-Sync така частота виведення неможлива, тому монітор показує у разі завжди 30 FPS - обмежуючи продуктивність і додаючи затримки до загального часу виведення.

Слід зазначити, що у графіку вище показано не миттєва частота кадрів, а усереднені значення не більше секунди, а реальності FPS може «стрибати» куди сильніше - майже кожен кадр, що й викликає неприємну неплавність і лаги. Для того щоб побачити це наочно, наведемо пару графіків з миттєвим FPS - точніше, з графіками часу рендерингу кожного кадру в мілісекундах. Перший приклад (лінії дещо зрушені щодо один одного, показано лише зразкову поведінку в кожному режимі):

Як бачите, у цьому прикладі частота кадрів у разі G-Sync змінюється більш-менш плавно, а з V-Sync On - східчасто (поодинокі стрибки часу рендерингу є в обох випадках - це нормально). Для включеної вертикальної синхронізації час рендерингу та виведення кадру може бути 16,7 мс; 33,3 мс; 50 мс, що видно на графіці. У цифрах FPS це відповідає 60, 30 та 20 кадрів за секунду. Крім цього, особливої ​​різниці між поведінкою двох ліній немає, піки є в обох випадках. Розглянемо ще один показовий відрізок часу:

У цьому випадку очевидні «метання» часу рендерингу кадрів, а разом з ними і FPS у випадку з включеною вертикальною синхронізацією. Подивіться, при V-Sync On спостерігається стрибкоподібна зміна часу рендерингу кадру від 16,7 мс (60 FPS) до 33,3 мс (30 FPS) і назад - насправді це викликає ту саму некомфортну неплавність і видимі ривки відеоряду. Плавність зміни кадрів у випадку G-Sync значно вища і грати в такому режимі буде помітно комфортніше.

Розглянемо графік FPS у другому тестовому додатку - Unigine Valley:

У цьому бенчмарку ми відзначаємо приблизно те саме, що й у Heaven. Частота кадрів у режимах G-Sync і V-Sync Off майже збігається (крім піку вище 60 Гц), а включений V-Sync викликає явно ступінчасту зміну FPS, найчастіше показуючи 30 FPS, іноді скочуючи до 20 FPS і підвищуючись до 60 FPS. типова поведінка цього методу, що викликає лаги, ривки та неплавність відеоряду.

У цьому підрозділі нам залишилося розглянути відрізок із вбудованого тесту гри Just Cause 2:

Ця гра відмінно показує всю неповноцінність застарілого методу синхронізації V-Sync On! При частоті кадрів, що змінюється від 40 до 60-70 FPS, лінії G-Sync і V-Sync Off майже збігаються, а ось частота кадрів при V-Sync On доходить до 60 FPS лише на відрізках малої тривалості. Тобто за реальних можливостей GPU для гри на 40-55 FPS гравець буде задовольнятися лише 30 FPS.

Більш того, на ділянці графіка, де червона лінія стрибає від 30 до 40 FPS, насправді при перегляді зображення спостерігається явна неплавність частоти кадрів - вона стрибає від 60 до 30 чи не кожен кадр, що явно не додає плавності та комфорту під час гри. Але чи може бути з частотою оновлення кадрів 120 Гц вертикальна синхронізація впорається краще?

G-Sync проти V-Sync 60/120 Гц

Розглянемо два режими включеної вертикальної синхронізації V-Sync On при 60 і 120 Гц частоті оновлення зображення, порівнявши їх з режимом V-Sync Off (як ми визначили раніше, ця лінія практично ідентична G-Sync). При частоті оновлення 120 Гц до вже відомих нам «ступеням» FPS додається більше значень: 120, 40, 24, 17 FPS і т.д., що може зробити графік менш ступінчастим. Подивимося на частоту кадрів у бенчмарку Heaven:

Помітно, що частота оновлення 120 Гц допомагає режиму V-Sync On досягти кращої продуктивності та більш плавної зміни частоти кадрів. У випадках, коли при 60 Гц на графіку спостерігається 20 FPS, режим 120 Гц дає проміжне значення хоча б 24 FPS. І 40 FPS замість 30 FPS на графіку очевидно помітні. Але сходинок стало не менше, а навіть більше, так що частота кадрів при 120 Гц оновленні хоч і змінюється на меншу величину, але робить це частіше, що також несприятливо позначається на загальній плавності.

У бенчмарку Valley змін менше, тому що середня частота кадрів найближча до ступеня 30 FPS, доступною для обох режимів: з частотою оновлення 60 і 120 Гц. Вимкнена синхронізація забезпечує більш плавну зміну кадрів, але з візуальними артефактами, а режими V-Sync On знову показують ступінчасті лінії. У цьому підрозділі нам залишилося переглянути гру Just Cause 2.

І знову ми наочно бачимо, як ущербна вертикальна синхронізація, яка не забезпечує плавної зміни кадрів. Навіть перехід на 120 Гц частоту оновлення дає режиму V-Sync On просто лише кілька додаткових «сходів» FPS - стрибки частоти кадрів туди-сюди від одного ступеня до іншого нікуди не поділися - все це дуже неприємно відчувається при перегляді анімованих 3D-сцен, можете повірити нам на слово або знову переглянути приклади відеороликів вище.

Вплив методу виведення на середню частоту кадрів

А що виходить із середньою частотою кадрів при включенні всіх цих режимів синхронізації, як впливає на середню продуктивність включення V-Sync та G-Sync? Приблизно прикинути втрати швидкості можна навіть за графіками FPS, наведеними вище, але ми наведемо і середні значення частоти кадрів, отримані нами при тестуванні. Першою знову буде Unigine Heaven:

Показники в режимах Adaptive V-Sync та V-Sync Off практично збігаються – адже вище 60 FPS швидкість майже не підвищується. Логічно, що включення V-Sync призводить до зниження середньої частоти кадрів, так як в цьому режимі використовуються ступінчасті показники FPS. При 60 Гц падіння середньої частоти кадрів становило понад чверть, а включення 120 Гц повернуло лише половину втрат у середньому FPS.

Найцікавіше для нас – наскільки знижується середня частота кадрів у режимі G-Sync. З якоїсь причини швидкість вище 60 FPS ріжеться, хоча на моніторі був виставлений режим 144 Гц, тому і швидкість при включенні G-Sync виявилася трохи нижче режиму з відключеною синхронізацією. В цілому можна вважати, що втрат немає зовсім, і їх точно не можна порівняти з недоліком швидкості при V-Sync On. Розглянемо другий бенчмарк – Valley.

В цьому випадку падіння середньої швидкості рендерингу в режимах з включеним V-Sync знизилося, так як частота кадрів весь час тесту була близька до значення 30 FPS - одного з "ступенів" частоти для V-Sync в обох режимах: 60 і 120 Гц. Ну і зі зрозумілих причин втрати у другому випадку виявилися трохи нижчими.

При включенні G-Sync середня частота кадрів знову вийшла меншою за ту, що зазначена в режимі відключеної синхронізації, все з тієї ж причини - включення G-Sync «зарізало» значення FPS вище 60. Але різниця невелика, і новий режим Nvidia забезпечує помітно більшу швидкість , ніж при увімкненій вертикальній синхронізації. Подивимося останню діаграму – середньої частоти кадрів у грі Just Cause 2:

У разі цієї гри режим V-Sync On постраждав значно сильніше, ніж у тестових додатках на двигуні Unigine. Середня частота кадрів у цьому режимі при 60 Гц більш ніж у півтора рази нижча, ніж при відключеній синхронізації зовсім! Включення частоти оновлення 120 Гц сильно покращує положення, але все ж таки G-Sync дозволяє досягти помітно більшої продуктивності навіть у середніх цифрах FPS, не кажучи вже про комфортність гри, яку тепер не оцінити одними лише цифрами - треба дивитися на власні очі.

Отже, у цьому розділі ми з'ясували, що технологія G-Sync забезпечує частоту кадрів, наближену до режиму з відключеною синхронізацією, і її включення майже не впливає на продуктивність. На відміну від вертикальної синхронізації V-Sync, при включенні якої частота кадрів змінюється ступінчасто, а найчастіше спостерігаються стрибки від одного ступеня до іншого, що викликає неплавні рухи при виведенні ряду анімованого кадрів і згубно позначається на комфорті в 3D-іграх.

Іншими словами, і наші суб'єктивні враження та тестові результати говорять про те, що технологія G-Sync від компанії Nvidia дійсно змінює візуальний комфорт від 3D-ігор на краще. Новий метод позбавлений як графічних артефактів у вигляді розривів картинки, що складається з кількох сусідніх кадрів, як ми бачимо в режимі з відключеним V-Sync, так і проблем з плавністю виведення кадрів на монітор і збільшенням затримок виведення, як у режимі V-Sync On.

Висновок

При всіх складностях об'єктивного вимірювання плавності відеовиводу спочатку хочеться висловити суб'єктивну оцінку. Ми були дуже вражені комфортністю гри на Nvidia Geforce та моніторі з підтримкою G-Sync від компанії Asus. Навіть разова «жива» демонстрація G-Sync справді справляє сильне враження плавністю зміни кадрів, а після тривалої спроби цієї технології, продовжувати грати на моніторі зі старими методами виведення зображення на екран стає дуже сумно.

Мабуть, G-Sync можна вважати найбільшою зміною в процесі виведення візуальної інформації на екран за тривалий час - нарешті ми побачили щось дійсно нове у зв'язку дисплеїв та графічних процесорів, що безпосередньо впливає на комфортність сприйняття 3D-графіки та ще й і так помітно. А до анонсу технології G-Sync компанією Nvidia ми протягом довгих років були прив'язані до застарілих стандартів виведення зображення, які ведуть своє коріння від вимог ТВ- та кіноіндустрії.

Звичайно, хотілося б отримати подібні можливості ще раніше, але і зараз час для її впровадження непоганий, так як у багатьох вимогливих 3D-іграх при максимальних налаштуваннях сучасні топові відеокарти забезпечують таку частоту кадрів, при якій переваги від включення G-Sync стають максимальними. І до появи технології від Nvidia досягнутий в іграх реалізм просто «вбивався» далеко не найкращими способами оновлення картинки на моніторі, що викликають розриви зображення, збільшені затримки та ривки у частоті кадрів. Технологія G-Sync дозволяє позбутися зазначених проблем, прирівнявши частоту виведення кадрів на екран до швидкості рендерингу графічного процесора (хоч і з деякими обмеженнями) - цим процесом тепер управляє сам GPU.

Ми не зустрічали жодної людини, яка спробувала G-Sync у роботі і залишилася незадоволеною цією технологією. Відгуки перших щасливців, які протестували роботу технології на заході Nvidia восени минулого року, були захоплені. Підтримали журналістів зі спеціалізованої преси та ігрові розробники (John Carmack, Tim Sweeney та Johan Andersson) – вони також дали виключно позитивні відгуки новому методу виведення. До яких тепер приєднуємося і ми після кількох днів використання монітора з G-Sync, на старі пристрої з давно застарілими методами синхронізації повертатися не хочеться. Ах, якби вибір моніторів з G-Sync був більшим, і не були б вони оснащені виключно TN-матрицями.

Ну а з мінусів технології від Nvidia ми можемо відзначити те, що вона працює при частоті кадрів не менше 30 FPS, що можна вважати прикрим недоліком - було б краще, якби і за 20-25 FPS зображення виводилося б чітко після його підготовки на GPU . Але головний мінус технології в тому, що G-Sync – власне рішення компанії, яке не застосовується іншими виробниками графічних процесорів: AMD та Intel. Зрозуміти Nvidia теж можна, адже вони витратили ресурси на розробку та впровадження технології та домовлялися з виробниками моніторів про її підтримку саме з бажанням заробити. Власне, вони в черговий раз виступили двигуном технічного прогресу, незважаючи на уявну багатьом нібито жадібність компанії до прибутку. Відкриємо великий «секрет»: прибуток є головною метою будь-якої комерційної компанії, і Nvidia – не виняток.

І все ж таки, майбутнє швидше за більш універсальними відкритими стандартами, аналогічними G-Sync по суті, на зразок Adaptive-Sync - опціональної можливості в рамках DisplayPort 1.2a. Але появи та розповсюдження моніторів з такою підтримкою доведеться почекати ще якийсь час – десь до середини наступного року, а G-Sync-монітори від різних компаній (Asus, Acer, BenQ, AOC та інші) вже продаються протягом кількох місяців , хоч і не дуже дешево. Ніщо не заважає Nvidia в майбутньому підтримати навіть Adaptive-Sync, хоча офіційно вони з цієї теми коментарів не давали. Сподіватимемося, що у шанувальників Geforce не тільки зараз є робоче рішення у вигляді G-Sync, а й у майбутньому з'явиться можливість використовувати динамічну частоту оновлення ще й у рамках загальноприйнятого стандарту.

Серед інших недоліків технології Nvidia G-Sync для користувачів відзначимо те, що її підтримка з боку монітора коштує виробнику суму, яка виливається і у збільшення роздрібної ціни щодо стандартних моніторів. Втім, серед G-Sync-моніторів є моделі різної вартості, в тому числі не надто дорогі. Головне, що вони вже продаються, і кожен гравець може отримати максимум комфорту при грі прямо зараз, і поки що лише при використанні відеокарт Nvidia Geforce – за цю технологію компанія ручається.

У вас є монітор з підтримкою G-SYNC та відеокарта NVIDIA? Розглянемо, що таке G-SYNC як її включити та правильно налаштувати, щоб повною мірою використати потенціал та можливості цієї технології. Майте на увазі, що саме її включення це ще не все.

Кожному геймеру відомо, що таке вертикальна синхронізація (V-Sync). Ця функція синхронізує кадри зображення таким чином, щоб уникнути ефекту розриву екрана. Якщо відключити вертикальну синхронізацію на звичайному моніторі, то зменшитися input lag (затримка) при цьому помітите, що гра краще реагуватиме на ваші команди, але тим самим кадри не будуть відповідним чином синхронізовані і дійде до розриву екрана (screen tearing).

V-Sync усуває розриви екрана, але викликає одночасно збільшення затримки виведення картинки щодо керування, тому грати ставати менш комфортно. Щоразу, коли переміщаєте мишу, з'являється враження, що ефект руху відбувається з невеликою затримкою. І тут на допомогу приходить функція G-SYNC, яка дозволяє усунути ці обидві недоліки.

Що являє собою G-SYNC?

Досить дорогим, але ефективним рішенням для відеокарт NVIDIA GeForce є використання технології G-SYNC, яка усуває розрив екрана без використання додаткової затримки (input lag). Але її реалізації потрібен монітор, який включає модуль G-SYNC. Модуль підлаштовує частоту оновлення екрана до кількості кадрів за секунду, завдяки чому не виникає додаткова затримка та виключається ефект розриву екрана.

Багато користувачів після покупки такого монітора тільки включають підтримку NVIDIA G-SYNC в налаштуваннях панелі управління NVIDIA з переконанням, що це все, що має зробити. Теоретично так, тому що G-SYNC працюватиме, але якщо хочете повністю максимізувати використання цієї технології, то потрібно задіяти ряд додаткових функцій, пов'язаних з відповідним налаштуванням класичної вертикальної синхронізації та обмеженням FPS в іграх до числа меншого на кілька кадрів, ніж максимальна частота оновлення монітора. Чому? Все це дізнаєтесь із наступних рекомендацій.

Увімкнення G-SYNC на панелі керування NVIDIA

Почнемо з найпростішого базового рішення, тобто з включення модуля G-SYNC. Це можна зробити за допомогою панелі керування NVIDIA. Клацніть правою кнопкою миші на робочому столі та виберіть NVIDIA Control Panel (Панель управління NVIDIA).

Потім перейдіть на вкладку Дисплей – Настройка G-SYNC. Тут зможете включити технологію за допомогою поля Enable G-SYNC. Позначте його.

Потім зможете вказати, чи працюватиме лише у повноекранному режимі, або може також активувати в іграх, запущених у віконному режимі або повноекранного вікна (без меж).

Якщо виберіть опцію «Enable G-SYNC for full screen mode», функція буде працювати лише в іграх, які мають встановлений режим на весь екран (цю опцію можна змінити в налаштуваннях конкретних ігор). Ігри у віконному режимі або повноекранного вікна не використовуватимуть цю технологію.

Якщо хочете, щоб "віконні" ігри також використовували технологію G-SYNC, то увімкніть опцію "Enable G-SYNC для windowed and full screen mode". Коли вибрано цей параметр, функція перехоплює поточне активне вікно і накладає на нього дію, активуючи в ньому підтримку зміненого оновлення екрана. Для активації цієї опції можливо потрібне перезавантаження комп'ютера.

Як перевірити, чи ця технологія включена. Для цього відкрийте меню Display у верхній частині вікна та позначте в ньому поле G-SYNC Indicator. Завдяки цьому ви будете проінформовані про те, що G-SYNC увімкнений при запуску гри.

Потім перейдіть на вкладку «Manage 3D Settings» (Керування параметрами 3D) у бічному меню. У розділі Global Settings (Загальні налаштування) знайдіть поле Preferred refresh rate (Переважна частота оновлення екрана).

Встановіть значення «Highest available» (Максимальне можливе). Деякі ігри можуть нав'язувати свою частоту оновлення, це може призвести до того, що G-SYNC не буде повністю задіяний. Завдяки цьому параметру всі налаштування гри будуть проігноровані і завжди буде включено можливість використання максимальної частоти оновлення монітора, яка в пристроях з G-SYNC найчастіше становить 144Гц.

Загалом це базове налаштування, яке потрібно виконати, щоб увімкнути G-SYNC. Але, якщо ви хочете повною мірою використати потенціал свого обладнання, слід ознайомитися з подальшими інструкціями.

Що робити з V-SYNC, якщо я маю G-SYNC? Залишити увімкненим або вимкнути його?

Це найпоширеніша дилема власників моніторів із G-SYNC. Вважають, що ця технологія повністю замінює класичну V-SYNC, яку можна повністю відключити в панелі управління NVIDIA або просто проігнорувати.

Спочатку потрібно зрозуміти різницю між ними. Завдання обох функцій теоретично те саме – подолання ефекту розриву екрана. Але спосіб дії суттєво відрізняється.

V-SYNC синхронізує кадри, підлаштовуючи їх до постійної частоти оновлення монітора. Отже, функція діє як посередник, захоплюючи картинку і, відповідно, відображення кадру, так щоб адаптувати їх до постійної частоти кадрів, тим самим запобігти розриву зображення. У результаті це може призвести до виникнення input lag (затримки), тому що V-SYNC спочатку повинен "захопити і впорядкувати" зображення, а потім його вивести на екран.

G-SYNC працює точно навпаки. Підстроює не зображення, а частоту оновлення монітора до кількості кадрів, що відображаються на екрані. Все робиться апаратно за допомогою модуля G-SYNC, вбудованого в монітор, тому не виникає додаткова затримка зображення, як це має місце у випадку з вертикальною синхронізацією. У цьому її основна перевага.

Вся проблема полягає в тому, що G-SYNC працює добре тільки у випадку, коли FPS знаходиться в діапазоні частот оновлення, що підтримується. Цей діапазон захоплює частоти від 30 Гц до значення, скільки максимально підтримує монітор (60Гц або 144Гц). Тобто ця технологія працює в повну міру, коли FPS не падає нижче 30 і не перевищує 60 або 144 кадрів в секунду в залежності від частоти оновлення, що максимально підтримується. Виглядає дуже добре, наведена нижче інфографіка створена сервісом BlurBusters.

Що станеться, якщо частота кадрів за секунду вийде за межі цього діапазону? G-SYNC не зможе налаштувати оновлення екрана, тому що за межами діапазону не працює. Ви виявите такі самі проблеми як на звичайному моніторі без G-SYNC і працюватиме класична вертикальна синхронізація. Якщо вона буде вимкнена, виникнуть розриви екрана. Якщо буде увімкнено, то ефекту розриву не побачите, але з'явиться iput lag (затримка).

Тому у ваших інтересах залишатися в діапазоні оновлення G-SYNC, що становить мінімум 30 Гц і максимум від того, скільки максимально підтримує монітор (найчастіше 144 Гц, але є дисплеї 60 Гц). Як це зробити? За допомогою відповідних параметрів вертикальної синхронізації та через обмеження максимальної кількості FPS.

Який, отже, із цього висновок? У ситуації, коли кількість кадрів за секунду падає нижче 30 FPS потрібно залишити, як і раніше, увімкнену вертикальну синхронізацію. Це рідкісні випадки, але якщо до них дійде, V-SYNC гарантує, що не виникне ефект розриву картинки. Якщо перевищена верхня межа, то тут все просто – потрібно обмежити максимальну кількість кадрів за секунду, щоб не наближатися до верхньої межі, при перетині якої включається V-SYNC, забезпечуючи безперервну роботу G-SYNC.

Отже, якщо у вас монітор 144 Гц потрібно увімкнути обмеження FPS на рівні 142, щоб не наближатися до верхньої межі. Якщо монітор 60 Гц – встановіть межу 58. Якщо навіть комп'ютер може зробити більше FPS, він цього не зробить. Тоді не ввімкнеться V-SYNC і буде активний лише G-SYNC.

Увімкнення вертикальної синхронізації в налаштуваннях NVIDIA

Відкрийте панель керування NVIDIA і перейдіть на вкладку «Manage 3D Settings» (Керування параметрами 3D). У розділі Global Setting знайдіть опцію Vertical Sync (Вертикальна синхронізація) та встановіть опцію On (Увімкнено).

Завдяки цьому, вертикальна синхронізація буде завжди готова ввімкнеться, якщо FPS впаде нижче 30 FPS, і монітор з технологією G-SYNC з цим не впорався б.

Обмеження FPS менше значення, ніж максимальна частота оновлення екрана

Найкращим способом обмеження кадрів за секунду є використання програми RTSS (RivaTuner Statistics Server). Безумовно, найкращим рішенням є використання обмежувача, вбудованого в гру, але не у всіх він є.

Завантажте та запустіть програму, потім у списку ігор з лівого боку позначте поле Global. Тут можна встановити загальний обмежувач для всіх програм. З правого боку знайдіть поле "Framerate limit". Встановіть тут ліміт для моніторів 144Гц - 142 FPS, відповідно для пристроїв 60Гц -58 FPS.

Коли встановлено ліміт, то не виникатиме затримка з активацією класичною вертикальною синхронізацією і грати стане набагато комфортніше.

Найкращі монітори для ігор | Моделі з підтримкою технологій Nvidia G-Sync

Технологія змінної або адаптивної частоти оновлення екрана представлена ​​двома різновидами: AMD FreeSync та Nvidia G-Sync. Вони виконують ту саму функцію – зводять частоту оновлення джерела (відеокарти) та дисплея, щоб запобігти дратівливим розривам кадрів під час швидких рухів у грі. FreeSync є частиною специфікації DisplayPort, а G-Sync вимагає додаткових апаратних засобів під ліцензією Nvidia. Реалізація G-Sync додає до ціни монітора близько $200. Якщо ви вже маєте сучасну відеокарту GeForce, вибір очевидний. Якщо ви поки не визначилися, вам слід знати, що G-Sync має одну перевагу. Коли частота кадрів опускається нижче порога G-Sync, тобто 40 кадрів/с, кадри дублюються для запобігання розриву зображення. FreeSync такої функції немає.


Зведена таблиця


Модель AOC G2460PG Asus RoG PG248Q Dell S2417DG Asus ROG SWIFT PG279Q
Категорія FHD FHD QHD QHD
Найкраща ціна в РФ, руб. 24300 28990 31000 58100
Тип панелі/фонового підсвічування TN/W-LED TN / W-LED edge array TN / W-LED edge array AHVA / W-LED edge array
24" / 16:9 24" / 16:9 24" / 16:9 27" / 16:9
Радіус заокруглення ні ні ні ні
1920x1080 @ 144 Гц 1920x1080 @ 144 Гц, 180 Гц з розгоном 2560x1440 @ 144 Гц, 165 Гц з розгоном 2560x1440 @ 165 Гц
Діапазон роботи FreeSync ні ні ні ні
Глибина кольору/колірне охоплення 8-біт (6-біт з FRC) / sRGB 8-біт/sRGB 8-біт/sRGB 8-біт/sRGB
Час відгуку (GTG), мс 1 1 1 4
Яскравість, кд/м2 350 350 350 350
Динаміки ні ні ні (2) 2 Вт
Відео входи (1) DisplayPort (1) DisplayPort v1.2, (1) HDMI v1.4 (1) DisplayPort v1.2, (1) HDMI v1.4
Аудіо роз'єми ні (1) 3.5 мм вихід на навушники (1) 3.5 мм Stereo in, (1) 3.5 мм вихід на навушники (1) 3.5 мм вихід на навушники
USB v3.0: (1) вхід, (2) виходу; v2.0: (2) виходу v3.0: (1) вхід, (2) виходу v3.0: (1) вхід, (4) виходу v3.0: (1) вхід, (2) виходу
Енергоспоживання, Вт 40 тип. 65 макс. 33 тип. 90 макс., 0.5 ожид.
559x391-517x237 562x418-538x238 541x363x180 620x553x238
Товщина панелі, мм 50 70 52 66
Ширина рамки, мм 16-26 11 зверху/збоку: 6, знизу: 15 8-12
вага, кг 6,5 6,6 5,8 7
Гарантія 3 роки 3 роки 3 роки 3 роки

Модель Acer Predator XB271HK Acer Predator XB321HK Asus ROG PG348Q Acer Predator Z301CTМ
Категорія UHD UHD WQHD QHD
Найкраща ціна в РФ, руб. 43900 62000 102000 58000
Тип панелі/фонового підсвічування AHVA / W-LED edge array IPS / W-LED edge array AH-IPS / W-LED edge array AMVA/W-LED, edge array
Діагональ екрана/співвідношення сторін 27" / 16:9 32" / 16:9 34" / 21:9 30" / 21:9
Радіус заокруглення ні ні 3800 мм 1800 мм
Максимальна роздільна здатність/част. оновлення 3840x2160 @ 60 Гц 3840x2160 @ 60 Гц 3440x1440 @ 75 Гц, 100 Гц з розгоном 2560x1080 @ 144 Гц, 200 Гц з розгоном
Діапазон роботи FreeSync ні ні ні 8-біт/sRGB
Глибина кольору/колірне охоплення 10-біт/sRGB 10-біт/sRGB 10-біт/sRGB 10-біт/sRGB
Час відгуку (GTG), мс 4 4 5 4
Яскравість, кд/м2 300 350 300 300
Динаміки (2) 2 Вт, DTS (2) 2 Вт, DTS (2) 2 Вт (2) 3 Вт, DTS
Відео входи (1) DisplayPort v1.2, (1) HDMI v1.4 (1) DisplayPort, (1) HDMI (1) DisplayPort v1.2, (1) HDMI v1.4 (1) DisplayPort v1.2, (1) HDMI v1.4
Аудіо роз'єми (1) 3.5 мм вихід на навушники (1) 3.5 мм вихід на навушники (1) 3.5 мм вихід на навушники (1) 3.5 мм вихід на навушники
USB v3.0: (1) вхід, (4) виходу v3.0: (1) вхід, (4) виходу v3.0: (1) вхід, (4) виходу v3.0: (1) вхід, (3) виходу
Енергоспоживання, Вт 71.5 тип. 56 тип. 100 макс. 34 Вт при 200 ніт
Габарити ДхВхШ (з основою), мм 614x401-551x268 737x452-579x297 829x558x297 714x384-508x315
Товщина панелі, мм 63 62 73 118
Ширина рамки, мм зверху/збоку: 8, знизу: 22 зверху/збоку: 13, знизу: 20 зверху/збоку: 12, знизу: 24 зверху/збоку: 12, знизу: 20
вага, кг 7 11,5 11,2 9,7
Гарантія 3 роки 3 роки 3 роки 3 роки

AOC G2460PG - FHD 24 дюйми


  • Краща ціна у Росії: 24300 руб.

ГІДНОСТІ

  • Відмінна реалізація G-Sync
  • Частота оновлення екрана 144 Гц
  • Придушення розмиття руху ULMB
  • Висока якість складання
  • Дуже висока якість кольору та відтінків сірого

Недоліки

  • Нестандартна гама
  • Недостатньо яскравості для оптимальної роботи ULMB
  • Чи не IPS

ВЕРДИКТ

Незважаючи на те, що G-Sync залишається преміальною та дорогою опцією, AOC G2460PG є першим монітором у цьому сегменті, який орієнтований на покупця з відносно невеликим бюджетом. Він коштує приблизно вдвічі дешевше за Asus ROG Swift, тому ви можете трохи заощадити, або встановити на своєму столі відразу два монітори.

Asus RoG PG248Q - FHD 24 дюйми


  • Краща ціна у Росії: 28990 руб.

ГІДНОСТІ

  • G-Sync
  • 180 Гц
  • Низька затримка
  • Чуйність
  • Точність кольору з калібруванням
  • Витончений зовнішній вигляд
  • Якість збирання

Недоліки

  • Щоб досягти кращої картинки, потрібне регулювання
  • Контрастність
  • Дорогий

ВЕРДИКТ

PG248Q схожий на екзотичний спорткар – дорогий та непрактичний в експлуатації. Але якщо під час встановлення виставити правильні налаштування, то ви отримаєте чудовий ігровий досвід. За плавністю та швидкістю відгуку цей монітор – мабуть, найкращий з того, що ми протестували на сьогоднішній день. Він коштує витрачених грошей та часу. Настійно рекомендуємо.

Dell S2417DG


  • Краща ціна у Росії: 31000 руб.

    ГІДНОСТІ

    • Чудова якість обробки рухів
    • Точність кольору на заводських налаштуваннях
    • Роздільна здатність QHD
    • Частота оновлення165 Гц
    • Ігрові функції
    • Рамка 6 мм

    Недоліки

    • Контрастність
    • Точність гамма-кривий
    • ULMB знижує світловіддачу та контрастність
    • Кути огляду

    ВЕРДИКТ

    Якби Dell виправила проблеми з гамою, з якими ми зіткнулися під час тестування, то S2417DG заслужив би нашу нагороду Editor's Choice. Монітор неймовірно плавно передає рухи, абсолютно без ореолів, тремтіння та розривів – око не відірвати. Користь від функції ULMB незначна, проте вона є. Це не найдешевший ігровий монітор з діагоналлю екрану 24 дюйми, але він перевершує дорожчих конкурентів і заслуговує на місце в списку.

    Asus RoG Swift PG279Q - QHD 27 дюймів


    • Краща ціна у Росії: 58100 руб.

    ГІДНОСТІ

    • Стабільна робота за 165 Гц
    • G-Sync
    • Яскраве та різке зображення
    • Насичений колір
    • GamePlus
    • Джойстик для екранного меню
    • Стильний зовнішній вигляд
    • Висока якість складання

    Недоліки

    • Значне зниження світлового потоку у режимі ULMB
    • Для досягнення найкращої якості зображення необхідне калібрування
    • Дорогий

    ВЕРДИКТ

    Нове поповнення Asus в лінійці ROG не ідеально, але безумовно заслуговує на увагу. PG279Q має все, що потрібно ентузіасту, включаючи чітку і яскраву панель IPS, частоту оновлення 165 Гц і G-Sync. Цей монітор недешевий, але ми поки не чули про користувачів, які жалкують про покупку. Нам сподобалося грати на цьому моніторі, і вам напевно також сподобається.

    Acer Predator XB271HK - UHD 27 дюймів


    • Краща ціна у Росії: 43900 руб.

    ГІДНОСТІ

    • Насичені кольори
    • Точність зображення на заводських налаштуваннях
    • G-Sync
    • Дозвіл Ultra HD
    • Кути огляду
    • Якість збирання

    Недоліки

    • Дорогий

    Огляд технології G-Sync Коротка історія фіксованої частоти оновлення

    Давним-давно монітори були громіздкими та містили електронно-променеві трубки та електронні гармати. Електронні гармати бомбардують екран фотонами для освітлення кольорових люмінофорних точок, які ми називаємо пікселями. Вони промальовують ліворуч праворуч кожен "скануючий" рядок від верхнього до нижнього. Регулювання швидкості електронної гармати від одного повного поновлення до наступного не дуже практикувалося раніше, та й особливої ​​потреби до появи тривимірних ігор у цьому не було. Тому ЕПТ та пов'язані з ними аналогові стандарти відео були розроблені з фіксованою частотою оновлення.

    РК-монітори поступово замінили ЕПТ, а цифрові роз'єми (DVI, HDMI та DisplayPort) замінили аналогові (VGA). Але асоціації, які відповідають за стандартизацію відеосигналів (на чолі з VESA), не перейшли із фіксованої частоти оновлення. Кіно і телебачення, як і раніше, спираються на вхідний сигнал з постійною частотою кадрів. І знову перехід на регульовану частоту оновлення не видається таким необхідним.

    Регульовані частоти кадрів та фіксовані частоти оновлення не збігаються

    До появи сучасної 3D-графіки фіксована частота оновлення проблемою для дисплеїв не була. Але вона виникла, коли ми вперше зіткнулися з потужними графічними процесорами: частота, на якій GPU візуалізував окремі кадри (що ми називаємо частотою кадрів, що зазвичай виражається у FPS або кадрах на секунду), непостійна. Вона змінюється із часом. У важких графічних сценах картка може забезпечувати 30 FPS, а якщо дивитися на порожнє небо – 60 FPS.

    Вимкнення синхронізації призводить до розривів

    Виходить, що змінна частота кадрів графічного процесора та фіксована частота оновлення РК-панелі разом працюють не дуже добре. У такій конфігурації ми стикаємося із графічним артефактом під назвою "розрив". Він з'являється, коли два і більше неповних кадрів візуалізуються разом протягом одного циклу оновлення монітора. Зазвичай вони зміщуються, що дає неприємний ефект під час руху.

    На зображенні вище показані два добре відомі артефакти, які часто зустрічаються, але їх важко зафіксувати. Оскільки це артефакти дисплея, на звичайних ігрових скріншотах ви такого не побачите, проте наші знімки показують, що насправді ви бачите під час гри. Щоб зняти їх, потрібна камера з високошвидкісним режимом зйомки. Або якщо у вас є картка із підтримкою відеозахоплення, ви можете записати несжатий потік відео з порту DVI і чітко побачити перехід від одного кадру до іншого; саме цей спосіб ми використовуємо для тестів FCAT. Однак найкраще спостерігати описаний ефект на власні очі.

    Ефект розриву видно на обох зображеннях. Верхнє зроблено за допомогою камери, нижнє – через функцію відеозахоплення. Нижня картинка "розрізана" по горизонталі і виглядає зміщеною. На верхніх двох зображеннях лівий знімок зроблено на екрані Sharp із частотою оновлення 60 Гц, правий – на дисплеї Asus із частотою 120 Гц. Розрив на 120-герцевому дисплеї виражений не так сильно, оскільки частота оновлення вдвічі вища. Проте ефект видно, і виявляється так само, як і на лівому зображенні. Артефакт такого типу – явна ознака того, що зображення були зроблені за відключеної вертикальної синхронізації (V-sync).

    Battlefield 4 на GeForce GTX 770 з відключеною V-sync

    Другий ефект, який видно на знімках BioShock: Infinite, називається двоїнням (ghosting). Він особливо добре видно у нижній частині лівого знімка і пов'язаний із затримкою оновлення екрана. Якщо коротко, то окремі пікселі мало швидко змінюють колір, що призводить до свічення такого типу. Окремо взятий кадр не може передати, який ефект двоїння надає на саму гру. Панель з часом відгуку від сірого до сірого 8 мс, така як Sharp, даватиме в результаті розмите зображення при будь-якому русі на екрані. Ось чому ці дисплеї зазвичай не рекомендують для шутерів від перового обличчя.

    V-sync: "шило на мило"

    Вертикальна синхронізація або V-sync – це дуже старе вирішення проблеми розривів. Під час активації цієї функції відеокарта намагається відповідати частоті оновлення екрана, повністю видаляючи розриви. Проблема в тому, що якщо ваша відеокарта не зможе утримати частоту кадрів вище 60 FPS (на дисплеї з частотою оновлення 60 Гц), ефективна частота кадрів скакатиме між значеннями, кратними частоті оновлення екрана (60, 30, 20, 15 FPS тощо). д.), що у свою чергу призведе до відчутних гальмування.

    Коли частота кадрів падає нижче за частоту оновлення при активній V-sync, ви відчуєте пригальмовування

    Більше того, оскільки вертикальна синхронізація змушує відеокарту чекати і іноді покладається на буфер невидимих ​​поверхонь, V-sync може додавати до візуалізації ланцюжок додаткову затримку введення. Таким чином, V-sync може бути як порятунком, так і прокляттям, вирішуючи одні проблеми, але при цьому провокуючи інші недоліки. Неофіційне опитування наших співробітників показало, що геймери, як правило, відключають вертикальну синхронізацію, і включають лише тоді, коли розриви стають нестерпними.

    Креативний підхід: Nvidia представляє G-Sync

    Під час запуску нової відеокарти GeForce GTX 680компанія Nvidia увімкнула режим драйвера під назвою Adaptive V-sync (адаптивна вертикальна синхронізація), який намагається нівелювати проблеми при включенні V-sync, коли частота кадрів вище за частоту оновлення монітора і швидко відключаючи її, коли відбувається різке падіння продуктивності нижче за частоту оновлення. Хоча технологія сумлінно виконувала свої функції, це був лише обхід проблеми, який не дозволяв позбутися розривів, якщо частота кадрів була нижчою за частоту оновлення монітора.

    Реалізація G-Syncнабагато цікавіше. Якщо говорити загалом, Nvidia показує, що замість того, щоб змушувати відеокарти працювати на фіксованій частоті монітора, ми можемо змусити нові монітори працювати на непостійній частоті.

    Частота кадрів GPU визначає частоту оновлення монітора, прибираючи артефакти, пов'язані з включенням та вимкненням V-sync

    Пакетний механізм передачі роз'єму DisplayPort відкрив нові можливості. Використовуючи змінні інтервали гасіння у відеосигналі DisplayPort та замінюючи пристрій масштабування монітора на модуль, що працює зі змінними сигналами гасіння, РК-панель може працювати на змінній частоті оновлення, пов'язаної із частотою кадрів, яку виводить відеокарта (у межах частоти оновлення монітора). На практиці Nvidia креативно підійшла до використання особливих можливостей інтерфейсу DisplayPort та спробувала зловити двох зайців одночасно.

    Ще перед початком тестів хочеться віддати належне за творчий підхід до вирішення реальної проблеми, що впливає на ігри на ПК. Це інновації у всій красі. Але які результати G-Syncна практиці? Давайте з'ясовувати.

    Nvidia надіслала нам інженерний зразок монітора Asus VG248QE, в якому пристрій масштабування замінено на модуль G-Sync. Із цим дисплеєм ми вже знайомі. Йому присвячена стаття "Огляд Asus VG248QE: 24-дюймовий ігровий монітор із частотою оновлення 144 Гц за $400", в якій монітор заробив нагороду Tom's Hardware Smart Buy. Тепер настав час дізнатися, як нова технологія Nvidia вплине на найпопулярніші ігри.

    Огляд технології G-Sync 3D LightBoost, вбудована пам'ять, стандарти та 4K

    Переглядаючи матеріали для преси від Nvidia, ми ставили собі чимало питань, як про місце технології в сьогоденні, так і її роль у майбутньому. Під час недавньої поїздки до головного офісу компанії в Санта-Клара наші колеги зі США отримали деякі відповіді.

    G-Sync та 3D LightBoost

    Перше, що ми помітили - це те, що Nvidia надіслала монітор Asus VG248QE, модифікований для підтримки G-Sync. Цей монітор також підтримує технологію Nvidia 3D LightBoost, яка спочатку була розроблена для підвищення яскравості 3D-дисплеїв, але довгий час неофіційно використовувалася в 2D-режимі, застосовуючи пульсуюче фонове підсвічування панелі для зменшення ефекту двоїння (або розмиття рухів). Природно, стало цікаво, чи використовується дана технологія G-Sync.

    Nvidia дала негативну відповідь. Хоча використання обох технологій одночасно було б ідеальним рішенням, сьогодні стробування фонового підсвічування на змінній частоті оновлення призводить до проблем із мерехтінням та яскравістю. Вирішити їх неймовірно складно, оскільки необхідно налаштувати яскравість та відстежувати імпульси. Як результат, зараз доводиться обирати між двома технологіями, хоча компанія намагається знайти спосіб використати їх одночасно у майбутньому.

    Вбудована пам'ять G-Sync

    Як ми вже знаємо, G-Syncусуває покрокову затримку введення, пов'язану з V-sync, оскільки більше немає необхідності очікувати на завершення сканування панелі. Тим не менш, ми помітили, що модуль G-Syncмає вбудовану пам'ять. Чи може буферизувати кадри самостійно? Якщо так, скільки часу потрібно кадру, щоб пройти через новий канал?

    За даними Nvidia, кадри не буферизуються у пам'яті модуля. У міру надходження даних вони з'являються на екрані, а пам'ять виконує деякі інші функції. Тим не менш, час обробки для G-Syncпомітно менше однієї мілісекунди. Фактично майже з такою самою затримкою ми стикаємося при вимкненій V-sync і вона пов'язана з особливостями гри, відеодрайвера, мишки і т.д.

    Чи буде стандартна G-Sync?

    Таке питання ставилося в останньому інтерв'ю з AMD, коли читач хотів дізнатися про реакцію компанії на технологію. G-Sync. Однак нам захотілося запитати це безпосередньо у розробника та дізнатися, чи планує Nvidia вивести технологію на промисловий стандарт. Теоретично компанія може пропонувати G-Syncяк апгрейд для стандарту DisplayPort, що забезпечує змінні частоти оновлень. Зрештою, Nvidia є членом асоціації VESA.

    Однак, нові специфікації для DisplayPort, HDMI або DVI не плануються. G-Syncі так підтримує DisplayPort 1.2, тобто стандарт міняти не потрібно.

    Як уже зазначалося, Nvidia працює над сумісністю G-Syncз технологією, яка зараз називається 3D LightBoost (але скоро носитиме інше ім'я). Крім того, компанія шукає спосіб знизити собівартість модулів G-Syncта зробити їх більш доступними.

    G-Sync на дозволах Ultra HD

    Nvidia обіцяє появу моніторів із підтримкою G-Syncта дозволами до 3840x2160 пікселів. Однак модель від Asus, яку ми сьогодні розглянемо, підтримує лише 1920×1080 пікселів. На даний момент монітори Ultra HD використовують контролер STMicro Athena, що має два пристрої масштабування для створення поділеного на плитки дисплея. Нам цікаво, чи буде модуль G-Syncпідтримувати конфігурацію MST?

    Правду кажучи, дисплеїв 4K зі зміною частотою кадрів ще доведеться почекати. Ще не існує окремого пристрою масштабування, що підтримує роздільну здатність 4K, найближче має з'явитися в першій чверті 2014 року, а монітори, ними оснащені, - лише у другій чверті. Оскільки модуль G-Syncзамінює пристрій масштабування, сумісні панелі з'являться після цього моменту. На щастя, модуль спочатку підтримує Ultra HD.

    NVIDIA G-SYNC монітори має підтримку революційної технології від NVIDIA, яка усуває розриви зображення на екрані та затримки введення зображенні з синхронізацією кадрів VSync, а також покращує можливості сучасних моніторів, що призводить до найплавнішого та найчутливішого ігрового процесу, який ви коли-небудь бачили. .

    В результаті ігрові сцени з'являються миттєво, об'єкти стають чіткішими, геймплей стає плавнішим.

    ЯК ПРАЦЮЄ NVIDIA G-SYNC?

    NVIDIA® G-SYNC™ - це інноваційне рішення, яке виявилося від старих стереотипів, щоб створити найдосконаліші та найчутливіші комп'ютерні дисплеї в історії. Модуль NVIDIA G-SYNC можна встановити самостійно або купити його встановленим у новітніх ігрових моніторах. Він допомагає забути про розриви зображення на екрані, затримки введення і тремтіння картинки, що викликає надмірну напругу очей, які були викликані старими технологіями, які перейшли з аналогових телевізорів на сучасні монітори.

    ПРОБЛЕМА: СТАРІ ТЕХНОЛОГІЇ МОНІТОРІВ

    Коли телевізори були винайдені, використовувалися катодно-променеві трубки, які працювали методом сканування потоку електронів на поверхні трубки з фосфорним покриттям. Цей промінь змушував піксель мерехтіти, і коли достатньо пікселів досить швидко активувалися, катодно-променева трубка створювала відчуття відео з повноцінним рухом. Хочете – вірте, хочете – ні, ці перші телевізори працювали зі швидкістю оновлення даних 60 Гц, оскільки промислова частота змінного струму США дорівнює 60 Гц. Збіг швидкості оновлення даних телевізора з промисловою частотою змінного струму полегшував створення першої електроніки і скорочував перешкоди на екрані.

    До моменту винаходу персональних комп'ютерів на початку 80-х років, технологія катодно-променевих телевізорів міцно зайняла своє місце і була найпростішою та найрентабельнішою технологією для створення комп'ютерних моніторів. 60 Гц і фіксована частота оновлення стали стандартом, а збирачі систем навчилися отримувати максимум можливостей із більш ніж неідеальної ситуації. За останні три десятиліття незважаючи на те, що технологія катодно-променевих телевізорів еволюціонувала в технологію LCD і LED телевізорів, жодна велика компанія не наважилася кинути виклик цьому стереотипу, і синхронізація GPU зі швидкістю оновлення монітора залишається стандартною практикою в галузі і досі.

    Проблематично те, що відеокарти не здійснюють рендеринга зображення з постійною частотою. Насправді, частота зміни кадрів на GPU значно відрізнятиметься навіть в одній сцені в одній і тій же грі в залежності від поточного навантаження GPU. А якщо монітори мають фіксовану частоту оновлення, то як передати зображення з GPU на екран? Перший спосіб – це просто ігнорувати частоту оновлення монітора та оновлювати зображення у середині циклу. Ми називаємо це відключеним режимом VSync, саме так грають більшість геймерів. Недолік полягає в тому, що коли один цикл оновлення монітора включає два зображення, з'являється дуже помітна лінія розриву, яку зазвичай називають розривом екрана. Хороший відомий спосіб боротьби з розривом екрану полягає в тому, щоб увімкнути технологію VSync, яка змушує GPU відкласти оновлення екрана до початку нового циклу оновлення монітора. Це призводить до тремтіння зображення, коли частота зміни кадрів на GPU нижче за частоту оновлення дисплея. Це також збільшує час очікування, що призводить до затримки введення – помітної затримки між натисканням клавіші та появою результату на екрані.

    Що ще гірше, багато гравців страждають від надмірної напруги очей через тремтіння зображення, в інших розвиваються головні болі та мігрені. Це змусило нас розробити технологію Adaptive VSync, ефективне рішення, добре прийняте критиками. Незважаючи на створення цієї технології, проблема із затримкою введення все ще залишається, а це неприйнятно для багатьох геймерів-ентузіастів і абсолютно не підходить для професійних геймерів (кіберспортсменів), які самостійно налаштовують свої відеокарти, монітори, клавіатури та миші, щоб мінімізувати прикрі затримки між дією та реакцією.

    РІШЕННЯ: NVIDIA G-SYNC

    Зустрічайте технологію NVIDIA G-SYNC, яка усуває розриви екрана, затримку показу зображення із синхронізацією частоти розгортки VSync та тремтіння зображення. Щоб досягти цієї революційної можливості, ми створили модуль G-SYNC для моніторів, який дозволяє синхронізувати монітор із частотою обробки кадрів на GPU, а не навпаки, що призводить до більш швидкісного та плавного зображення без розривів, що піднімає ігри на якісно новий рівень.

    Гуру галузі Джон Кармак (John Carmack), Тім Суїні (Tim Sweeney), Джохан Андерсон (Johan Andersson) та Марк Рейн (Mark Rein) були вражені технологією NVIDIA G-SYNC. Кіберспортсмени та ліги кіберспорту вишиковуються в чергу, щоб використовувати технологію NVIDIA G-SYNC, яка розкриє їхню справжню майстерність, що вимагає ще більш швидкої реакції, завдяки непомітній затримці між діями на екрані та командами клавіатури. Під час внутрішніх тестувань завзяті гравці проводили обідній час за онлайн матчами по локальній мережі, використовуючи монітори з підтримкою G-SYNC, щоб здобути перемогу.

    Якщо у вас є монітор з підтримкою NVIDIA G-SYNC, в онлайн грі у вас буде незаперечна перевага над іншими гравцями, за умови, що у вас є також низький пінг.

    РЕВОЛЮЦІЙНЕ РІШЕННЯ ВЖЕ ТУТ

    У наші часи технологічних чудес мало якісь досягнення можна назвати по-справжньому «інноваційними» або «революційними». Однак NVIDIA G-SYNC є одним із тих небагатьох досягнень, яке кардинально змінює застарілу технологію моніторів за допомогою інноваційного підходу, який раніше ніким не випробували.

    G-SYNC усуває затримки введення, розриви зображення та тремтіння картинки, забезпечуючи приголомшливі візуальні можливості на будь-якому моніторі з підтримкою G-SYNC; вони настільки чудові, що ви ніколи більше не захочете використовувати звичайний монітор. Крім революційних змін візуальних можливостей, геймери розрахованих на багато користувачів ігор отримають додаткову перевагу при об'єднанні G-SYNC, швидкісної відеокарти GeForce GTX і пристроїв введення з малими затримками. Це обов'язково зацікавить шанувальників шутерів. Для кіберспортсменів NVIDIA G-SYNC є значним удосконаленням. Оскільки G-SYNC усуває затримки введення, успіх чи поразка тепер залежать тільки від гравців, що допоможе відокремити професіоналів від любителів.

    Якщо ви, як і кіберспортсмени, хочете отримати найчіткіший, плавний і чуйний ігровий процес, то монітори з підтримкою NVIDIA G-SYNC - це досконалий прорив, подібного до якого більше ніде не знайти. Справжня інновація в добу, NVIDIA G-SYNC кардинально змінить ваш погляд на ігри.



  • Ця стаття також доступна такими мовами: Тайська

    • Next

      Величезне Вам ДЯКУЮ за дуже корисну інформацію у статті. Дуже зрозуміло, все викладено. Відчувається, що виконано велику роботу з аналізу роботи магазину eBay

      • Дякую вам та іншим постійним читачам мого блогу. Без вас я не мав би достатньої мотивації, щоб присвячувати багато часу веденню цього сайту. У мене мозок так влаштований: люблю копнути вглиб, систематизувати розрізнені дані, пробувати те, що раніше до мене ніхто не робив, або не дивився під таким кутом зору. Жаль, що тільки нашим співвітчизникам через кризу в Росії аж ніяк не до шопінгу на eBay. Купують на Аліекспресі з Китаю, бо там у рази дешевші товари (часто на шкоду якості). Але онлайн-аукціони eBay, Amazon, ETSY легко дадуть китайцям фору за асортиментом брендових речей, вінтажних речей, ручної роботи та різних етнічних товарів.

        • Next

          У ваших статтях цінне саме ваше особисте ставлення та аналіз теми. Ви цей блог не кидайте, я часто сюди заглядаю. Нас таких має бути багато. Мені на ел. Пошту прийшла нещодавно пропозиція про те, що навчать торгувати на Амазоні та eBay. І я згадала про ваші докладні статті про ці торги. площ. Перечитала все наново і зробила висновок, що курси це лохотрон. Сама на eBay ще нічого не купувала. Я не з Росії, а з Казахстану (м. Алмати). Але нам теж зайвих витрат поки що не треба. Бажаю вам удачі та бережіть себе в азіатських краях.

    • Ще приємно, що спроби eBay щодо русифікації інтерфейсу для користувачів з Росії та країн СНД почали приносити плоди. Адже переважна частина громадян країн колишнього СРСР не сильна знаннями іноземних мов. Англійську мову знають трохи більше 5% населення. Серед молоді – більше. Тому хоча б інтерфейс російською — це велика допомога для онлайн-шопінгу на цьому торговому майданчику. Єбей не пішов шляхом китайського побратима Аліекспрес, де відбувається машинний (дуже корявий і незрозумілий, місцями викликає сміх) переклад опису товарів. Сподіваюся, що на просунутому етапі розвитку штучного інтелекту стане реальністю якісний машинний переклад з будь-якої мови на будь-яку за лічені частки секунди. Поки що маємо ось що (профіль одного з продавців на ебей з російським інтерфейсом, але англомовним описом):
      https://uploads.disquscdn.com/images/7a52c9a89108b922159a4fad35de0ab0bee0c8804b9731f56d8a1dc659655d60.png