Ci sono cose di cui non è solo difficile scrivere, ma molto difficili. Che basta vedere una volta, invece di sentirne parlare centinaia di volte o leggere su Internet. Ad esempio, è impossibile descrivere alcune meraviglie naturali, come il maestoso Grand Canyon o le montagne Altai innevate. Puoi guardare bellissime foto con le loro immagini centinaia di volte e ammirare video, ma tutto ciò non può sostituire le impressioni dal vivo.

Il tema dell'output fluido dei frame sul monitor utilizzando la tecnologia Nvidia G-Sync si applica anche a questi argomenti: dalle descrizioni dei testi i cambiamenti non sembrano così significativi, ma nei primissimi minuti di gioco a un gioco 3D su un sistema con Nvidia Collegando la scheda video Geforce al monitor G-Sync diventa chiaro quanto sia grande il salto di qualità. E sebbene sia passato più di un anno dall'annuncio della tecnologia, la tecnologia non perde la sua rilevanza, non ha ancora concorrenti (tra le soluzioni entrate nel mercato) e i monitor corrispondenti continuano a essere prodotti.

Nvidia ha lavorato per un bel po' di tempo per migliorare l'esperienza visiva degli utenti di GPU Geforce nei giochi moderni rendendo il rendering più fluido. Puoi ricordare la tecnologia di sincronizzazione adattiva Adaptive V-Sync, che è un ibrido che combina modalità con sincronizzazione verticale abilitata e disabilitata (rispettivamente V-Sync On e V-Sync Off). Nel caso in cui la GPU fornisca il rendering a una frequenza fotogrammi inferiore alla frequenza di aggiornamento del monitor, la sincronizzazione è disabilitata e, per FPS che superano la frequenza di aggiornamento, è abilitata.

La sincronizzazione adattiva non ha risolto tutti i problemi di fluidità, ma è stato comunque un passo importante nella giusta direzione. Ma perché è stato necessario creare particolari modalità di sincronizzazione e addirittura rilasciare soluzioni software e hardware? Cosa c'è di sbagliato nelle tecnologie che esistono da decenni? Oggi ti spiegheremo come la tecnologia Nvidia G-Sync aiuta a eliminare tutti gli artefatti di visualizzazione conosciuti, come strappi delle immagini, filmati non fluidi e aumento del ritardo.

Guardando lontano, possiamo dire che la tecnologia di sincronizzazione G-Sync ti consente di ottenere un cambio di frame fluido con le massime prestazioni e comfort possibili, il che è molto evidente quando si gioca su un monitor di questo tipo - questo è evidente anche all'utente domestico medio, e per i giocatori accaniti può significare un miglioramento dei tempi di reazione e allo stesso tempo dei risultati di gioco.

Oggi, la maggior parte dei giocatori PC utilizza monitor con una frequenza di aggiornamento di 60 Hz, i tipici schermi LCD, i più popolari al momento. Di conseguenza, sia quando la sincronizzazione è attivata (V-Sync On) sia quando è disattivata, ci sono sempre alcune carenze associate ai problemi di base delle tecnologie antiche, di cui parleremo più avanti: ritardi elevati e scatti FPS quando V- La sincronizzazione è attivata e le immagini vengono strappate in modo spiacevole quando è disattivata.

E poiché ritardi e frame rate irregolari sono più dannosi e fastidiosi per il gioco, raramente i giocatori attivano la sincronizzazione. E anche alcuni modelli di monitor apparsi sul mercato con una frequenza di aggiornamento di 120 e 144 Hz non possono aiutare ad eliminare completamente i problemi, semplicemente li rendono un po' meno evidenti, aggiornando il contenuto dello schermo due volte più spesso, ma gli stessi artefatti sono ancora presente: ritardi e l'assenza della stessa comoda levigatezza.

E poiché i monitor con G-Sync, abbinati a una scheda grafica Nvidia Geforce appropriata, possono fornire non solo un'elevata frequenza di aggiornamento, ma anche eliminare tutte queste carenze, l'acquisto di tali soluzioni può essere considerato ancora più importante persino dell'aggiornamento a una GPU più potente. . Ma vediamo prima perché è stato necessario fare qualcosa di diverso dalle soluzioni conosciute da tempo: qual è il problema?

Problemi con i metodi di output video esistenti

Le tecnologie per visualizzare le immagini su uno schermo con una frequenza di aggiornamento fissa sono apparse fin dai tempi in cui venivano utilizzati i monitor con tubo a raggi catodici (CRT). La maggior parte dei lettori dovrebbe ricordarli: panciuti, proprio come i televisori antichi. Queste tecnologie sono state originariamente sviluppate per visualizzare immagini televisive con un frame rate fisso, ma nel caso dei dispositivi per la visualizzazione di immagini 3D calcolate dinamicamente su un PC, questa soluzione solleva grossi problemi non ancora risolti.

Anche i monitor LCD più moderni hanno una frequenza di aggiornamento fissa dell'immagine sullo schermo, anche se tecnologicamente nulla impedisce di modificare l'immagine su di essi in qualsiasi momento, con qualsiasi frequenza (entro limiti ragionevoli, ovviamente). Ma i giocatori PC fin dai tempi dei monitor CRT sono stati costretti a sopportare una soluzione decisamente imperfetta al problema della sincronizzazione del frame rate del rendering 3D e della frequenza di aggiornamento del monitor. Fino ad ora c'erano pochissime opzioni per l'output delle immagini: due, ed entrambe presentano degli inconvenienti.

La radice di tutti i problemi è che con una frequenza di aggiornamento fissa dell'immagine sul monitor, la scheda video esegue il rendering di ogni fotogramma in un momento diverso: ciò è dovuto alla complessità in continua evoluzione della scena e al carico sulla GPU. E il tempo di rendering di ciascun fotogramma non è costante, cambia ogni fotogramma. Non c'è da meravigliarsi che quando si tenta di visualizzare più fotogrammi sul monitor si verificano problemi di sincronizzazione, poiché alcuni di essi richiedono molto più tempo per il rendering rispetto ad altri. Di conseguenza, otteniamo tempi di preparazione diversi per ciascun fotogramma: a volte 10 ms, a volte 25 ms, ad esempio. E i monitor esistenti prima dell'avvento di G-Sync potevano visualizzare i fotogrammi solo dopo un certo periodo di tempo, né prima né dopo.

La questione è ulteriormente complicata dalla ricchezza di configurazioni software e hardware dei PC da gioco, combinate con carichi molto diversi a seconda del gioco, delle impostazioni di qualità, delle impostazioni dei driver video, ecc. Di conseguenza, è impossibile configurare ciascun sistema di gioco in modo che l'addestramento viene effettuato con tempi costanti o comunque non troppo diversi in tutte le applicazioni e condizioni 3D - come è possibile sulle console da gioco con la loro unica configurazione hardware.

Naturalmente, a differenza delle console con i loro tempi di rendering dei fotogrammi prevedibili, i giocatori PC sono ancora seriamente limitati nella capacità di ottenere un'esperienza di gioco fluida senza cali e ritardi evidenti. In un caso ideale (leggibile - impossibile nella realtà), l'aggiornamento dell'immagine sul monitor dovrebbe essere eseguito rigorosamente dopo che il fotogramma successivo è stato calcolato e preparato dal processore grafico:

Come puoi vedere, in questo ipotetico esempio, la GPU ha sempre il tempo di disegnare un fotogramma prima che debba essere trasferito sul monitor: il tempo del fotogramma è sempre leggermente inferiore al tempo che intercorre tra gli aggiornamenti delle informazioni sul display e in tra la GPU riposa un po'. Ma in realtà tutto è completamente diverso: il tempo di rendering del fotogramma è molto diverso. Immagina se la GPU non ha il tempo di eseguire il rendering di un fotogramma nel tempo assegnato, quindi il fotogramma deve essere visualizzato in seguito, saltando un aggiornamento dell'immagine sul monitor (la sincronizzazione verticale è abilitata - V-Sync attivo), oppure i fotogrammi devono essere visualizzato in parti con la sincronizzazione disabilitata, quindi sul monitor contemporaneamente ci saranno pezzi di diversi fotogrammi adiacenti.

La maggior parte degli utenti disattiva V-Sync per ottenere una latenza inferiore e fotogrammi più fluidi sullo schermo, ma questa soluzione introduce artefatti visibili sotto forma di strappo dell'immagine. E con la sincronizzazione abilitata, non si verificherà alcuno strappo dell'immagine, poiché i fotogrammi vengono visualizzati esclusivamente nella loro interezza, ma il ritardo tra l'azione del giocatore e l'aggiornamento dell'immagine sullo schermo aumenta e la frequenza di uscita dei fotogrammi è molto irregolare, poiché la GPU non disegna mai fotogrammi in stretta conformità con il tempo di aggiornamento dell'immagine sul monitor.

Questo problema esiste da molti anni e chiaramente interferisce con la comodità di visualizzare il risultato del rendering 3D, ma fino a qualche tempo nessuno si è preso la briga di risolverlo. E la soluzione, in teoria, è abbastanza semplice: devi solo visualizzare le informazioni sullo schermo rigorosamente quando la GPU finisce di lavorare sul fotogramma successivo. Ma diamo prima uno sguardo più da vicino ad esempi di come funzionano esattamente le tecnologie di output delle immagini esistenti e quale soluzione ci offre Nvidia con la sua tecnologia G-Sync.

Svantaggi dell'output quando la sincronizzazione è disabilitata

Come abbiamo già accennato, la stragrande maggioranza dei giocatori preferisce mantenere la sincronizzazione disattivata (V-Sync Off) in modo da poter visualizzare sul monitor i fotogrammi disegnati dalla GPU il più rapidamente possibile e con un ritardo minimo tra azioni (pressioni di tasti, comandi del mouse) e la loro visualizzazione. Per i giocatori seri questo è necessario per la vittoria, e per i giocatori normali in questo caso le sensazioni saranno più piacevoli. Ecco come appare schematicamente il lavoro con V-Sync disabilitato:

Non ci sono problemi o ritardi con l'output dei frame. Ma sebbene la sincronizzazione verticale disabilitata risolva il più possibile il problema del ritardo, fornendo una latenza minima, allo stesso tempo compaiono artefatti nell'immagine: strappi dell'immagine, quando l'immagine sullo schermo è composta da diversi pezzi di fotogrammi adiacenti disegnati dalla GPU. Notevole è anche la mancanza di fluidità del video dovuta all'irregolarità dei fotogrammi provenienti dalla GPU allo schermo: l'immagine si rompe in punti diversi.

Questo strappo dell'immagine si verifica come risultato di un'immagine composta da due o più fotogrammi renderizzati sulla GPU durante un singolo ciclo di aggiornamento del monitor. Di molti - quando il frame rate supera la frequenza di aggiornamento del monitor e di due - quando corrisponde approssimativamente ad essa. Guarda il diagramma mostrato sopra - se il contenuto del frame buffer viene aggiornato a metà tra i momenti in cui le informazioni vengono visualizzate sul monitor, l'immagine finale su di esso sarà distorta - parte delle informazioni in questo caso appartiene al precedente frame e il resto a quello corrente che viene disegnato.

Con la sincronizzazione disabilitata, i fotogrammi vengono trasmessi al monitor indipendentemente dalla frequenza e dall'ora del suo aggiornamento, e quindi non coincidono mai con la frequenza di aggiornamento del monitor. In altre parole, con V-Sync disabilitato, i monitor senza supporto G-Sync riscontreranno sempre tale distorsione dell'immagine.

Il punto non è solo che è spiacevole per il giocatore vedere strisce che si contraggono su tutto lo schermo, ma anche che il rendering simultaneo di parti di diversi fotogrammi può disinformare il cervello, il che è particolarmente evidente con gli oggetti dinamici nel fotogramma: il giocatore vede parti di oggetti spostate l'una rispetto all'altra. Devi sopportarlo solo perché la disattivazione di V-Sync fornisce al momento ritardi di output minimi, ma lontani dalla qualità dell'immagine dinamica ideale, come puoi vedere nei seguenti esempi (facendo clic sui fotogrammi a piena risoluzione):

Usando gli esempi sopra, ripresi utilizzando il complesso software e hardware FCAT, puoi vedere che l'immagine reale sullo schermo può essere composta da pezzi di diversi fotogrammi adiacenti - e talvolta in modo non uniforme, quando una striscia stretta viene presa da uno dei fotogrammi, e quelli vicini occupano la parte rimanente (notevolmente più grande) dello schermo.

I problemi con lo strappo delle immagini sono ancora più visibili nelle dinamiche (se il tuo sistema e/o browser non supporta la riproduzione di video MP4/H.264 con una risoluzione di 1920x1080 pixel con una frequenza di aggiornamento di 60 FPS, dovrai scaricarli e visualizzarli localmente utilizzando un lettore multimediale con funzionalità corrispondenti):

Come puoi vedere, anche in dinamica si notano facilmente artefatti spiacevoli sotto forma di interruzioni dell'immagine. Vediamo come appare schematicamente: in un diagramma che mostra il metodo di output quando la sincronizzazione è disabilitata. In questo caso, i fotogrammi arrivano sul monitor immediatamente dopo che la GPU ha terminato il rendering e l'immagine viene visualizzata sul display anche se l'output delle informazioni dal fotogramma corrente non è ancora stato completamente completato: la parte rimanente del buffer ricade su il successivo aggiornamento della schermata. Ecco perché ogni fotogramma del nostro esempio visualizzato sul monitor è costituito da due fotogrammi disegnati sulla GPU - con un'interruzione dell'immagine nel punto contrassegnato in rosso.

In questo esempio, il primo fotogramma (Draw 1) viene disegnato dalla GPU nel buffer dello schermo più velocemente del suo tempo di aggiornamento di 16,7 ms - e prima che l'immagine venga trasferita al monitor (Scan 0/1). La GPU inizia immediatamente a lavorare sul fotogramma successivo (Draw 2), che spezza l'immagine sul monitor, contenente un'altra metà del fotogramma precedente.

Di conseguenza, in molti casi sull'immagine appare una striscia chiaramente visibile: il confine tra la visualizzazione parziale dei fotogrammi adiacenti. In futuro, questo processo verrà ripetuto, poiché la GPU funziona su ciascun fotogramma per un periodo di tempo diverso e, senza sincronizzare il processo, i fotogrammi della GPU e quelli visualizzati sul monitor non corrispondono mai.

Pro e contro di Vsync

Quando è abilitata la sincronizzazione verticale tradizionale (V-Sync On), le informazioni sul monitor vengono aggiornate solo quando il lavoro sul fotogramma è completamente completato dalla GPU, che elimina il strappo nell'immagine, perché i fotogrammi vengono visualizzati esclusivamente sullo schermo . Ma poiché il monitor aggiorna il contenuto solo a determinati intervalli (a seconda delle caratteristiche del dispositivo di output), questa associazione comporta altri problemi.

La maggior parte dei moderni monitor LCD aggiorna le informazioni a una frequenza di 60 Hz, ovvero 60 volte al secondo, circa ogni 16 millisecondi. E con la sincronizzazione abilitata, il tempo di output dell’immagine è strettamente legato alla frequenza di aggiornamento del monitor. Ma come sappiamo, la velocità di rendering della GPU è sempre variabile e il tempo necessario per eseguire il rendering di ciascun fotogramma varia a seconda della complessità in continua evoluzione della scena 3D e delle impostazioni di qualità.

Non può sempre essere uguale a 16,7 ms, ma sarà inferiore o superiore a questo valore. Quando la sincronizzazione è abilitata, il lavoro della GPU sui frame termina nuovamente prima o dopo il tempo di aggiornamento dello schermo. Se il rendering del fotogramma è stato eseguito più velocemente di questo momento, non ci sono problemi particolari: le informazioni visive stanno semplicemente aspettando l'aggiornamento del monitor per visualizzare l'intero fotogramma sullo schermo e la GPU è inattiva. Ma se il fotogramma non ha il tempo di essere visualizzato nel tempo assegnato, deve attendere il successivo ciclo di aggiornamento dell'immagine sul monitor, il che provoca un aumento del ritardo tra le azioni del giocatore e la sua visualizzazione sullo schermo. In questo caso, sullo schermo viene nuovamente visualizzata l'immagine del “vecchio” fotogramma precedente.

Sebbene tutto ciò avvenga abbastanza rapidamente, l'aumento della latenza è facilmente notabile visivamente, e non solo dai giocatori professionisti. E poiché il tempo di rendering dei fotogrammi è sempre variabile, l'attivazione del collegamento alla frequenza di aggiornamento del monitor provoca scatti durante la visualizzazione di un'immagine dinamica, perché i fotogrammi vengono visualizzati rapidamente (pari alla frequenza di aggiornamento del monitor) o due, tre o quattro volte Più lentamente. Diamo un'occhiata a un esempio schematico di tale lavoro:

L'illustrazione mostra come vengono visualizzati i fotogrammi sul monitor quando la sincronizzazione verticale è attivata (V-Sync On). Il primo fotogramma (Draw 1) viene renderizzato dalla GPU più velocemente di 16,7 ms, quindi la GPU non va a lavorare sul disegno del fotogramma successivo, e non strappa l'immagine, come nel caso di V-Sync Off, ma attende affinché il primo fotogramma venga completamente trasmesso al monitor. E solo dopo inizia a disegnare il fotogramma successivo (Draw 2).

Ma lavorare sul secondo fotogramma (Draw 2) richiede più di 16,7 ms, quindi una volta scaduti, le informazioni visive del fotogramma precedente vengono visualizzate sullo schermo e vengono mostrate sullo schermo per altri 16,7 ms. E anche dopo che la GPU ha finito di lavorare sul fotogramma successivo, questo non viene visualizzato sullo schermo, poiché il monitor ha una frequenza di aggiornamento fissa. In totale, devi attendere 33,3 ms affinché venga visualizzato il secondo fotogramma e tutto questo tempo viene aggiunto al ritardo tra l'azione del lettore e la fine del fotogramma inviato al monitor.

Al problema del ritardo temporale si aggiunge una lacuna nella fluidità della sequenza video, evidente nella discontinuità dell'animazione 3D. Il problema è mostrato molto chiaramente in un breve video:

Ma anche i processori grafici più potenti nei giochi moderni più impegnativi non possono sempre fornire un frame rate sufficientemente elevato che superi la frequenza di aggiornamento tipica del monitor di 60 Hz. E, di conseguenza, non ti permetteranno di giocare comodamente con la sincronizzazione attivata e senza problemi come lo strappo delle immagini. Soprattutto quando si tratta di giochi come il gioco online Battlefield 4, l'esigente Far Cry 4 e Assassin's Creed Unity in alta risoluzione e massime impostazioni di gioco.

Cioè, il giocatore moderno non ha molta scelta: o ottenere una mancanza di fluidità e maggiori ritardi, oppure accontentarsi di una qualità dell'immagine imperfetta con pezzi di fotogrammi rotti. Naturalmente, in realtà non sembra tutto così male, perché in qualche modo abbiamo giocato tutto questo tempo, giusto? Ma in tempi in cui si cerca di raggiungere l'ideale sia in termini di qualità che di comfort, si vuole di più. Inoltre, i display LCD hanno la capacità tecnologica fondamentale di riprodurre fotogrammi quando il processore grafico lo indica. L'unica cosa che resta da fare è collegare la GPU e il monitor, e una soluzione del genere esiste già: la tecnologia Nvidia G-Sync.

Tecnologia G-Sync: la soluzione di Nvidia ai problemi

Pertanto, la maggior parte dei giochi moderni, quando la sincronizzazione è disattivata, causa lo strappo dell'immagine e quando la sincronizzazione è attivata, causano cambiamenti di frame non fluidi e maggiori ritardi. Anche con frequenze di aggiornamento elevate, i monitor tradizionali non eliminano questi problemi. È probabile che i dipendenti di Nvidia siano stati così stufi per molti anni della scelta tra due opzioni tutt'altro che ideali per la visualizzazione dei fotogrammi nelle applicazioni 3D che hanno deciso di eliminare i problemi offrendo ai giocatori un approccio fondamentalmente nuovo all'aggiornamento delle informazioni su il display.

La differenza tra la tecnologia G-Sync e i metodi di visualizzazione esistenti è che i tempi e il frame rate della variante Nvidia sono determinati dalla GPU Geforce, e sono dinamicamente variabili anziché fissi, come avveniva in precedenza. In altre parole, in questo caso, la GPU assume il pieno controllo dell'output del frame: non appena termina di lavorare sul frame successivo, viene visualizzato sul monitor, senza ritardi o strappi dell'immagine.

L'utilizzo di tale connessione tra la GPU e l'hardware del monitor appositamente adattato offre ai giocatori un metodo di output migliore, semplicemente ideale, in termini di qualità, eliminando tutti i problemi menzionati sopra. G-Sync assicura cambi di fotogramma perfettamente fluidi sul monitor, senza ritardi, scatti o artefatti causati dalla visualizzazione delle informazioni visive sullo schermo.

Naturalmente G-Sync non funziona magicamente e per far funzionare la tecnologia lato monitor è necessaria l'aggiunta di una speciale logica hardware sotto forma di una piccola scheda fornita da Nvidia.

L'azienda sta collaborando con i produttori di monitor per includere le schede G-Sync nei loro modelli di display da gioco. Per alcuni modelli esiste anche la possibilità di un aggiornamento da parte dell'utente stesso, ma questa opzione è più costosa e non ha senso, perché è più semplice acquistare subito un monitor G-Sync. Per un PC, è sufficiente avere una qualsiasi delle moderne schede video Nvidia Geforce nella sua configurazione e un driver video ottimizzato per G-Sync installato: qualsiasi delle ultime versioni andrà bene.

Quando la tecnologia Nvidia G-Sync è abilitata, dopo aver terminato l'elaborazione del fotogramma successivo di una scena 3D, il processore grafico Geforce invia un segnale speciale alla scheda controller G-Sync integrata nel monitor e indica al monitor quando aggiornare l'immagine sullo schermo. Ciò ti consente di ottenere una fluidità e una reattività semplicemente perfette quando giochi su un PC: puoi verificarlo guardando un breve video (necessariamente a 60 fotogrammi al secondo!):

Vediamo come appare la configurazione con la tecnologia G-Sync abilitata, secondo il nostro diagramma:

Come puoi vedere, tutto è molto semplice. L'abilitazione di G-Sync blocca la frequenza di aggiornamento del monitor alla fine del rendering di ciascun fotogramma sulla GPU. La GPU controlla completamente il lavoro: non appena termina il rendering del fotogramma, l'immagine viene immediatamente visualizzata su un monitor compatibile con G-Sync e il risultato non è una frequenza di aggiornamento del display fissa, ma variabile, esattamente come la GPU frequenza dei fotogrammi. Ciò elimina i problemi con lo strappo dell'immagine (dopo tutto, contiene sempre informazioni da un fotogramma), riduce al minimo lo stuttering del frame rate (il monitor non attende più a lungo di quanto il fotogramma venga elaborato fisicamente sulla GPU) e riduce il ritardo di output rispetto al metodo con V. -sincronizzazione abilitata.

Va detto che i giocatori chiaramente non ne avevano abbastanza di una soluzione del genere; il nuovo metodo di sincronizzazione della GPU e del monitor Nvidia G-Sync ha davvero un effetto molto forte sul comfort di gioco su un PC - appare una fluidità quasi perfetta , che prima non c'era - ai nostri tempi di schede video super potenti! Dall'annuncio della tecnologia G-Sync, i vecchi metodi sono diventati immediatamente anacronistici e il passaggio a un monitor G-Sync capace di una frequenza di aggiornamento variabile fino a 144 Hz sembra un'opzione molto interessante che ti consente di sbarazzarti finalmente dei problemi, ritardi e artefatti.

G-Sync presenta degli svantaggi? Naturalmente, come ogni tecnologia. G-Sync, ad esempio, ha una spiacevole limitazione: fornisce un frame output fluido sullo schermo con una frequenza di 30 FPS. Inoltre, la frequenza di aggiornamento selezionata per un monitor in modalità G-Sync imposta il limite superiore per la velocità con cui viene aggiornato il contenuto dello schermo. Cioè, con una frequenza di aggiornamento impostata su 60 Hz, la massima fluidità verrà fornita a una frequenza di 30-60 FPS e a 144 Hz - da 30 a 144 FPS, ma non inferiore al limite inferiore. E con una frequenza variabile (ad esempio da 20 a 40 FPS), il risultato non sarà più l'ideale, sebbene sia notevolmente migliore del tradizionale V-Sync.

Ma lo svantaggio principale di G-Sync è che si tratta di una tecnologia propria di Nvidia, alla quale i concorrenti non hanno accesso. Pertanto, all'inizio di quest'anno, AMD ha annunciato una tecnologia FreeSync simile, che consiste anche nel modificare dinamicamente il frame rate del monitor in base alla preparazione dei frame dalla GPU. Una differenza importante è che lo sviluppo di AMD è aperto e non richiede soluzioni hardware aggiuntive sotto forma di monitor specializzati, poiché FreeSync è stato trasformato in Adaptive-Sync, che è diventato una parte opzionale dello standard DisplayPort 1.2a del noto organizzazione VESA (Video Electronics Standards Association). Si scopre che AMD utilizzerà abilmente il tema sviluppato dal suo concorrente a proprio vantaggio, poiché senza l'avvento e la divulgazione di G-Sync, non avrebbero avuto FreeSync, come pensiamo.

È interessante notare che la tecnologia Adaptive-Sync fa anche parte dello standard VESA Embedded DisplayPort (eDP) ed è già utilizzata in molti componenti di visualizzazione che utilizzano eDP per la trasmissione del segnale. Un'altra differenza rispetto a G-Sync è che i membri VESA possono utilizzare Adaptive-Sync senza dover pagare nulla. Tuttavia, è molto probabile che Nvidia supporterà anche Adaptive-Sync in futuro come parte dello standard DisplayPort 1.2a, perché tale supporto non richiederà grandi sforzi da parte loro. Ma l'azienda non rinuncerà nemmeno a G-Sync, poiché considera prioritarie le proprie soluzioni.

I primi monitor con supporto Adaptive-Sync dovrebbero apparire nel primo trimestre del 2015, non solo avranno porte DisplayPort 1.2a, ma anche un supporto speciale per Adaptive-Sync (non tutti i monitor con supporto DisplayPort 1.2a potranno vantare Questo). Pertanto, nel marzo 2015, Samsung prevede di lanciare le linee di monitor Samsung UD590 (23,6 e 28 pollici) e UE850 (23,6, 27 e 31,5 pollici) con supporto per la risoluzione UltraHD e la tecnologia Adaptive-Sync. AMD afferma che i monitor con supporto per questa tecnologia costeranno fino a 100 dollari in meno rispetto a dispositivi simili con supporto G-Sync, ma è difficile confrontarli, poiché tutti i monitor sono diversi e escono in tempi diversi. Inoltre sul mercato esistono già modelli G-Sync non così costosi.

Differenza visiva e impressioni soggettive

Abbiamo descritto la teoria sopra e ora è il momento di mostrare tutto chiaramente e descrivere i tuoi sentimenti. Abbiamo testato in pratica la tecnologia Nvidia G-Sync in diverse applicazioni 3D utilizzando una scheda grafica Inno3D iChill Geforce GTX 780 HerculeZ X3 Ultra e un monitor Asus PG278Q che supporta la tecnologia G-Sync. Esistono diversi modelli di monitor sul mercato che supportano G-Sync di diversi produttori: Asus, Acer, BenQ, AOC e altri, e per il modello di monitor Asus VG248QE puoi anche acquistare un kit per aggiornarlo per supportare G-Sync su il tuo.

Il modello di scheda video più giovane che utilizza la tecnologia G-Sync è la Geforce GTX 650 Ti, con il requisito estremamente importante di un connettore DisplayPort a bordo. Altri requisiti di sistema includono un sistema operativo almeno Microsoft Windows 7, l'uso di un buon cavo DisplayPort 1.2, e si consiglia l'uso di un mouse di alta qualità con elevata sensibilità e polling rate. La tecnologia G-Sync funziona con tutte le applicazioni 3D a schermo intero che utilizzano le API grafiche OpenGL e Direct3D quando vengono eseguite sui sistemi operativi Windows 7 e 8.1.

Qualsiasi driver moderno sarà adatto al funzionamento, il che: G-Sync è supportato da tutti i driver dell'azienda da più di un anno. Se disponi di tutti i componenti richiesti, devi solo abilitare G-Sync nei driver, se ciò non è già stato fatto, e la tecnologia funzionerà in tutte le applicazioni a schermo intero - e solo in esse, in base al principio stesso della tecnologia.

Per abilitare la tecnologia G-Sync per le applicazioni a schermo intero e ottenere la migliore esperienza, è necessario abilitare la frequenza di aggiornamento di 144 Hz nel pannello di controllo di Nvidia o nelle impostazioni del desktop del sistema operativo. Successivamente, è necessario assicurarsi che l'uso della tecnologia sia consentito nella pagina corrispondente "Configurazione G-Sync"...

Inoltre, seleziona la voce appropriata nella pagina "Gestisci parametri 3D" nel parametro "Impulso di sincronizzazione verticale" dei parametri 3D globali. Qui è anche possibile disattivare l'uso della tecnologia G-Sync a scopo di test o in caso di problemi (guardando al futuro, non ne abbiamo riscontrato alcuno durante i nostri test).

La tecnologia G-Sync funziona a tutte le risoluzioni supportate dai monitor, fino all'UltraHD, ma nel nostro caso abbiamo utilizzato la risoluzione nativa di 2560x1440 pixel a 144 Hz. Nei miei confronti con la situazione attuale, ho utilizzato una modalità di frequenza di aggiornamento di 60 Hz con G-Sync disabilitato per emulare il comportamento dei tipici monitor non G-Sync presenti sulla maggior parte dei giocatori. La maggior parte di essi utilizza monitor Full HD con una modalità massima di 60 Hz.

Vale sicuramente la pena ricordare che, sebbene con G-Sync abilitato, l'aggiornamento dello schermo sarà alla frequenza ideale - quando la GPU "lo vuole", la modalità ottimale sarà comunque renderizzata con un frame rate di circa 40-60 FPS - questo è il frame rate più adatto per i giochi moderni, non troppo piccolo per raggiungere il limite inferiore di 30 FPS, ma che non richiede nemmeno di abbassare le impostazioni. A proposito, questa è la frequenza a cui mira il programma Geforce Experience di Nvidia, fornendo le impostazioni appropriate per i giochi più popolari nell'omonimo software incluso nei driver.

Oltre ai giochi, abbiamo provato anche un'applicazione di test specializzata di Nvidia - . Questa applicazione mostra una scena del pendolo 3D utile per valutare la fluidità e la qualità, consente di simulare diversi frame rate e selezionare la modalità di visualizzazione: V-Sync Off/On e G-Sync. Utilizzando questo software di test è molto semplice mostrare la differenza tra le diverse modalità di sincronizzazione, ad esempio tra V-Sync On e G-Sync:

L'applicazione Pendulum Demo ti consente di testare diversi metodi di sincronizzazione in condizioni diverse, simula un frame rate esatto di 60 FPS per confrontare V-Sync e G-Sync in condizioni ideali per il metodo di sincronizzazione obsoleto - in questa modalità semplicemente non dovrebbe esserci differenza tra i metodi. Ma la modalità 40–50 FPS mette V-Sync On in una posizione scomoda, dove ritardi e cambi di frame irregolari sono visibili ad occhio nudo, poiché il tempo di rendering del frame supera il periodo di aggiornamento a 60 Hz. Quando G-Sync è attivo, tutto diventa perfetto.

Per quanto riguarda il confronto delle modalità con V-Sync disabilitato e G-Sync abilitato, anche qui l'applicazione Nvidia aiuta a vedere la differenza: con frame rate compresi tra 40 e 60 FPS, lo strappo dell'immagine è chiaramente visibile, sebbene ci siano meno ritardi rispetto a V- Sincronizzazione attivata. E anche una sequenza video non fluida in relazione alla modalità G-Sync è evidente, anche se in teoria non dovrebbe essere così - forse è così che il cervello percepisce i fotogrammi "rotti".

Bene, con G-Sync abilitato, qualsiasi modalità dell'applicazione di test (frame rate costante o variabile, non importa) garantisce sempre il video più fluido possibile. E nei giochi, tutti i problemi dell'approccio tradizionale all'aggiornamento delle informazioni su un monitor con una frequenza di aggiornamento fissa sono talvolta ancora più evidenti: in questo caso, puoi valutare chiaramente la differenza tra tutte e tre le modalità utilizzando l'esempio del gioco StarCraft II (visualizzazione di una registrazione salvata in precedenza):

Se il tuo sistema e il tuo browser supportano la riproduzione del formato video MP4/H.264 a una frequenza di 60 FPS, vedrai chiaramente che nella modalità di sincronizzazione disabilitata ci sono evidenti distorsioni dell'immagine e quando V-Sync è attivato, si osservano scatti e irregolarità del video. Tutto questo scompare quando si accende Nvidia G-Sync, in cui non ci sono artefatti nell'immagine, nessun aumento dei ritardi o frame rate “irregolare”.

Naturalmente, G-Sync non è una bacchetta magica e questa tecnologia non eliminerà ritardi e rallentamenti che non sono causati dal processo di output dei fotogrammi su un monitor con una frequenza di aggiornamento fissa. Se il gioco stesso ha problemi con la fluidità dell'output dei fotogrammi e grandi scatti negli FPS causati dal caricamento di trame, dall'elaborazione dei dati sulla CPU, dal lavoro non ottimale con la memoria video, dalla mancanza di ottimizzazione del codice, ecc., rimarranno al loro posto. Inoltre, diventeranno ancora più evidenti, poiché l'output dei fotogrammi rimanenti sarà perfettamente fluido. Tuttavia, in pratica, i problemi non si verificano troppo spesso sui sistemi potenti e G-Sync migliora davvero la percezione del video dinamico.

Poiché la nuova tecnologia di output di Nvidia influisce sull'intera pipeline di output, in teoria potrebbe causare artefatti e frame rate irregolari, soprattutto se il gioco a un certo punto limita artificialmente gli FPS. Probabilmente tali casi, se esistono, sono così rari che non ce ne siamo nemmeno accorti. Ma hanno notato un netto miglioramento nel comfort di gioco: quando si gioca su un monitor con la tecnologia G-Sync abilitata, si ha l'impressione che il PC sia diventato molto più potente da essere in grado di un frame rate costante di almeno 60 FPS senza eventuali abbandoni.

La sensazione che si prova giocando su un monitor G-Sync è molto difficile da descrivere a parole. La differenza è particolarmente evidente a 40-60 FPS, un frame rate molto comune nei giochi moderni esigenti. La differenza rispetto ai monitor convenzionali è semplicemente sorprendente, e cercheremo non solo di raccontarla a parole e mostrarla in esempi video, ma anche di mostrare grafici di frame rate ottenuti con diverse modalità di visualizzazione.

Nei giochi di genere come strategia in tempo reale e giochi simili, come StarCraft II, League of Legends, DotA 2, ecc., i vantaggi della tecnologia G-Sync sono chiaramente visibili, come puoi vedere dall'esempio nel video qui sopra . Inoltre, tali giochi richiedono sempre un'azione frenetica che non tollera ritardi e frame rate irregolari, e lo scorrimento fluido gioca un ruolo piuttosto importante nel comfort, che è fortemente ostacolato dallo strappo delle immagini con V-Sync Off e dai ritardi e ritardi con V. -Sincronizzazione attivata. Quindi la tecnologia G-Sync è ideale per giochi di questo tipo.

Gli sparatutto in prima persona come Crysis 3 e Far Cry 4 sono ancora più comuni; sono anche molto esigenti in termini di risorse di calcolo e con impostazioni di alta qualità, i giocatori spesso ottengono frame rate di circa 30-60 FPS - ideali per l'utilizzo di G-Sync , che migliora davvero in modo significativo il comfort quando si gioca in tali condizioni. Il tradizionale metodo di sincronizzazione verticale molto spesso ti costringerà a produrre fotogrammi a una frequenza di soli 30 FPS, aumentando ritardi e scatti.

Lo stesso vale per i giochi in terza persona come le serie Batman, Assassin's Creed e Tomb Raider. Questi giochi utilizzano anche la tecnologia grafica più recente e richiedono GPU abbastanza potenti per ottenere frame rate elevati. Con le impostazioni massime in questi giochi e disabilitando V-Sync, gli FPS spesso risultano nell'ordine di 30-90, il che causa spiacevoli strappi dell'immagine. Abilitare V-Sync aiuta solo in alcune scene con minori requisiti di risorse, e il frame rate salta da 30 a 60 passi, il che causa rallentamenti e scatti. E l'attivazione di G-Sync risolve tutti questi problemi, e questo è chiaramente evidente nella pratica.

Risultati dei test pratici

In questa sezione esamineremo l'impatto di G-Sync e V-Sync sui frame rate: i grafici delle prestazioni ti danno un'idea chiara delle prestazioni delle diverse tecnologie. Durante i test, abbiamo testato diversi giochi, ma non tutti sono convenienti per mostrare la differenza tra V-Sync e G-Sync: alcuni benchmark di gioco non consentono di forzare V-Sync, altri giochi non hanno un mezzo conveniente per farlo. giocando l'esatta sequenza di gioco (la maggior parte dei giochi moderni purtroppo), altri ancora vengono eseguiti sul nostro sistema di test troppo velocemente o entro limiti ristretti di framerate.

Quindi abbiamo optato per Just Cause 2 con le impostazioni massime, oltre a un paio di benchmark: Unigine Heaven e Unigine Valley, anch'essi con impostazioni di qualità massima. I frame rate in queste applicazioni variano abbastanza ampiamente, il che è utile per il nostro scopo di mostrare cosa succede all'output del frame in condizioni diverse.

Sfortunatamente, al momento non disponiamo del sistema software e hardware FCAT in uso e non saremo in grado di mostrare grafici di FPS reali e video registrati in diverse modalità. Invece, abbiamo testato il frame rate secondo medio e istantaneo utilizzando un'utilità ben nota alle frequenze di aggiornamento del monitor a 60 e 120 Hz utilizzando i metodi di aggiornamento dello schermo V-Sync On, V-Sync Off, Adaptive V-Sync e G-Sync. tecnologia a 144 Hz per mostrare la chiara differenza tra la nuova tecnologia e gli attuali monitor a 60 Hz con sincronizzazione verticale tradizionale.

G-Sync contro V-Sync attivato

Inizieremo il nostro studio confrontando le modalità con la sincronizzazione verticale abilitata (V-Sync On) e la tecnologia G-Sync: questo è il confronto più rivelatore, che mostrerà la differenza tra i metodi che non presentano gli svantaggi dello strappo dell'immagine. Innanzitutto, esamineremo l'applicazione di test Heaven con le impostazioni di massima qualità con una risoluzione di 2560x1440 pixel (facendo clic sulle immagini in miniatura si aprono i grafici a piena risoluzione):

Come si può vedere nel grafico, il frame rate con G-Sync abilitato e senza sincronizzazione è quasi lo stesso, fatta eccezione per la frequenza superiore a 60 FPS. Ma gli FPS nella modalità con il metodo di sincronizzazione verticale abilitato sono notevolmente diversi, perché in esso il frame rate può essere inferiore o uguale a 60 FPS e un multiplo di numeri interi: 1, 2, 3, 4, 5, 6... ., poiché il monitor a volte deve mostrare lo stesso fotogramma precedente per diversi periodi di aggiornamento (due, tre, quattro e così via). Cioè possibili “step” del valore del frame rate con V-Sync attivo e 60 Hz: 60, 30, 20, 15, 12, 10, ... FPS.

Questa gradazione è chiaramente visibile nella linea rossa del grafico: durante l'esecuzione di questo test, il frame rate era spesso pari a 20 o 30 FPS e, molto meno spesso, a 60 FPS. Sebbene con G-Sync e V-Sync Off (No Sync) spesso rientrava in un intervallo più ampio: 35–50 FPS. Con V-Sync abilitato, questa velocità di output non è possibile, quindi in questi casi il monitor visualizza sempre 30 FPS, limitando le prestazioni e aggiungendo ritardo al tempo di output complessivo.

Va notato che il grafico sopra non mostra il frame rate istantaneo, ma i valori medi entro un secondo, e in realtà gli FPS possono "saltare" molto di più - quasi ogni fotogramma, il che causa spiacevoli instabilità e ritardi. Per vederlo chiaramente, presentiamo un paio di grafici con FPS istantanei, più precisamente, con grafici del tempo di rendering di ciascun fotogramma in millisecondi. Primo esempio (le linee sono leggermente spostate l'una rispetto all'altra, viene mostrato solo il comportamento approssimativo in ciascuna modalità):

Come puoi vedere, in questo esempio, il frame rate nel caso di G-Sync cambia più o meno uniformemente, e con V-Sync On cambia gradualmente (ci sono singoli salti nel tempo di rendering in entrambi i casi - questo è normale) . Con Vsync abilitato, il rendering dei frame e i tempi di output possono arrivare fino a 16,7 ms; 33,3 ms; 50 ms, come si può vedere dal grafico. Nei numeri FPS ciò corrisponde a 60, 30 e 20 fotogrammi al secondo. Oltre a ciò non vi è alcuna differenza particolare tra il comportamento delle due linee; si notano dei picchi in entrambi i casi. Consideriamo un altro periodo di tempo significativo:

In questo caso ci sono evidenti fluttuazioni nel tempo di rendering del fotogramma, e con esse l'FPS in caso di sincronizzazione verticale abilitata. Guarda, con V-Sync attivo c'è un brusco cambiamento nel tempo di rendering del fotogramma da 16,7 ms (60 FPS) a 33,3 ms (30 FPS) e viceversa - in realtà, questo causa quella scomoda irregolarità e scatti chiaramente visibili nella sequenza video . La fluidità dei cambi di fotogramma nel caso di G-Sync è molto più elevata e giocare in questa modalità sarà notevolmente più confortevole.

Diamo un'occhiata al grafico FPS nella seconda applicazione di test - Unigine Valley:

In questo benchmark notiamo la stessa cosa che in Paradiso. I frame rate nelle modalità G-Sync e V-Sync Off sono quasi gli stessi (ad eccezione di un picco superiore a 60 Hz) e V-Sync attivato provoca un chiaro cambio di passo in FPS, mostrando spesso 30 FPS, a volte scendendo a 20 FPS e aumento a 60 FPS: comportamento tipico di questo metodo, che causa ritardi, scatti e riprese video non fluide.

In questa sottosezione non ci resta che osservare un segmento del test integrato del gioco Just Cause 2:

Questo gioco mostra perfettamente l'inadeguatezza del metodo di sincronizzazione obsoleto V-Sync On! Quando il frame rate varia da 40 a 60-70 FPS le linee G-Sync e V-Sync Off quasi coincidono, ma il frame rate con V-Sync On raggiunge i 60 FPS solo in brevi periodi. Cioè, con le reali capacità della GPU di giocare a 40-55 FPS, il giocatore si accontenterà di soli 30 FPS.

Inoltre, nella sezione del grafico in cui la linea rossa salta da 30 a 40 FPS, in realtà, quando si visualizza l'immagine, si nota chiaramente un frame rate non uniforme: salta da 60 a 30 quasi ogni fotogramma, il che chiaramente non aggiunge morbidezza e comfort durante il gioco. Ma forse la sincronizzazione verticale resisterà meglio con una frequenza di aggiornamento dei fotogrammi di 120 Hz?

G-Sync contro V-Sync 60/120 Hz

Diamo un'occhiata alle due modalità di sincronizzazione verticale abilitata V-Sync On con frequenze di aggiornamento dell'immagine di 60 e 120 Hz, confrontandole con la modalità V-Sync Off (come abbiamo definito in precedenza, questa linea è quasi identica a G-Sync). Ad una frequenza di aggiornamento di 120 Hz, ai “passi” FPS che già conosciamo vengono aggiunti più valori: 120, 40, 24, 17 FPS, ecc., che possono rendere il grafico meno graduale. Diamo un'occhiata al frame rate nel benchmark Heaven:

È evidente che la frequenza di aggiornamento di 120 Hz aiuta la modalità V-Sync On a ottenere prestazioni migliori e frame rate più fluidi. Nei casi in cui a 60 Hz il grafico mostra 20 FPS, la modalità 120 Hz dà un valore intermedio di almeno 24 FPS. E sul grafico sono chiaramente visibili 40 FPS invece di 30 FPS. Ma non ci sono meno passaggi, ma anche di più, in modo che il frame rate con un aggiornamento a 120 Hz, sebbene cambi di poco, lo fa più spesso, il che influisce negativamente anche sulla fluidità generale.

Ci sono meno cambiamenti nel benchmark Valley, in quanto il frame rate medio è il più vicino al livello di 30 FPS disponibile sia per le frequenze di aggiornamento di 60 che per quelle di 120 Hz. Sync Off fornisce fotogrammi più fluidi ma con artefatti visivi, e le modalità V-Sync On mostrano nuovamente linee frastagliate. In questa sottosezione non ci resta che dare un'occhiata al gioco Just Cause 2.

E ancora una volta vediamo chiaramente quanto sia difettosa la sincronizzazione verticale, che non fornisce un cambio di fotogrammi fluido. Anche il passaggio alla frequenza di aggiornamento di 120 Hz offre alla modalità V-Sync On solo pochi "passi" extra di FPS - i salti nel frame rate avanti e indietro da un passo all'altro non sono scomparsi - tutto questo è molto spiacevole durante la visualizzazione scene animate in 3D, puoi crederci sulla parola o guardare di nuovo i video di esempio qui sopra.

Impatto del metodo di output sul frame rate medio

Cosa succede al frame rate medio quando tutte queste modalità di sincronizzazione sono abilitate e in che modo l'attivazione di V-Sync e G-Sync influisce sulle prestazioni medie? Puoi stimare approssimativamente la perdita di velocità anche dai grafici FPS mostrati sopra, ma presenteremo anche i valori di frame rate medi che abbiamo ottenuto durante i test. Il primo sarà nuovamente Unigine Heaven:

Le prestazioni nelle modalità Adaptive V-Sync e V-Sync Off sono quasi le stesse: dopo tutto, la velocità quasi non aumenta oltre i 60 FPS. È logico che l'abilitazione di V-Sync porti anche a una diminuzione del frame rate medio, poiché questa modalità utilizza indicatori FPS a gradini. A 60 Hz, il calo del frame rate medio è stato di oltre un quarto e l'attivazione di 120 Hz ha riportato solo la metà della perdita di FPS medi.

La cosa più interessante per noi è quanto diminuisce il frame rate medio in modalità G-Sync. Per qualche motivo, la velocità sopra i 60 FPS viene ridotta, sebbene il monitor fosse impostato sulla modalità 144 Hz, quindi la velocità quando G-Sync è attivato era leggermente inferiore rispetto alla modalità con la sincronizzazione disabilitata. In generale, possiamo supporre che non ci siano perdite, e di certo non possono essere paragonate alla mancanza di velocità con V-Sync On. Consideriamo il secondo punto di riferimento: Valley.

In questo caso, il calo della velocità media di rendering nelle modalità con V-Sync abilitato è diminuito, poiché il frame rate durante il test è stato vicino a 30 FPS - uno dei "passi" di frequenza per V-Sync in entrambe le modalità: 60 e 120 Hz. Ebbene, per ovvie ragioni, le perdite nel secondo caso furono leggermente inferiori.

Quando G-Sync è stato attivato, il frame rate medio era nuovamente inferiore a quello notato nella modalità di sincronizzazione disabilitata, tutto per lo stesso motivo: l'attivazione di G-Sync ha "ucciso" valori FPS superiori a 60. Ma la differenza è piccola e la nuova modalità di Nvidia fornisce velocità notevolmente più elevate rispetto a Vsync abilitato. Diamo un'occhiata all'ultimo grafico: il frame rate medio nel gioco Just Cause 2:

Nel caso di questo gioco, la modalità V-Sync On ha sofferto molto di più rispetto alle applicazioni di test sul motore Unigine. Il frame rate medio in questa modalità a 60 Hz è più di una volta e mezza inferiore rispetto a quando la sincronizzazione è completamente disattivata! Abilitare una frequenza di aggiornamento di 120 Hz migliora notevolmente la situazione, ma G-Sync ti consente comunque di ottenere prestazioni notevolmente migliori anche con numeri FPS medi, per non parlare del comfort del gioco, che non può più essere valutato solo dai numeri: hai per vederlo con i tuoi occhi.

Quindi, in questa sezione abbiamo scoperto che la tecnologia G-Sync fornisce frame rate vicini alla modalità con sincronizzazione disabilitata e la sua inclusione non ha quasi alcun effetto sulle prestazioni. A differenza di V-Sync, quando abilitato, il frame rate cambia passo dopo passo e spesso ci sono salti da un passo all'altro, il che provoca movimenti non fluidi durante l'output di una serie animata di fotogrammi e ha un effetto dannoso sul comfort nei giochi 3D.

In altre parole, sia le nostre impressioni soggettive che i risultati dei test suggeriscono che la tecnologia G-Sync di Nvidia cambia davvero in meglio il comfort visivo dei giochi 3D. Il nuovo metodo è privo di artefatti grafici sotto forma di strappo di un'immagine composta da più fotogrammi adiacenti, come vediamo nella modalità con V-Sync disabilitato, e non ci sono problemi con la fluidità dell'output dei fotogrammi sul monitor e una maggiore ritardi di uscita, come nella modalità V-Sync attiva.

Conclusione

Nonostante tutte le difficoltà di misurare oggettivamente la fluidità dell'uscita video, vorrei innanzitutto esprimere una valutazione soggettiva. Siamo rimasti piuttosto colpiti dall'esperienza di gioco sulla Nvidia GeForce e sul monitor Asus abilitato G-Sync. Anche una dimostrazione "dal vivo" di G-Sync fa davvero una forte impressione con la fluidità dei cambi di fotogramma e, dopo una lunga prova di questa tecnologia, diventa molto noioso continuare a giocare su un monitor con i vecchi metodi di visualizzazione delle immagini sullo schermo.

Forse G-Sync può essere considerato il cambiamento più grande da molto tempo nel processo di visualizzazione delle informazioni visive sullo schermo: finalmente abbiamo visto qualcosa di veramente nuovo nella connessione tra display e GPU, che influisce direttamente sul comfort di visualizzazione della grafica 3D e uniforme e così evidente. E prima che Nvidia annunciasse la tecnologia G-Sync, per molti anni eravamo legati a standard di output delle immagini obsoleti, radicati nei requisiti dell'industria televisiva e cinematografica.

Naturalmente, mi piacerebbe avere tali capacità anche prima, ma ora non è un brutto momento per la sua implementazione, poiché in molti giochi 3D impegnativi, con le impostazioni massime, le migliori schede video moderne forniscono un frame rate al quale i vantaggi dell'abilitazione di G -La sincronizzazione diventa massima. E prima dell'avvento della tecnologia Nvidia, il realismo raggiunto nei giochi veniva semplicemente "ucciso" dai migliori metodi di aggiornamento dell'immagine sul monitor, causando strappi dell'immagine, aumento dei ritardi e scatti nel frame rate. La tecnologia G-Sync consente di eliminare questi problemi equiparando il frame rate sullo schermo alla velocità di rendering del processore grafico (anche se con alcune limitazioni): questo processo è ora gestito dalla GPU stessa.

Non abbiamo incontrato una sola persona che abbia provato G-Sync al lavoro e sia rimasta insoddisfatta di questa tecnologia. Le recensioni dei primi fortunati che hanno testato la tecnologia ad un evento Nvidia lo scorso autunno sono state assolutamente entusiaste. Anche giornalisti della stampa specializzata e sviluppatori di giochi (John Carmack, Tim Sweeney e Johan Andersson) hanno sostenuto il nuovo metodo di prelievo. Ora ci uniamo: dopo diversi giorni di utilizzo del monitor con G-Sync, non voglio tornare ai vecchi dispositivi con metodi di sincronizzazione obsoleti. Ah, se solo ci fosse più scelta di monitor con G-Sync, e se non fossero dotati esclusivamente di matrici TN...

Bene, tra gli svantaggi della tecnologia Nvidia possiamo notare che funziona con un frame rate di almeno 30 FPS, il che può essere considerato un fastidioso inconveniente: sarebbe meglio se anche a 20-25 FPS l'immagine fosse visualizzata chiaramente dopo è stato preparato sulla GPU. Ma lo svantaggio principale di questa tecnologia è che G-Sync è la soluzione propria dell’azienda, che non viene utilizzata da altri produttori di GPU: AMD e Intel. Puoi anche capire Nvidia, perché ha speso risorse per lo sviluppo e l'implementazione della tecnologia e ha negoziato con i produttori di monitor per supportarla proprio con il desiderio di fare soldi. In realtà, ancora una volta hanno agito come motore del progresso tecnico, nonostante la presunta avidità di profitto dell’azienda. Sveliamo un grande "segreto": il profitto è l'obiettivo principale di qualsiasi azienda commerciale e Nvidia non fa eccezione.

Eppure, è più probabile che il futuro risieda in standard aperti più universali, simili nella sostanza a G-Sync, come Adaptive-Sync, una funzionalità opzionale all'interno di DisplayPort 1.2a. Ma l'aspetto e la distribuzione dei monitor con tale supporto dovranno attendere ancora un po' di tempo, da qualche parte fino alla metà del prossimo anno, e i monitor G-Sync di diverse aziende (Asus, Acer, BenQ, AOC e altri) sono già in vendita per diversi mesi, anche se non troppo economico. Niente impedisce a Nvidia di supportare Adaptive-Sync in futuro, anche se non hanno commentato ufficialmente questo argomento. Speriamo che i fan di GeForce non solo abbiano ora una soluzione funzionante sotto forma di G-Sync, ma che in futuro sarà possibile utilizzare le frequenze di aggiornamento dinamiche nell'ambito di uno standard generalmente accettato.

Tra gli altri svantaggi della tecnologia Nvidia G-Sync per gli utenti, notiamo che il suo supporto lato monitor costa al produttore una certa cifra, il che si traduce anche in un aumento del prezzo al dettaglio rispetto ai monitor standard. Tuttavia, tra i monitor G-Sync ci sono modelli di prezzi diversi, compresi alcuni non troppo costosi. La cosa principale è che sono già in vendita e ogni giocatore può ottenere il massimo comfort giocando in questo momento, e finora solo quando utilizza le schede video Nvidia Geforce: l'azienda garantisce questa tecnologia.

Hai un monitor compatibile con G-SYNC e una scheda grafica NVIDIA? Vediamo cos'è G-SYNC, come abilitarlo e configurarlo correttamente per sfruttare appieno le potenzialità e le capacità di questa tecnologia. Tieni presente che semplicemente accenderlo non è tutto.

Ogni giocatore sa cos'è la sincronizzazione verticale (V-Sync). Questa funzione sincronizza i fotogrammi dell'immagine in modo tale da eliminare l'effetto dello strappo dello schermo. Se disabiliti la sincronizzazione verticale su un monitor normale, diminuirai l'input lag (latenza) e noterai che il gioco risponderà meglio ai tuoi comandi, ma in questo modo i fotogrammi non saranno sincronizzati correttamente e si verificherà uno strappo dello schermo .

V-Sync elimina lo strappo dello schermo, ma allo stesso tempo provoca un aumento del ritardo nell'output dell'immagine rispetto ai controlli, in modo che il gioco diventi meno confortevole. Ogni volta che muovi il mouse, sembra che l'effetto del movimento avvenga con un leggero ritardo. E qui viene in soccorso la funzione G-SYNC, che consente di eliminare entrambe queste carenze.

Cos'è G-SYNC?

Una soluzione piuttosto costosa ma efficace per le schede video NVIDIA GeForce è l'uso della tecnologia G-SYNC, che elimina lo strappo dello schermo senza utilizzare un input lag aggiuntivo. Ma per implementarlo è necessario un monitor che includa il modulo G-SYNC. Il modulo regola la frequenza di aggiornamento dello schermo in base al numero di fotogrammi al secondo, quindi non vi è alcun ritardo aggiuntivo e l'effetto dello strappo dello schermo viene eliminato.

Molti utenti, dopo aver acquistato un monitor di questo tipo, abilitano il supporto NVIDIA G-SYNC solo nelle impostazioni del pannello di controllo NVIDIA con la convinzione che questo sia tutto ciò che dovrebbero fare. Teoricamente sì, perché G-SYNC funzionerà, ma se vuoi massimizzare l'utilizzo di questa tecnologia, allora devi abilitare una serie di funzioni aggiuntive legate all'impostazione appropriata del classico V-sync e alla limitazione degli FPS nei giochi a un numero di fotogrammi inferiore alla frequenza di aggiornamento massima del monitor. Perché? Imparerai tutto questo dai seguenti consigli.

Abilitazione di G-SYNC nel pannello di controllo NVIDIA

Cominciamo con la soluzione base più semplice, ovvero dal momento in cui si accende il modulo G-SYNC. Questo può essere fatto utilizzando il pannello di controllo NVIDIA. Fai clic con il pulsante destro del mouse sul desktop e seleziona Pannello di controllo NVIDIA.

Quindi vai alla scheda Display - Configurazione G-SYNC. Qui puoi abilitare la tecnologia utilizzando il campo “Abilita G-SYNC”. Taggalo.

Puoi quindi specificare se funzionerà solo in modalità a schermo intero, oppure potrà attivarsi anche nei giochi eseguiti in modalità finestra o in una finestra a schermo intero (senza bordi).

Se selezioni l'opzione "Abilita G-SYNC per la modalità a schermo intero", la funzione funzionerà solo nei giochi in cui è impostata la modalità a schermo intero (questa opzione può essere modificata nelle impostazioni di giochi specifici). I giochi in modalità finestra o a schermo intero non utilizzeranno questa tecnologia.

Se desideri che anche i giochi in finestra utilizzino la tecnologia G-SYNC, abilita l'opzione "Abilita G-SYNC per la modalità a finestra e a schermo intero". Quando questa opzione è selezionata, la funzione intercetta la finestra attualmente attiva e sovrappone la sua azione su di essa, consentendole di supportare l'aggiornamento dello schermo modificato. Potrebbe essere necessario riavviare il computer per attivare questa opzione.

Come verificare che questa tecnologia sia abilitata. Per fare ciò, apri il menu Display nella parte superiore della finestra e controlla il campo "Indicatore G-SYNC" al suo interno. Questo ti informerà che G-SYNC è abilitato quando avvii il gioco.

Quindi vai alla scheda Gestisci impostazioni 3D nel menu laterale. Nella sezione "Impostazioni globali", trova il campo "Frequenza di aggiornamento preferita".

Impostalo su "Il più alto disponibile". Alcuni giochi potrebbero imporre una propria frequenza di aggiornamento, il che potrebbe comportare il mancato utilizzo completo di G-SYNC. Grazie a questo parametro, tutte le impostazioni del gioco verranno ignorate e sarà sempre abilitata la possibilità di utilizzare la frequenza di aggiornamento massima del monitor, che nei dispositivi con G-SYNC è molto spesso 144Hz.

In generale, questa è la configurazione di base che devi eseguire per abilitare G-SYNC. Ma se vuoi sfruttare appieno il potenziale della tua attrezzatura, dovresti leggere le seguenti istruzioni.

Cosa devo fare con V-SYNC se ho G-SYNC? Lasciarlo acceso o spegnerlo?

Questo è il dilemma più comune dei possessori di monitor G-SYNC. È generalmente accettato che questa tecnologia sostituisca completamente il classico V-SYNC, che può essere completamente disabilitato nel pannello di controllo NVIDIA o semplicemente ignorato.

Per prima cosa devi capire la differenza tra loro. Il compito di entrambe le funzioni è teoricamente lo stesso: superare l'effetto dello strappo dello schermo. Ma il metodo di azione è significativamente diverso.

V-SYNC sincronizza i fotogrammi per corrispondere alla frequenza di aggiornamento costante del monitor. Di conseguenza, la funzione funge da intermediario, catturando l'immagine e quindi la cornice del display in modo da adattarle ad un frame rate costante, evitando così lo strappo dell'immagine. Di conseguenza, ciò può portare a un input lag (ritardo), poiché V-SYNC deve prima "catturare e organizzare" l'immagine e solo successivamente visualizzarla sullo schermo.

G-SYNC funziona esattamente al contrario. Non adatta l'immagine, ma la frequenza di aggiornamento del monitor al numero di fotogrammi visualizzati sullo schermo. Tutto avviene via hardware utilizzando il modulo G-SYNC integrato nel monitor, quindi non vi è alcun ritardo aggiuntivo nella visualizzazione dell'immagine, come nel caso della sincronizzazione verticale. Questo è il suo principale vantaggio.

Il problema è che G-SYNC funziona bene solo quando l'FPS rientra nell'intervallo di frequenza di aggiornamento supportato. Questa gamma copre le frequenze da 30 Hz al valore massimo supportato dal monitor (60 Hz o 144 Hz). Cioè, questa tecnologia funziona al massimo delle sue potenzialità quando gli FPS non scendono sotto i 30 e non superano i 60 o i 144 fotogrammi al secondo, a seconda della frequenza di aggiornamento massima supportata. L'infografica qui sotto, creata da BlurBusters, sembra davvero bella.

Cosa succede se gli fps escono da questo intervallo? G-SYNC non sarà in grado di regolare l'aggiornamento dello schermo, quindi qualsiasi cosa al di fuori dell'intervallo non funzionerà. Troverai esattamente gli stessi problemi di un normale monitor senza G-SYNC e funzionerà la classica sincronizzazione verticale. Se è disattivato, si verificherà lo strappo dello schermo. Se è acceso, non vedrai l'effetto gap, ma apparirà un iput lag (ritardo).

Pertanto, è nel tuo interesse rimanere entro l'intervallo di aggiornamento G-SYNC, che è un minimo di 30 Hz e un massimo di qualunque valore massimo raggiunto dal monitor (144 Hz è il più comune, ma ci sono anche display a 60 Hz). Come farlo? Utilizzando parametri di sincronizzazione verticale appropriati, nonché limitando il numero massimo di FPS.

Qual è allora la conclusione da ciò? In una situazione in cui il numero di fotogrammi al secondo scende al di sotto di 30 FPS, è necessario lasciare la sincronizzazione verticale ancora abilitata. Si tratta di casi rari, ma se ciò accade, V-SYNC garantisce che non si verifichi alcun effetto di strappo. Se il limite superiore viene superato, tutto è semplice: è necessario limitare il numero massimo di fotogrammi al secondo in modo da non avvicinarsi al limite superiore, quando viene superato, V-SYNC viene attivato, garantendo così il funzionamento continuo di G-SYNC .

Pertanto, se si dispone di un monitor a 144 Hz, è necessario abilitare il cap FPS a 142 per evitare di avvicinarsi troppo al limite superiore. Se il monitor è a 60 Hz, imposta il limite a 58. Anche se il computer è in grado di produrre più FPS, non lo farà. Quindi V-SYNC non si accenderà e sarà attivo solo G-SYNC.

Abilitazione di Vsync nelle Impostazioni NVIDIA

Apri il pannello di controllo NVIDIA e vai alla scheda "Gestisci impostazioni 3D". Nella sezione Impostazioni globali, trova l'opzione Sincronizzazione verticale e imposta l'opzione su "On".

Grazie a ciò, la sincronizzazione verticale sarà sempre pronta ad attivarsi se l'FPS scende sotto i 30 FPS, e un monitor con tecnologia G-SYNC non sarebbe in grado di farcela.

Limita gli FPS a un valore inferiore alla frequenza di aggiornamento massima dello schermo

Il modo migliore per limitare i fotogrammi al secondo è utilizzare il programma RTSS (RivaTuner Statistics Server). Naturalmente la soluzione migliore è utilizzare il limitatore integrato nel gioco, ma non tutti ne hanno uno.

Scarica ed esegui il programma, quindi nell'elenco dei giochi sul lato sinistro, seleziona il campo Globale. Qui è possibile impostare un limitatore comune per tutte le applicazioni. Sul lato destro, trova il campo "Limite frame". Imposta qui il limite per i monitor a 144 Hz - 142 FPS, rispettivamente, per i dispositivi a 60 Hz -58 FPS.

Una volta impostato il limite, non ci sarà alcun ritardo nell'attivazione della classica sincronizzazione verticale e giocare diventerà molto più comodo.

I migliori monitor per i giochi | Modelli che supportano le tecnologie Nvidia G-Sync

La tecnologia con frequenza di aggiornamento dello schermo variabile o adattiva è disponibile in due varietà: AMD FreeSync e Nvidia G-Sync. Svolgono la stessa funzione: riducono la frequenza di aggiornamento della sorgente (scheda video) e del display per evitare fastidiosi strappi dei fotogrammi durante i movimenti veloci nel gioco. FreeSync fa parte delle specifiche DisplayPort, mentre G-Sync richiede hardware aggiuntivo concesso in licenza da Nvidia. L'implementazione di G-Sync aggiunge circa 200 dollari al prezzo del monitor. Se possedete già una moderna scheda grafica GeForce, la scelta è ovvia. Se sei ancora indeciso, sappi che G-Sync ha un vantaggio. Quando il frame rate scende al di sotto della soglia G-Sync, ovvero 40 fps, i fotogrammi vengono duplicati per evitare lo strappo dell'immagine. FreeSync non dispone di tale funzionalità.


Tabella pivot


Modello AOC G2460PG Asus RoG PG248Q Dell S2417DG Asus ROG SWIFT PG279Q
Categoria FHD FHD QHD QHD
Il miglior prezzo in Russia, strofina. 24300 28990 31000 58100
Tipo di pannello/retroilluminazione TN/W-LED Array perimetrale TN/W-LED Array perimetrale TN/W-LED Array perimetrale AHVA/W-LED
24" / 16:9 24" / 16:9 24" / 16:9 27" / 16:9
Raggio di curvatura NO NO NO NO
1920x1080 a 144 Hz 1920x1080 a 144 Hz, 180 Hz overcloccato 2560x1440 a 144 Hz, 165 Hz overcloccato 2560x1440 a 165 Hz
Campo operativo FreeSync NO NO NO NO
Profondità di colore/gamma di colori 8 bit (6 bit con FRC)/sRGB 8 bit/sRGB 8 bit/sRGB 8 bit/sRGB
Tempo di risposta (GTG), ms 1 1 1 4
Luminosità, cd/m2 350 350 350 350
Altoparlanti NO NO NO (2) 2 W
Ingressi video (1) Porta Display (1) DisplayPort v1.2, (1) HDMI v1.4 (1) DisplayPort v1.2, (1) HDMI v1.4
connettori audio NO (1) Uscita per cuffie da 3,5 mm (1) ingresso stereo da 3,5 mm, (1) uscita per cuffie da 3,5 mm (1) Uscita per cuffie da 3,5 mm
USB v3.0: (1) ingresso, (2) uscite; v2.0: (2) uscite v3.0: (1) ingresso, (2) uscita v3.0: (1) ingresso, (4) uscita v3.0: (1) ingresso, (2) uscita
Consumo energetico, W 40 tipico 65 massimo 33 tipico 90 max., 0,5 previsto
559x391-517x237 562x418-538x238 541x363x180 620x553x238
Spessore del pannello, mm 50 70 52 66
Larghezza telaio mm 16-26 11 superiore/laterale: 6, inferiore: 15 8-12
Peso (kg 6,5 6,6 5,8 7
Garanzia 3 anni 3 anni 3 anni 3 anni

Modello Acer Predator XB271HK Acer Predator XB321HK Asus ROG PG348Q Acer Predator Z301CTМ
Categoria UHD UHD WQHD QHD
Il miglior prezzo in Russia, strofina. 43900 62000 102000 58000
Tipo di pannello/retroilluminazione Array perimetrale AHVA/W-LED Array perimetrale IPS/W-LED Array perimetrale AH-IPS/W-LED AMVA/W-LED, array perimetrale
Diagonale/formato dello schermo 27" / 16:9 32" / 16:9 34" / 21:9 30" / 21:9
Raggio di curvatura NO NO 3800 mm 1800 mm
Risoluzione/frequenza massima aggiornamenti 3840x2160 a 60 Hz 3840x2160 a 60 Hz 3440x1440 a 75 Hz, 100 Hz overcloccato 2560x1080 a 144 Hz, 200 Hz overcloccato
Campo operativo FreeSync NO NO NO 8 bit/sRGB
Profondità di colore/gamma di colori 10 bit/sRGB 10 bit/sRGB 10 bit/sRGB 10 bit/sRGB
Tempo di risposta (GTG), ms 4 4 5 4
Luminosità, cd/m2 300 350 300 300
Altoparlanti (2) 2 W, DTS (2) 2 W, DTS (2) 2 W (2) 3 W, DTS
Ingressi video (1) DisplayPort v1.2, (1) HDMI v1.4 (1) DisplayPort, (1) HDMI (1) DisplayPort v1.2, (1) HDMI v1.4 (1) DisplayPort v1.2, (1) HDMI v1.4
connettori audio (1) Uscita per cuffie da 3,5 mm (1) Uscita per cuffie da 3,5 mm (1) Uscita per cuffie da 3,5 mm (1) Uscita per cuffie da 3,5 mm
USB v3.0: (1) ingresso, (4) uscita v3.0: (1) ingresso, (4) uscita v3.0: (1) ingresso, (4) uscita v3.0: (1) ingresso, (3) uscita
Consumo energetico, W 71,5 tipico 56 tipico 100 massimo 34 W a 200 nit
Dimensioni LxHxP (con base), mm 614x401-551x268 737x452-579x297 829x558x297 714x384-508x315
Spessore del pannello, mm 63 62 73 118
Larghezza telaio mm superiore/laterale: 8, inferiore: 22 superiore/laterale: 13, inferiore: 20 superiore/laterale: 12, inferiore: 24 superiore/laterale: 12, inferiore: 20
Peso (kg 7 11,5 11,2 9,7
Garanzia 3 anni 3 anni 3 anni 3 anni

AOC G2460PG – FHD 24 pollici


  • Miglior prezzo in Russia: 24.300 rubli.

VANTAGGI

  • Eccellente implementazione di G-Sync
  • Frequenza di aggiornamento dello schermo 144 Hz
  • Soppressione del motion blur ULMB
  • Alta qualità costruttiva
  • Qualità dei colori e della scala di grigi molto elevata

SCREPOLATURA

  • Gamma non standard
  • Luminosità insufficiente per prestazioni ULMB ottimali
  • Niente mance

VERDETTO

Sebbene G-Sync rimanga un'opzione premium e costosa, l'AOC G2460PG è il primo monitor in questo segmento rivolto all'acquirente con budget limitato. Costa circa la metà del prezzo dell'Asus ROG Swift, quindi puoi risparmiare un po' di soldi o installare due monitor sulla tua scrivania contemporaneamente.

Asus RoG PG248Q – FHD 24 pollici


  • Miglior prezzo in Russia: 28.990 rubli.

VANTAGGI

  • G-Sync
  • 180 Hz
  • Bassa latenza
  • Reattività
  • Precisione del colore con calibrazione
  • Aspetto elegante
  • Qualità di costruzione

SCREPOLATURA

  • Per ottenere l'immagine migliore, sono necessarie regolazioni
  • Contrasto
  • Costoso

VERDETTO

La PG248Q è come un'auto sportiva esotica: costosa e poco pratica da utilizzare. Ma se imposti le impostazioni corrette durante l'installazione, otterrai un'esperienza di gioco eccellente. In termini di fluidità e reattività, questo monitor è forse il migliore che abbiamo testato fino ad oggi. Vale la pena spendere tempo e denaro. Altamente raccomandato.

Dell S2417DG


  • Miglior prezzo in Russia: 31.000 rubli.

    VANTAGGI

    • Qualità di elaborazione del movimento superiore
    • Precisione del colore alle impostazioni di fabbrica
    • Risoluzione QHD
    • Frequenza di aggiornamento 165 Hz
    • Funzionalità di gioco
    • Telaio 6 mm

    SCREPOLATURA

    • Contrasto
    • Precisione della curva gamma
    • ULMB riduce l'emissione luminosa e il contrasto
    • Angoli di visione

    VERDETTO

    Se Dell avesse risolto i problemi di gamma riscontrati durante i test, l'S2417DG avrebbe guadagnato il nostro premio Editor's Choice. Il monitor trasmette i movimenti in modo incredibilmente fluido, senza assolutamente immagini fantasma, tremori o lacerazioni: non puoi distogliere lo sguardo da esso. Il vantaggio della funzione ULMB è minimo, ma comunque presente. Non è il monitor da gioco da 24 pollici più economico, ma batte i suoi concorrenti più costosi e merita un posto nella lista.

    Asus RoG Swift PG279Q – QHD 27 pollici


    • Miglior prezzo in Russia: 58.100 rubli.

    VANTAGGI

    • Funzionamento stabile a 165 Hz
    • G-Sync
    • Immagini vivide e nitide
    • Colore saturo
    • GamePlus
    • Joystick per il menu OSD
    • Aspetto elegante
    • Alta qualità costruttiva

    SCREPOLATURA

    • Riduzione significativa del flusso luminoso in modalità ULMB
    • La calibrazione è necessaria per ottenere la migliore qualità dell'immagine
    • Costoso

    VERDETTO

    La nuova aggiunta di Asus alla gamma ROG non è perfetta, ma vale sicuramente la pena darle un'occhiata. Il PG279Q ha tutto ciò di cui un appassionato ha bisogno, incluso un pannello IPS nitido e luminoso, frequenza di aggiornamento di 165 Hz e G-Sync. Questo monitor non è economico, ma non abbiamo ancora sentito parlare di utenti che si siano pentiti dell'acquisto. Ci è piaciuto giocare su questo monitor e probabilmente piacerà anche a te.

    Acer Predator XB271HK – UHD 27 pollici


    • Miglior prezzo in Russia: 43.900 rubli.

    VANTAGGI

    • Colori ricchi
    • Precisione dell'immagine alle impostazioni di fabbrica
    • G-Sync
    • Risoluzione ultra HD
    • Angoli di visione
    • Qualità di costruzione

    SCREPOLATURA

    • Costoso

    Panoramica sulla tecnologia G-Sync | Una breve storia della frequenza di aggiornamento fissa

    Un tempo i monitor erano ingombranti e contenevano tubi a raggi catodici e cannoni elettronici. I cannoni elettronici bombardano lo schermo con fotoni per illuminare punti di fosforo colorati che chiamiamo pixel. Disegnano da sinistra a destra ciascuna linea di "scansione" dall'alto verso il basso. Regolare la velocità del cannone elettronico da un aggiornamento completo a quello successivo non era molto pratico prima, e non ce n'era particolare necessità prima dell'avvento dei giochi 3D. Pertanto, i CRT e i relativi standard video analogici sono stati progettati con una frequenza di aggiornamento fissa.

    I monitor LCD hanno gradualmente sostituito i CRT e i connettori digitali (DVI, HDMI e DisplayPort) hanno sostituito i connettori analogici (VGA). Ma le associazioni responsabili della standardizzazione dei segnali video (guidate da VESA) non si sono allontanate dalle frequenze di aggiornamento fisse. Il cinema e la televisione si basano ancora su un segnale di ingresso con un frame rate costante. Ancora una volta, il passaggio a una frequenza di aggiornamento variabile non sembra così necessario.

    Frame rate regolabili e frequenze di aggiornamento fisse non sono la stessa cosa

    Prima dell'avvento della moderna grafica 3D, le frequenze di aggiornamento fisse non erano un problema per i display. Ma è emerso quando abbiamo incontrato per la prima volta GPU potenti: la velocità con cui la GPU esegue il rendering dei singoli fotogrammi (quello che chiamiamo frame rate, solitamente espresso in FPS o fotogrammi al secondo) non è costante. Cambia nel tempo. Nelle scene grafiche pesanti, la scheda può fornire 30 FPS e quando si guarda un cielo vuoto - 60 FPS.

    La disabilitazione della sincronizzazione causa lacune

    Si scopre che il frame rate variabile della GPU e la frequenza di aggiornamento fissa del pannello LCD non funzionano molto bene insieme. In questa configurazione, incontriamo un artefatto grafico chiamato “tearing”. Si verifica quando due o più fotogrammi parziali vengono renderizzati insieme durante lo stesso ciclo di aggiornamento del monitor. Di solito sono spostati, il che dà un effetto molto spiacevole durante lo spostamento.

    L'immagine sopra mostra due artefatti ben noti che sono comuni ma difficili da catturare. Poiché si tratta di artefatti di visualizzazione, non li vedrai nei normali screenshot del gioco, ma le nostre immagini mostrano ciò che vedi effettivamente mentre giochi. Per fotografarli, hai bisogno di una fotocamera con una modalità di scatto ad alta velocità. Oppure se disponi di una scheda che supporta l'acquisizione video, puoi registrare un flusso video non compresso dalla porta DVI e vedere chiaramente la transizione da un fotogramma a quello successivo; Questo è il metodo che utilizziamo per i test FCAT. Tuttavia, è meglio osservare l'effetto descritto con i propri occhi.

    L'effetto di strappo è visibile in entrambe le immagini. Quello in alto è stato realizzato utilizzando una fotocamera, quello in basso è stato realizzato tramite la funzione di acquisizione video. L'immagine in basso è "tagliata" orizzontalmente e sembra spostata. Nelle due immagini in alto, la foto di sinistra è stata scattata su uno schermo Sharp con frequenza di aggiornamento di 60 Hz, quella di destra è stata scattata su un display Asus con frequenza di aggiornamento di 120 Hz. Lo strappo su un display a 120Hz è meno pronunciato perché la frequenza di aggiornamento è due volte più alta. Tuttavia, l'effetto è visibile e appare nello stesso modo dell'immagine a sinistra. Questo tipo di artefatto è un chiaro segno che le immagini sono state scattate con la sincronizzazione verticale (sincronizzazione verticale) disattivata.

    Battlefield 4 su GeForce GTX 770 con V-sync disabilitato

    Il secondo effetto visibile nelle immagini di BioShock: Infinite si chiama ghosting. È particolarmente visibile nella parte inferiore sinistra della foto ed è associato a un ritardo nell'aggiornamento dello schermo. In breve, i singoli pixel non cambiano colore abbastanza velocemente, risultando in questo tipo di bagliore. Un singolo fotogramma non può trasmettere l'effetto ghosting sul gioco stesso. Un pannello con un tempo di risposta da grigio a grigio di 8 ms, come lo Sharp, finirà per produrre un'immagine sfocata con qualsiasi movimento sullo schermo. Questo è il motivo per cui questi display generalmente non sono consigliati per gli sparatutto in prima persona.

    V-sync: "sprecato di sapone"

    La sincronizzazione verticale, o V-sync, è una soluzione molto antica al problema dello strappo. Quando questa funzione è attivata, la scheda grafica tenta di eguagliare la frequenza di aggiornamento dello schermo, eliminando completamente lo strappo. Il problema è che se la tua scheda grafica non riesce a mantenere il frame rate sopra i 60 FPS (su un display a 60 Hz), il frame rate effettivo salterà tra multipli della frequenza di aggiornamento dello schermo (60, 30, 20, 15 FPS, ecc.) .) ecc.), che a sua volta porterà a notevoli rallentamenti.

    Quando il frame rate scende al di sotto della frequenza di aggiornamento con V-sync attivo, si verificheranno degli scatti

    Inoltre, poiché la sincronizzazione verticale fa attendere la scheda grafica e talvolta si basa sul buffer di superficie invisibile, la sincronizzazione verticale può introdurre un ulteriore ritardo di input nella catena di rendering. Pertanto, la sincronizzazione verticale può essere sia una benedizione che una maledizione, risolvendo alcuni problemi ma causando altri svantaggi. Da un sondaggio informale del nostro staff è emerso che i giocatori tendono a disattivare il V-sync, attivandolo solo quando lo strappo diventa insopportabile.

    Diventa creativo: Nvidia presenta G-Sync

    Quando si avvia una nuova scheda video GeForce GTX 680 Nvidia ha incluso una modalità driver chiamata Adaptive V-sync che tenta di mitigare i problemi abilitando V-sync quando i frame rate sono superiori alla frequenza di aggiornamento del monitor e disabilitandola rapidamente quando le prestazioni scendono bruscamente al di sotto della frequenza di aggiornamento. Anche se la tecnologia ha svolto bene il suo lavoro, si trattava di una soluzione alternativa che non eliminava lo strappo se il frame rate era inferiore alla frequenza di aggiornamento del monitor.

    Implementazione G-Sync molto più interessante. In generale, Nvidia sta dimostrando che invece di forzare il funzionamento delle schede grafiche a una frequenza di visualizzazione fissa, possiamo forzare il funzionamento dei nuovi monitor a una frequenza variabile.

    Il frame rate della GPU determina la frequenza di aggiornamento del monitor, rimuovendo gli artefatti associati all'attivazione e disattivazione della sincronizzazione verticale

    Il meccanismo di trasferimento dati a pacchetto del connettore DisplayPort ha aperto nuove possibilità. Utilizzando intervalli di cancellazione variabili nel segnale video DisplayPort e sostituendo lo scaler del monitor con un modulo che opera su segnali di cancellazione variabili, il pannello LCD può funzionare a una frequenza di aggiornamento variabile correlata al frame rate emesso dalla scheda video (entro la portata del monitor). frequenza di aggiornamento). In pratica, Nvidia è stata creativa con le caratteristiche speciali dell'interfaccia DisplayPort e ha cercato di prendere due piccioni con una fava.

    Ancor prima dell'inizio dei test, vorrei elogiare il team per il loro approccio creativo alla risoluzione di un problema reale che affligge i giochi per PC. Questa è l'innovazione allo stato puro. Ma quali sono i risultati G-Sync in pratica? Scopriamolo.

    Nvidia ci ha inviato un campione ingegneristico del monitor Asus VG248QE, in cui il dispositivo di ridimensionamento è sostituito da un modulo G-Sync. Conosciamo già questo display. L'articolo è dedicato a lui "Recensione Asus VG248QE: monitor da gioco da 24 pollici 144 Hz per $ 400", in cui il monitor ha vinto il premio Tom's Hardware Smart Buy. Ora è il momento di scoprire come la nuova tecnologia di Nvidia influenzerà i giochi più popolari.

    Panoramica sulla tecnologia G-Sync | 3D LightBoost, memoria integrata, standard e 4K

    Mentre esaminavamo i materiali stampa di Nvidia, ci siamo posti molte domande, sia sul posto della tecnologia nel presente che sul suo ruolo nel futuro. Durante un recente viaggio presso la sede centrale dell'azienda a Santa Clara, i nostri colleghi statunitensi hanno ricevuto alcune risposte.

    G-Sync e 3D LightBoost

    La prima cosa che abbiamo notato è che Nvidia ha inviato un monitor Asus VG248QE, modificato per supportare G-Sync. Questo monitor supporta anche la tecnologia 3D LightBoost di Nvidia, originariamente progettata per aumentare la luminosità dei display 3D ma è stata a lungo utilizzata in modo non ufficiale in modalità 2D, utilizzando la retroilluminazione pulsante del pannello per ridurre l'effetto ghosting (o motion blur). Naturalmente, è diventato interessante sapere se questa tecnologia viene utilizzata G-Sync.

    Nvidia ha dato una risposta negativa. Anche se l'utilizzo di entrambe le tecnologie contemporaneamente sarebbe l'ideale, oggi la retroilluminazione stroboscopica a una frequenza di aggiornamento variabile porta a problemi di sfarfallio e luminosità. Risolverli è incredibilmente difficile perché devi regolare la luminosità e seguire gli impulsi. Di conseguenza, la scelta ora è tra le due tecnologie, anche se l’azienda sta cercando di trovare un modo per utilizzarle contemporaneamente in futuro.

    Memoria del modulo G-Sync integrata

    Come già sappiamo, G-Sync elimina il ritardo di input associato al V-sync poiché non è più necessario attendere il completamento della scansione del pannello. Tuttavia, abbiamo notato che il modulo G-Sync ha una memoria incorporata. Il modulo può bufferizzare i frame da solo? Se sì, quanto tempo impiegherà il frame a viaggiare attraverso il nuovo canale?

    Secondo Nvidia, i frame non vengono bufferizzati nella memoria del modulo. Quando i dati arrivano, vengono visualizzati sullo schermo e la memoria esegue alcune altre funzioni. Tuttavia, il tempo di elaborazione per G-Sync notevolmente inferiore a un millisecondo. In effetti, riscontriamo quasi lo stesso ritardo quando la sincronizzazione verticale è disattivata ed è associato alle caratteristiche del gioco, del driver video, del mouse, ecc.

    G-Sync sarà standardizzato?

    Questa domanda è stata posta in una recente intervista con AMD, quando il lettore voleva conoscere la reazione dell'azienda alla tecnologia G-Sync. Tuttavia, volevamo chiedere direttamente allo sviluppatore e scoprire se Nvidia intende portare la tecnologia a uno standard di settore. In teoria, un'azienda può offrire G-Sync come aggiornamento allo standard DisplayPort, fornendo frequenze di aggiornamento variabili. Dopotutto Nvidia è membro dell'associazione VESA.

    Tuttavia, non sono previste nuove specifiche per DisplayPort, HDMI o DVI. G-Sync supporta già DisplayPort 1.2, ovvero non è necessario modificare lo standard.

    Come notato, Nvidia sta lavorando sulla compatibilità G-Sync con una tecnologia che ora si chiama 3D LightBoost (ma presto avrà un nome diverso). Inoltre, l'azienda è alla ricerca di un modo per ridurre il costo dei moduli G-Sync e renderli più accessibili.

    G-Sync a risoluzioni Ultra HD

    Nvidia promette monitor con supporto G-Sync e risoluzioni fino a 3840x2160 pixel. Tuttavia, il modello Asus, che vedremo oggi, supporta solo 1920x1080 pixel. Attualmente, i monitor Ultra HD utilizzano il controller STMicro Athena, che dispone di due scaler per creare un display piastrellato. Ci chiediamo se ci sarà un modulo G-Sync supporta la configurazione MST?

    In verità, i display 4K con frame rate variabile dovranno ancora aspettare. Non esiste ancora un dispositivo di upscaling separato che supporti la risoluzione 4K; il più vicino dovrebbe apparire nel primo trimestre del 2014, mentre i monitor dotati di esso non appariranno fino al secondo trimestre. Dal momento che il modulo G-Sync sostituisce il dispositivo di ridimensionamento, da questo momento in poi inizieranno ad apparire i pannelli compatibili. Fortunatamente, il modulo supporta nativamente l'Ultra HD.

    I monitor NVIDIA G-SYNC sono dotati della rivoluzionaria tecnologia NVIDIA che elimina lo strappo dello schermo e il ritardo di input con la sincronizzazione dei frame VSync e migliora le capacità dei monitor moderni, offrendo l'esperienza di gioco più fluida e reattiva che tu abbia mai visto.

    Di conseguenza, le scene del gioco appaiono istantaneamente, gli oggetti diventano più chiari e il gioco diventa più fluido.

    COME FUNZIONA NVIDIA G-SYNC?

    NVIDIA® G-SYNC™ è una soluzione innovativa che rompe i vecchi schemi per creare i display per computer più avanzati e reattivi della storia. Il modulo NVIDIA G-SYNC può essere installato in modo indipendente o acquistato preinstallato nei monitor da gioco più recenti. Ti aiuta a dimenticare lo strappo dello schermo, il ritardo di input e il jitter che causano affaticamento degli occhi causati da tecnologie meno recenti passate dai televisori analogici ai monitor moderni.

    PROBLEMA: VECCHIA TECNOLOGIA MONITOR

    Quando furono inventati i televisori, usarono tubi a raggi catodici, che funzionavano scansionando il flusso di elettroni attraverso la superficie di un tubo rivestito di fosforo. Questo raggio provocava lo sfarfallio del pixel e, quando un numero sufficiente di pixel veniva attivato abbastanza rapidamente, il tubo a raggi catodici creava la sensazione di un video in pieno movimento. Che ci crediate o no, questi primi televisori funzionavano con una frequenza di aggiornamento di 60 Hz, poiché la frequenza CA commerciale negli Stati Uniti è di 60 Hz. Adattare la frequenza di aggiornamento del televisore alla frequenza CA industriale ha reso più semplice costruire i primi dispositivi elettronici e ridurre il rumore dello schermo.

    Quando furono inventati i personal computer, nei primi anni '80, la tecnologia televisiva a raggi catodici si era saldamente affermata come la tecnologia più semplice ed economica per la creazione di monitor per computer. 60 Hz e frequenze di aggiornamento fisse sono diventati lo standard e i costruttori di sistemi hanno imparato a sfruttare al meglio una situazione tutt’altro che ideale. Negli ultimi tre decenni, mentre la tecnologia TV a raggi catodici si è evoluta nella tecnologia TV LCD e LED, nessuna grande azienda ha osato sfidare questo stereotipo e la sincronizzazione della GPU con la frequenza di aggiornamento del monitor rimane ancora oggi una pratica standard del settore.

    Il problema è che le schede video non riproducono le immagini con una frequenza costante. In effetti, i frame rate della GPU varieranno in modo significativo anche all'interno della stessa scena dello stesso gioco a seconda del carico attuale della GPU. E se i monitor hanno una frequenza di aggiornamento fissa, come trasferisci le immagini dalla GPU allo schermo? Il primo modo è semplicemente ignorare la frequenza di aggiornamento del monitor e aggiornare l'immagine a metà ciclo. Chiamiamo questa modalità VSync disabilitata, che è il modo in cui la maggior parte dei giocatori gioca per impostazione predefinita. Lo svantaggio è che quando un ciclo di aggiornamento del monitor include due immagini, viene visualizzata una "linea di interruzione" molto evidente, comunemente definita strappo dello schermo. Un modo ben noto per combattere lo strappo dello schermo è abilitare la tecnologia VSync, che fa sì che la GPU ritardi l'aggiornamento dello schermo fino all'inizio di un nuovo ciclo di aggiornamento del monitor. Ciò provoca vibrazioni dell'immagine quando la frequenza dei fotogrammi della GPU è inferiore alla frequenza di aggiornamento del display. Aumenta anche la latenza, che porta all'input lag, un notevole ritardo tra la pressione di un tasto e la visualizzazione del risultato sullo schermo.

    A peggiorare le cose, molti giocatori soffrono di affaticamento degli occhi a causa del tremolio delle immagini, mentre altri sviluppano mal di testa ed emicrania. Questo ci ha portato a sviluppare la tecnologia Adaptive VSync, una soluzione efficace che è stata ben accolta dalla critica. Nonostante la creazione di questa tecnologia, rimane ancora il problema dell'input lag, e questo è inaccettabile per molti giocatori appassionati ed è del tutto inadatto per i giocatori professionisti (e-sport) che configurano autonomamente le proprie schede video, monitor, tastiere e mouse per ridurre al minimo i fastidiosi ritardi tra azione e reazione.

    SOLUZIONE: NVIDIA G-SYNC

    Scopri la tecnologia NVIDIA G-SYNC, che elimina lo strappo dello schermo, il ritardo del display VSync e il jitter delle immagini. Per ottenere questa capacità rivoluzionaria, abbiamo creato G-SYNC per monitor, che consente al monitor di sincronizzarsi con il frame rate della GPU, anziché il contrario, ottenendo immagini più veloci, più fluide e senza strappi che portano il gioco al limite. livello successivo.

    I guru del settore John Carmack, Tim Sweeney, Johan Andersson e Mark Rein sono rimasti colpiti dalla tecnologia NVIDIA G-SYNC. I giocatori e le leghe di eSport si stanno mettendo in fila per utilizzare la tecnologia NVIDIA G-SYNC, che libererà le loro vere abilità, richiedendo reazioni ancora più rapide grazie a un ritardo impercettibile tra le azioni sullo schermo e i comandi da tastiera. Durante i test interni, i giocatori accaniti hanno trascorso le ore del pranzo giocando a partite LAN online utilizzando monitor abilitati G-SYNC per vincere.

    Se possiedi un monitor che supporta NVIDIA G-SYNC, avrai un innegabile vantaggio rispetto agli altri giocatori nei giochi online, a patto che anche tu abbia un ping basso.

    UNA SOLUZIONE RIVOLUZIONARIA È QUI

    In questi tempi di meraviglie tecnologiche, pochi progressi possono essere definiti veramente “innovativi” o “rivoluzionari”. Tuttavia, NVIDIA G-SYNC è una di quelle poche scoperte che rivoluziona la tecnologia dei monitor obsoleta con un approccio innovativo mai provato prima.

    G-SYNC elimina il ritardo di input, lo strappo e il jitter per un'esperienza visiva straordinaria su qualsiasi monitor abilitato G-SYNC; sono così fantastici che non vorrai mai più utilizzare un monitor normale. Oltre alla rivoluzione visiva, i giocatori multiplayer trarranno vantaggio dalla combinazione di G-SYNC, grafica GeForce GTX veloce e dispositivi di input a bassa latenza. Questo interesserà sicuramente gli appassionati di sparatutto. Per gli atleti di eSport, NVIDIA G-SYNC rappresenta un miglioramento significativo. Poiché G-SYNC elimina il ritardo di input, il successo o il fallimento ora dipendono dai giocatori, contribuendo a separare i professionisti dai dilettanti.

    Se anche tu, come gli atleti di eSport, desideri l'esperienza di gioco più nitida, fluida e reattiva possibile, i monitor abilitati NVIDIA G-SYNC rappresentano una svolta che non troverai da nessun'altra parte. Una vera innovazione nell'era dei miglioramenti, NVIDIA G-SYNC rivoluzionerà il modo in cui giochi.



  • Questo articolo è disponibile anche nelle seguenti lingue: tailandese

    • Prossimo

      GRAZIE mille per le informazioni molto utili contenute nell'articolo. Tutto è presentato in modo molto chiaro. Sembra che sia stato fatto molto lavoro per analizzare il funzionamento del negozio eBay

      • Grazie a te e agli altri lettori abituali del mio blog. Senza di te, non sarei abbastanza motivato da dedicare molto tempo al mantenimento di questo sito. Il mio cervello è strutturato in questo modo: mi piace scavare in profondità, sistematizzare dati sparsi, provare cose che nessuno ha mai fatto prima o guardato da questa angolazione. È un peccato che i nostri connazionali non abbiano tempo per fare acquisti su eBay a causa della crisi in Russia. Acquistano da Aliexpress dalla Cina, poiché le merci sono molto più economiche (spesso a scapito della qualità). Ma le aste online eBay, Amazon, ETSY daranno facilmente ai cinesi un vantaggio nella gamma di articoli di marca, articoli vintage, articoli fatti a mano e vari articoli etnici.

        • Prossimo

          Ciò che è prezioso nei tuoi articoli è il tuo atteggiamento personale e l'analisi dell'argomento. Non mollare questo blog, ci vengo spesso. Dovrebbero essere in molti così. Mandami un'email Recentemente ho ricevuto un'e-mail con un'offerta che mi avrebbero insegnato come fare trading su Amazon ed eBay. E mi sono ricordato dei tuoi articoli dettagliati su questi mestieri. la zona Ho riletto tutto di nuovo e ho concluso che i corsi sono una truffa. Non ho ancora comprato nulla su eBay. Non vengo dalla Russia, ma dal Kazakistan (Almaty). Ma non abbiamo ancora bisogno di spese aggiuntive. Ti auguro buona fortuna e resta al sicuro in Asia.

    • È anche bello che i tentativi di eBay di russificare l'interfaccia per gli utenti provenienti dalla Russia e dai paesi della CSI abbiano iniziato a dare i loro frutti. Dopotutto, la stragrande maggioranza dei cittadini dei paesi dell'ex Unione Sovietica non ha una conoscenza approfondita delle lingue straniere. Non più del 5% della popolazione parla inglese. Ce ne sono di più tra i giovani. Pertanto, almeno l'interfaccia è in russo: questo è di grande aiuto per gli acquisti online su questa piattaforma di trading. eBay non ha seguito il percorso della sua controparte cinese Aliexpress, dove viene eseguita una traduzione automatica (molto goffa e incomprensibile, a volte provocante risate) delle descrizioni dei prodotti. Spero che in una fase più avanzata di sviluppo dell'intelligenza artificiale, la traduzione automatica di alta qualità da qualsiasi lingua a qualsiasi altra in pochi secondi diventi realtà. Finora abbiamo questo (il profilo di uno dei venditori su eBay con un'interfaccia russa, ma una descrizione in inglese):
      https://uploads.disquscdn.com/images/7a52c9a89108b922159a4fad35de0ab0bee0c8804b9731f56d8a1dc659655d60.png