Es gibt Dinge, über die man nicht nur schwer schreiben kann, sondern über die es sogar sehr schwierig ist. Die Sie nur einmal sehen müssen, anstatt hundertmal davon zu hören oder im Internet zu lesen. Es ist beispielsweise unmöglich, einige Naturwunder zu beschreiben, wie den majestätischen Grand Canyon oder das schneebedeckte Altai-Gebirge. Schöne Bilder mit ihren Bildern kann man hundertmal anschauen und Videos bewundern, doch Live-Eindrücke kann das alles nicht ersetzen.

Für solche Themen gilt auch das Thema der flüssigen Bildausgabe auf dem Monitor mittels Nvidia G-Sync-Technologie – aus den Textbeschreibungen scheinen die Änderungen nicht so groß zu sein, aber in den allerersten Minuten des Spielens eines 3D-Spiels auf einem System mit einem Nvidia Geforce-Grafikkarte an G-Sync-Monitor angeschlossen, wird deutlich, wie groß der qualitative Sprung ist. Und obwohl seit der Ankündigung der Technologie mehr als ein Jahr vergangen ist, verliert die Technologie nicht an Relevanz, sie hat immer noch keine Konkurrenz (unter den auf den Markt gekommenen Lösungen) und die entsprechenden Monitore werden weiterhin produziert.

Nvidia arbeitet seit geraumer Zeit daran, das visuelle Erlebnis von Geforce-GPU-Benutzern in modernen Spielen durch eine flüssigere Darstellung zu verbessern. Sie können sich an die adaptive Synchronisierungstechnologie Adaptive V-Sync erinnern, bei der es sich um einen Hybrid handelt, der Modi mit aktivierter und deaktivierter vertikaler Synchronisierung (V-Sync On bzw. V-Sync Off) kombiniert. Für den Fall, dass die GPU Rendering mit einer Bildrate bereitstellt, die unter der Bildwiederholfrequenz des Monitors liegt, ist die Synchronisierung deaktiviert und für FPS, die die Bildwiederholfrequenz überschreiten, aktiviert.

Adaptive Sync löste nicht alle Probleme mit der reibungslosen Nutzung, war aber dennoch ein wichtiger Schritt in die richtige Richtung. Aber warum war es notwendig, spezielle Synchronisationsmodi zu schaffen und sogar Software- und Hardwarelösungen zu veröffentlichen? Was ist falsch an Technologien, die es schon seit Jahrzehnten gibt? Heute erzählen wir Ihnen, wie die Nvidia G-Sync-Technologie dabei hilft, alle bekannten Anzeigeartefakte wie Bildrisse, ungleichmäßiges Filmmaterial und erhöhte Verzögerungen zu beseitigen.

Mit Blick auf die Zukunft können wir sagen, dass die G-Sync-Synchronisierungstechnologie einen reibungslosen Bildwechsel mit höchstmöglicher Leistung und Komfort ermöglicht, was beim Spielen auf einem solchen Monitor sehr spürbar ist – dies ist selbst für den durchschnittlichen Heimanwender spürbar. Und für begeisterte Gamer kann es eine Verbesserung der Reaktionszeit und gleichzeitig der Spielerfolge bedeuten.

Heutzutage verwenden die meisten PC-Spieler Monitore mit einer Bildwiederholfrequenz von 60 Hz – typische LCD-Bildschirme, die derzeit am beliebtesten sind. Dementsprechend gibt es sowohl bei eingeschalteter Synchronisierung (V-Sync On) als auch bei ausgeschalteter Synchronisierung immer einige Mängel, die mit den Grundproblemen alter Technologien verbunden sind, auf die wir später noch eingehen werden: hohe Verzögerungen und FPS-Ruckler beim V- Die Synchronisierung ist aktiviert und beim Ausschalten kommt es zu unangenehmen Bildrissen.

Und da Verzögerungen und ungleichmäßige Bildwiederholraten das Spiel eher stören und stören, aktivieren nur selten Spieler überhaupt die Synchronisierung. Und selbst einige auf dem Markt erschienene Monitormodelle mit einer Bildwiederholfrequenz von 120 und 144 Hz können die Probleme nicht vollständig beseitigen, sie machen sie einfach etwas unauffälliger und aktualisieren den Bildschirminhalt doppelt so oft, aber die gleichen Artefakte bleiben bestehen vorhanden: Verzögerungen und das Fehlen der gleichen angenehmen Laufruhe.

Und da Monitore mit G-Sync, gepaart mit einer entsprechenden Nvidia Geforce-Grafikkarte, nicht nur eine hohe Bildwiederholfrequenz bieten, sondern auch all diese Mängel beseitigen können, kann die Anschaffung solcher Lösungen sogar als wichtiger angesehen werden als sogar ein Upgrade auf eine leistungsstärkere GPU . Aber lassen Sie uns zunächst herausfinden, warum es notwendig war, etwas anderes als die seit langem bekannten Lösungen zu tun – wo liegt das Problem?

Probleme mit vorhandenen Videoausgabemethoden

Technologien zur Anzeige von Bildern auf einem Bildschirm mit einer festen Bildwiederholfrequenz gibt es seit der Verwendung von Kathodenstrahlröhrenmonitoren (CRT). Die meisten Leser dürften sich an sie erinnern – dickbäuchig, genau wie alte Fernseher. Diese Technologien wurden ursprünglich für die Darstellung von Fernsehbildern mit einer festen Bildrate entwickelt, doch bei Geräten zur Darstellung dynamisch auf einem PC berechneter 3D-Bilder wirft diese Lösung große Probleme auf, die noch nicht gelöst sind.

Selbst die modernsten LCD-Monitore verfügen über eine feste Bildwiederholfrequenz auf dem Bildschirm, obwohl Sie technologisch nichts daran hindert, das Bild auf ihnen jederzeit und mit jeder Häufigkeit (natürlich innerhalb angemessener Grenzen) zu ändern. Aber seit den Tagen der CRT-Monitore waren PC-Gamer gezwungen, sich mit einer ausgesprochen unvollkommenen Lösung für das Problem der Synchronisierung der Bildrate der 3D-Wiedergabe und der Bildwiederholfrequenz des Monitors abzufinden. Bisher gab es nur sehr wenige Optionen für die Bildausgabe – zwei, und beide haben Nachteile.

Die Wurzel aller Probleme liegt darin, dass die Grafikkarte bei einer festen Bildwiederholfrequenz auf dem Monitor jedes Bild zu einem anderen Zeitpunkt rendert – dies liegt an der sich ständig ändernden Komplexität der Szene und der Belastung der GPU. Und die Renderzeit jedes Frames ist nicht konstant, sie ändert sich bei jedem Frame. Kein Wunder, dass es bei der Darstellung mehrerer Frames auf dem Monitor zu Synchronisationsproblemen kommt, da einige Frames deutlich mehr Zeit zum Rendern benötigen als andere. Dadurch erhalten wir für jeden Frame unterschiedliche Vorbereitungszeiten: mal 10 ms, mal 25 ms zum Beispiel. Und Monitore, die es vor dem Aufkommen von G-Sync gab, konnten Frames erst nach einer bestimmten Zeitspanne anzeigen – nicht früher, nicht später.

Erschwert wird die Sache zusätzlich durch die Fülle an Software- und Hardwarekonfigurationen von Gaming-PCs, gepaart mit sehr unterschiedlichen Belastungen je nach Spiel, Qualitätseinstellungen, Grafiktreibereinstellungen etc. Dadurch ist es unmöglich, jedes Gaming-System so zu konfigurieren Das Training erfolgt mit konstanten oder zumindest nicht zu unterschiedlichen Zeiten in allen 3D-Anwendungen und -Bedingungen – wie es auf Spielekonsolen mit ihrer einzigen Hardwarekonfiguration möglich ist.

Natürlich sind PC-Spieler im Gegensatz zu Konsolen mit ihren vorhersehbaren Frame-Rendering-Zeiten immer noch stark eingeschränkt in ihrer Fähigkeit, ein flüssiges Spielerlebnis ohne spürbare Einbrüche und Verzögerungen zu erreichen. Im Idealfall (sprich: in der Realität unmöglich) sollte die Aktualisierung des Bildes auf dem Monitor unbedingt nach der Berechnung und Vorbereitung des nächsten Frames durch den Grafikprozessor erfolgen:

Wie Sie sehen können, hat die GPU in diesem hypothetischen Beispiel immer Zeit, einen Frame zu zeichnen, bevor er auf den Monitor übertragen werden muss – die Frame-Zeit ist immer etwas kürzer als die Zeit zwischen Aktualisierungen der Informationen auf dem Display und in zwischen der GPU ruht ein wenig. Aber in Wirklichkeit ist alles völlig anders – die Frame-Rendering-Zeit ist sehr unterschiedlich. Stellen Sie sich vor, die GPU hat keine Zeit, einen Frame in der vorgegebenen Zeit zu rendern – dann muss der Frame entweder später angezeigt werden, wobei eine Bildaktualisierung auf dem Monitor übersprungen wird (vertikale Synchronisierung ist aktiviert – V-Sync an), oder die Frames müssen angezeigt werden wird in Teilen mit deaktivierter Synchronisierung angezeigt, und dann werden auf dem Monitor gleichzeitig Teile aus mehreren benachbarten Bildern angezeigt.

Die meisten Benutzer deaktivieren V-Sync, um eine geringere Latenz und flüssigere Bilder auf dem Bildschirm zu erhalten. Diese Lösung führt jedoch zu sichtbaren Artefakten in Form von Bildrissen. Und bei aktivierter Synchronisierung kommt es nicht zu Bildrissen, da die Frames ausschließlich in ihrer Gesamtheit angezeigt werden, aber die Verzögerung zwischen der Aktion des Spielers und der Bildaktualisierung auf dem Bildschirm nimmt zu und die Frame-Ausgaberate ist aufgrund der GPU sehr ungleichmäßig Zeichnet Frames niemals streng nach der Bildaktualisierungszeit auf dem Monitor.

Dieses Problem besteht seit vielen Jahren und beeinträchtigt eindeutig den Komfort beim Betrachten des 3D-Rendering-Ergebnisses, aber bis vor einiger Zeit hat sich niemand die Mühe gemacht, es zu lösen. Und die Lösung ist theoretisch ganz einfach: Sie müssen die Informationen nur dann auf dem Bildschirm anzeigen, wenn die GPU mit der Arbeit am nächsten Frame fertig ist. Schauen wir uns aber zunächst anhand von Beispielen genauer an, wie bestehende Bildausgabetechnologien genau funktionieren und welche Lösung uns Nvidia mit seiner G-Sync-Technologie bietet.

Nachteile der Ausgabe bei deaktivierter Synchronisierung

Wie wir bereits erwähnt haben, zieht es die große Mehrheit der Spieler vor, die Synchronisierung ausgeschaltet zu lassen (V-Sync Off), damit die von der GPU gezeichneten Bilder so schnell wie möglich und mit minimaler Verzögerung zwischen den Bildern des Spielers auf dem Monitor angezeigt werden Aktionen (Tastatureingaben, Mausbefehle) und deren Anzeige. Für ernsthafte Spieler ist dies notwendig, um Siege zu erzielen, und für normale Spieler werden die Empfindungen in diesem Fall angenehmer sein. So sieht das Arbeiten mit deaktiviertem V-Sync schematisch aus:

Es gibt keine Probleme oder Verzögerungen bei der Ausgabe von Frames. Aber obwohl die deaktivierte vertikale Synchronisierung das Verzögerungsproblem so weit wie möglich löst und für eine minimale Latenz sorgt, treten gleichzeitig Artefakte im Bild auf – Bildrisse, wenn das Bild auf dem Bildschirm aus mehreren Teilen benachbarter Frames besteht, die von der GPU gezeichnet werden. Auffällig ist auch die mangelnde Glätte des Videos aufgrund der Ungleichmäßigkeit der Frames, die von der GPU zum Bildschirm kommen – Bildunterbrechungen an verschiedenen Stellen.

Zu diesem Bildriss kommt es, wenn ein Bild aus zwei oder mehr Frames besteht, die während eines einzelnen Monitoraktualisierungszyklus auf der GPU gerendert werden. Von mehreren – wenn die Bildrate die Bildwiederholfrequenz des Monitors überschreitet, und von zwei – wenn sie dieser ungefähr entspricht. Schauen Sie sich das oben gezeigte Diagramm an: Wenn der Inhalt des Bildpuffers in der Zeit zwischen der Anzeige von Informationen auf dem Monitor aktualisiert wird, wird das endgültige Bild darauf verzerrt. In diesem Fall gehört ein Teil der Informationen zum vorherigen Rahmen und der Rest auf den aktuell gezeichneten Rahmen.

Wenn die Synchronisierung deaktiviert ist, werden Frames völlig unabhängig von der Häufigkeit und dem Zeitpunkt ihrer Aktualisierung an den Monitor übertragen und stimmen daher nie mit der Bildwiederholfrequenz des Monitors überein. Mit anderen Worten: Bei deaktiviertem V-Sync kommt es bei Monitoren ohne G-Sync-Unterstützung immer zu solchen Bildrissen.

Der Punkt ist nicht nur, dass es für den Spieler unangenehm ist, zuckende Streifen auf dem gesamten Bildschirm zu sehen, sondern auch, dass das gleichzeitige Rendern von Teilen verschiedener Frames das Gehirn falsch informieren kann, was besonders bei dynamischen Objekten im Frame – dem Spieler – auffällt sieht Teile von Objekten, die relativ zueinander verschoben sind. Dies muss man nur deshalb in Kauf nehmen, weil die Deaktivierung von V-Sync im Moment minimale Ausgabeverzögerungen mit sich bringt, aber bei weitem nicht die optimale dynamische Bildqualität, wie man an den folgenden Beispielen sehen kann (Klick auf Frames in voller Auflösung):

Anhand der obigen Beispiele, die mit dem FCAT-Software- und Hardwarekomplex aufgenommen wurden, können Sie sehen, dass das reale Bild auf dem Bildschirm aus Teilen mehrerer benachbarter Frames bestehen kann – und manchmal ungleichmäßig, wenn aus einem der Frames ein schmaler Streifen entnommen wird. und die benachbarten nehmen den restlichen (merklich größeren) Teil des Bildschirms ein.

Probleme mit Bildrissen werden noch deutlicher in der Dynamik sichtbar (wenn Ihr System und/oder Browser die Wiedergabe von MP4/H.264-Videos in einer Auflösung von 1920x1080 Pixeln mit einer Bildwiederholfrequenz von 60 FPS nicht unterstützt, müssen Sie diese herunterladen und sie lokal mit einem Mediaplayer mit entsprechenden Funktionen ansehen):

Wie Sie sehen, fallen auch in der Dynamik leicht unangenehme Artefakte in Form von Bildbrüchen auf. Sehen wir uns einmal an, wie das schematisch aussieht – in einem Diagramm, das die Ausgabemethode bei deaktivierter Synchronisierung zeigt. In diesem Fall kommen Frames sofort nach Abschluss des Renderns durch die GPU auf dem Monitor an und das Bild wird auch dann auf dem Display angezeigt, wenn die Ausgabe der Informationen aus dem aktuellen Frame noch nicht vollständig abgeschlossen ist – der verbleibende Teil des Puffers fällt an das nächste Bildschirm-Update. Deshalb besteht jedes auf dem Monitor angezeigte Frame unseres Beispiels aus zwei auf der GPU gezeichneten Frames – mit einem Bildbruch an der rot markierten Stelle.

In diesem Beispiel wird der erste Frame (Draw 1) von der GPU schneller als die Aktualisierungszeit von 16,7 ms in den Bildschirmpuffer gezeichnet – und bevor das Bild auf den Monitor übertragen wird (Scan 0/1). Die GPU beginnt sofort mit der Arbeit am nächsten Frame (Zeichnung 2), wodurch das Bild auf dem Monitor unterbrochen wird und eine weitere Hälfte des vorherigen Frames enthält.

Dadurch entsteht in vielen Fällen ein deutlich sichtbarer Streifen auf dem Bild – die Grenze zwischen der Teildarstellung benachbarter Frames. In Zukunft wird dieser Vorgang wiederholt, da die GPU an jedem Frame unterschiedlich lange arbeitet und ohne Synchronisierung des Prozesses die Frames von der GPU und die auf dem Monitor angezeigten Frames nie übereinstimmen.

Vor- und Nachteile von Vsync

Wenn die herkömmliche vertikale Synchronisierung (V-Sync On) aktiviert ist, werden die Informationen auf dem Monitor nur dann aktualisiert, wenn die Arbeit am Frame durch die GPU vollständig abgeschlossen ist, wodurch Tearing im Bild vermieden wird, da die Frames ausschließlich auf dem Bildschirm angezeigt werden . Da der Monitor den Inhalt jedoch nur in bestimmten Abständen aktualisiert (abhängig von den Eigenschaften des Ausgabegeräts), bringt diese Bindung andere Probleme mit sich.

Die meisten modernen LCD-Monitore aktualisieren Informationen mit einer Rate von 60 Hz, also 60 Mal pro Sekunde – etwa alle 16 Millisekunden. Und wenn die Synchronisierung aktiviert ist, ist die Bildausgabezeit streng an die Bildwiederholfrequenz des Monitors gebunden. Aber wie wir wissen, ist die GPU-Rendering-Rate immer variabel und die Zeit, die zum Rendern jedes Frames benötigt wird, hängt von der sich ständig ändernden Komplexität der 3D-Szene und den Qualitätseinstellungen ab.

Sie kann nicht immer gleich 16,7 ms sein, sondern liegt entweder unter diesem Wert oder darüber. Wenn die Synchronisierung aktiviert ist, endet die Arbeit der GPU an Frames entweder früher oder später als die Bildschirmaktualisierungszeit. Wenn der Frame schneller als zu diesem Zeitpunkt gerendert wurde, gibt es keine besonderen Probleme – die visuellen Informationen warten einfach darauf, dass der Monitor aktualisiert wird, um den gesamten Frame auf dem Bildschirm anzuzeigen, und die GPU ist im Leerlauf. Wenn der Frame jedoch nicht in der vorgegebenen Zeit gerendert werden kann, muss er auf den nächsten Bildaktualisierungszyklus auf dem Monitor warten, wodurch sich die Verzögerung zwischen den Aktionen des Spielers und ihrer visuellen Anzeige auf dem Bildschirm erhöht. In diesem Fall wird wieder das Bild des vorherigen „alten“ Rahmens auf dem Bildschirm angezeigt.

Obwohl dies alles recht schnell geschieht, ist der Anstieg der Latenz nicht nur für professionelle Spieler optisch deutlich spürbar. Und da die Bildwiedergabezeit immer variabel ist, führt das Einschalten der Bindung an die Bildwiederholfrequenz des Monitors zu Rucklern bei der Anzeige eines dynamischen Bildes, da die Bilder entweder schnell (entsprechend der Bildwiederholfrequenz des Monitors) oder zwei-, drei- oder viermal angezeigt werden Langsamer. Schauen wir uns ein schematisches Beispiel einer solchen Arbeit an:

Die Abbildung zeigt, wie Bilder auf dem Monitor angezeigt werden, wenn die vertikale Synchronisierung aktiviert ist (V-Sync ein). Der erste Frame (Zeichnung 1) wird von der GPU schneller als 16,7 ms gerendert, sodass die GPU nicht mit dem Zeichnen des nächsten Frames beginnt und das Bild nicht zerreißt, wie es bei V-Sync Off der Fall ist, sondern wartet damit das erste Bild vollständig auf dem Monitor ausgegeben wird. Und erst danach beginnt es mit dem Zeichnen des nächsten Frames (Draw 2).

Die Arbeit am zweiten Bild (Zeichnung 2) dauert jedoch länger als 16,7 ms, sodass nach Ablauf dieser Zeit visuelle Informationen aus dem vorherigen Bild auf dem Bildschirm angezeigt werden, und zwar weitere 16,7 ms auf dem Bildschirm. Und selbst nachdem die GPU mit der Arbeit am nächsten Frame fertig ist, wird dieser nicht auf dem Bildschirm angezeigt, da der Monitor über eine feste Bildwiederholfrequenz verfügt. Insgesamt müssen Sie 33,3 ms warten, bis das zweite Bild ausgegeben wird. Diese ganze Zeit wird zur Verzögerung zwischen der Aktion des Spielers und dem Ende des Bildes, das auf dem Monitor ausgegeben wird, addiert.

Zu dem Problem der Zeitverzögerung kommt noch eine Lücke in der Glätte der Videosequenz hinzu, die sich im Ruckeln der 3D-Animation bemerkbar macht. Das Problem wird in einem kurzen Video sehr anschaulich dargestellt:

Doch selbst die leistungsstärksten Grafikprozessoren in anspruchsvollen modernen Spielen können nicht immer eine ausreichend hohe Bildwiederholfrequenz bieten, die über der typischen Monitor-Bildwiederholfrequenz von 60 Hz liegt. Und dementsprechend ist es nicht möglich, mit aktivierter Synchronisierung bequem und ohne Probleme wie Bildrisse zu spielen. Vor allem, wenn es um Spiele wie das Onlinespiel Battlefield 4, das sehr anspruchsvolle Far Cry 4 und Assassin’s Creed Unity in hohen Auflösungen und maximalen Spieleinstellungen geht.

Das heißt, der moderne Player hat kaum eine Wahl: Entweder kommt es zu einem Mangel an Glätte und erhöhten Verzögerungen, oder er begnügt sich mit einer mangelhaften Bildqualität und zerbrochenen Bildstücken. In Wirklichkeit sieht es natürlich gar nicht so schlecht aus, denn irgendwie haben wir doch die ganze Zeit gespielt, oder? Aber in Zeiten, in denen es darum geht, sowohl in puncto Qualität als auch Komfort das Ideal zu erreichen, will man mehr. Darüber hinaus verfügen LCD-Displays über die grundsätzliche technologische Fähigkeit, Frames auszugeben, wenn der Grafikprozessor dies angibt. Jetzt müssen nur noch GPU und Monitor angeschlossen werden, und eine solche Lösung gibt es bereits – die Nvidia G-Sync-Technologie.

G-Sync-Technologie – Nvidias Lösung für Probleme

Wenn die Synchronisierung deaktiviert ist, kommt es bei den meisten modernen Spielen zu Bildrissen, und wenn die Synchronisierung aktiviert ist, kommt es zu unsauberen Bildwechseln und erhöhten Verzögerungen. Selbst bei hohen Bildwiederholraten beseitigen herkömmliche Monitore diese Probleme nicht. Es ist wahrscheinlich, dass die Mitarbeiter von Nvidia die Wahl zwischen zwei nicht idealen Optionen für die Anzeige von Frames in 3D-Anwendungen seit vielen Jahren so satt haben, dass sie beschlossen haben, die Probleme zu beseitigen, indem sie den Spielern einen grundlegend neuen Ansatz für die Aktualisierung von Informationen bieten der Bildschirm.

Der Unterschied zwischen der G-Sync-Technologie und bestehenden Anzeigemethoden besteht darin, dass das Timing und die Bildrate der Nvidia-Variante von der Geforce-GPU bestimmt werden und nicht wie bisher fest, sondern dynamisch variabel sind. Mit anderen Worten: In diesem Fall übernimmt die GPU die volle Kontrolle über die Frame-Ausgabe – sobald sie mit der Arbeit am nächsten Frame fertig ist, wird dieser auf dem Monitor angezeigt, ohne Verzögerungen oder Bildrisse.

Die Verwendung einer solchen Verbindung zwischen der GPU und der speziell angepassten Monitor-Hardware bietet Spielern eine bessere Ausgabemethode – einfach ideal, was die Qualität angeht und alle oben genannten Probleme beseitigt. G-Sync sorgt für vollkommen flüssige Bildwechsel auf dem Monitor, ohne Verzögerungen, Ruckler oder Artefakte durch die Anzeige visueller Informationen auf dem Bildschirm.

Natürlich funktioniert G-Sync nicht wie von Zauberhand, und damit die Technologie auf der Monitorseite funktioniert, muss eine spezielle Hardware-Logik in Form einer kleinen Platine von Nvidia hinzugefügt werden.

Das Unternehmen arbeitet mit Monitorherstellern zusammen, um G-Sync-Karten in ihre Gaming-Display-Modelle zu integrieren. Bei einigen Modellen besteht sogar die Möglichkeit eines Upgrades durch den Nutzer selbst, diese Option ist jedoch teurer und macht keinen Sinn, da es einfacher ist, sofort einen G-Sync-Monitor zu kaufen. Für einen PC reicht es aus, eine der modernen Nvidia Geforce-Grafikkarten in seiner Konfiguration und einen installierten G-Sync-optimierten Grafiktreiber zu haben – jede der neuesten Versionen reicht aus.

Wenn die Nvidia G-Sync-Technologie aktiviert ist, sendet der Geforce-Grafikprozessor nach Abschluss der Verarbeitung des nächsten Frames einer 3D-Szene ein spezielles Signal an die im Monitor integrierte G-Sync-Controllerplatine und teilt dem Monitor mit, wann das Bild aktualisiert werden soll auf dem Bildschirm. Dadurch erreichen Sie beim Spielen auf dem PC eine einfach perfekte Laufruhe und Reaktionsfähigkeit – Sie können dies überprüfen, indem Sie sich ein kurzes Video ansehen (unbedingt mit 60 Bildern pro Sekunde!):

Sehen wir uns an, wie die Konfiguration mit aktivierter G-Sync-Technologie gemäß unserem Diagramm aussieht:

Wie Sie sehen, ist alles sehr einfach. Durch die Aktivierung von G-Sync wird die Bildwiederholfrequenz des Monitors an das Ende jedes Frame-Renderings auf der GPU gebunden. Die GPU übernimmt die volle Kontrolle über die Arbeit: Sobald sie mit dem Rendern des Frames fertig ist, wird das Bild sofort auf einem G-Sync-kompatiblen Monitor angezeigt, und das Ergebnis ist keine feste Bildwiederholfrequenz, sondern eine variable – genau wie die GPU Bildrate. Dies eliminiert Probleme mit Bildrissen (schließlich enthält es immer Informationen von einem Frame), minimiert Bildratenstottern (der Monitor wartet nicht länger, als der Frame physisch auf der GPU verarbeitet wird) und verringert die Ausgabeverzögerung im Vergleich zur Methode mit V -sync aktiviert.

Es muss gesagt werden, dass Spieler von einer solchen Lösung eindeutig nicht genug hatten; die neue Methode zur Synchronisierung der GPU und des Nvidia G-Sync-Monitors hat wirklich einen sehr starken Einfluss auf den Komfort beim Spielen auf einem PC – es entsteht eine nahezu perfekte Glätte , was es vorher nicht gab – in unserer Zeit superstarker Grafikkarten! Seit der Ankündigung der G-Sync-Technologie sind alte Methoden sofort anachronistisch geworden und das Upgrade auf einen G-Sync-Monitor mit einer variablen Bildwiederholfrequenz von bis zu 144 Hz scheint eine sehr attraktive Option zu sein, mit der Sie endlich Probleme loswerden können. Verzögerungen und Artefakte.

Hat G-Sync irgendwelche Nachteile? Natürlich, wie jede Technologie. G-Sync hat beispielsweise eine unangenehme Einschränkung: Es sorgt für eine flüssige Bildausgabe auf dem Bildschirm mit einer Frequenz von 30 FPS. Und die gewählte Bildwiederholfrequenz für einen Monitor im G-Sync-Modus legt die Obergrenze für die Geschwindigkeit fest, mit der Bildschirminhalte aktualisiert werden. Das heißt, bei einer auf 60 Hz eingestellten Bildwiederholfrequenz wird maximale Glätte bei einer Frequenz von 30–60 FPS und bei 144 Hz bereitgestellt – von 30 bis 144 FPS, jedoch nicht weniger als die Untergrenze. Und bei einer variablen Frequenz (zum Beispiel von 20 auf 40 FPS) wird das Ergebnis nicht mehr optimal sein, obwohl es spürbar besser ist als bei herkömmlichem V-Sync.

Der Hauptnachteil von G-Sync besteht jedoch darin, dass es sich um Nvidias eigene Technologie handelt, auf die die Konkurrenz keinen Zugriff hat. Daher kündigte AMD Anfang dieses Jahres eine ähnliche FreeSync-Technologie an, die ebenfalls darin besteht, die Bildrate des Monitors entsprechend der Vorbereitung der Frames von der GPU dynamisch zu ändern. Ein wichtiger Unterschied besteht darin, dass die Entwicklung von AMD offen ist und keine zusätzlichen Hardwarelösungen in Form von speziellen Monitoren erfordert, da FreeSync in Adaptive-Sync umgewandelt wurde, das vom bekannten Standard DisplayPort 1.2a optionaler Bestandteil geworden ist Organisation VESA (Video Electronics Standards Association). Es stellt sich heraus, dass AMD das vom Konkurrenten entwickelte Thema geschickt zu seinem Vorteil nutzen wird, da es ohne das Aufkommen und die Popularisierung von G-Sync, wie wir denken, kein FreeSync gegeben hätte.

Interessanterweise ist die Adaptive-Sync-Technologie auch Teil des VESA-Embedded-DisplayPort-Standards (eDP) und kommt bereits in vielen Display-Komponenten zum Einsatz, die eDP zur Signalübertragung nutzen. Ein weiterer Unterschied zu G-Sync besteht darin, dass VESA-Mitglieder Adaptive-Sync nutzen können, ohne etwas bezahlen zu müssen. Allerdings ist es sehr wahrscheinlich, dass Nvidia in Zukunft auch Adaptive-Sync als Teil des DisplayPort-1.2a-Standards unterstützen wird, da eine solche Unterstützung von ihnen keinen großen Aufwand erfordern wird. Aber auch das Unternehmen wird G-Sync nicht aufgeben, da es die eigenen Lösungen als vorrangig ansieht.

Die ersten Monitore mit Adaptive-Sync-Unterstützung sollen im ersten Quartal 2015 erscheinen, sie werden nicht nur über DisplayPort 1.2a-Anschlüsse verfügen, sondern auch über spezielle Unterstützung für Adaptive-Sync (nicht alle Monitore mit DisplayPort 1.2a-Unterstützung werden damit aufwarten können). Das). Daher plant Samsung im März 2015 die Einführung der Monitorlinien Samsung UD590 (23,6 und 28 Zoll) und UE850 (23,6, 27 und 31,5 Zoll) mit Unterstützung für UltraHD-Auflösung und Adaptive-Sync-Technologie. AMD behauptet, dass Monitore mit Unterstützung für diese Technologie bis zu 100 US-Dollar günstiger sein werden als vergleichbare Geräte mit G-Sync-Unterstützung, es ist jedoch schwierig, sie zu vergleichen, da alle Monitore unterschiedlich sind und zu unterschiedlichen Zeiten auf den Markt kommen. Darüber hinaus gibt es bereits nicht mehr so ​​teure G-Sync-Modelle auf dem Markt.

Visueller Unterschied und subjektive Eindrücke

Wir haben die Theorie oben beschrieben, und jetzt ist es an der Zeit, alles klar zu zeigen und Ihre Gefühle zu beschreiben. Wir haben die Nvidia G-Sync-Technologie in der Praxis in mehreren 3D-Anwendungen mit einer Inno3D iChill Geforce GTX 780 HerculeZ X3 Ultra-Grafikkarte und einem Asus PG278Q-Monitor getestet, der die G-Sync-Technologie unterstützt. Es gibt mehrere Monitormodelle auf dem Markt, die G-Sync von verschiedenen Herstellern unterstützen: Asus, Acer, BenQ, AOC und andere, und für das Monitormodell Asus VG248QE können Sie sogar ein Kit kaufen, um es auf die Unterstützung von G-Sync aufzurüsten dein eigenes.

Das jüngste Grafikkartenmodell mit G-Sync-Technologie ist die Geforce GTX 650 Ti, mit der äußerst wichtigen Anforderung eines DisplayPort-Anschlusses an Bord. Zu den weiteren Systemvoraussetzungen zählen ein Betriebssystem von mindestens Microsoft Windows 7, die Verwendung eines guten DisplayPort 1.2-Kabels sowie die Verwendung einer hochwertigen Maus mit hoher Empfindlichkeit und Abfragerate. Die G-Sync-Technologie funktioniert mit allen Vollbild-3D-Anwendungen, die die OpenGL- und Direct3D-Grafik-APIs verwenden, wenn sie auf den Betriebssystemen Windows 7 und 8.1 ausgeführt werden.

Für den Betrieb ist jeder moderne Treiber geeignet, der G-Sync seit mehr als einem Jahr von allen Treibern des Unternehmens unterstützt. Wenn Sie über alle erforderlichen Komponenten verfügen, müssen Sie G-Sync nur in den Treibern aktivieren, sofern dies noch nicht geschehen ist, und die Technologie funktioniert in allen Vollbildanwendungen – und zwar prinzipiell nur in diesen der Technologie.

Um die G-Sync-Technologie für Vollbildanwendungen zu aktivieren und das beste Erlebnis zu erzielen, müssen Sie die Bildwiederholfrequenz von 144 Hz in der Nvidia-Systemsteuerung oder in den Desktop-Einstellungen des Betriebssystems aktivieren. Anschließend müssen Sie sicherstellen, dass die Nutzung der Technologie auf der entsprechenden „G-Sync Setup“-Seite erlaubt ist...

Wählen Sie außerdem das entsprechende Element auf der Seite „3D-Parameter verwalten“ im Parameter „Vertical Sync Pulse“ der globalen 3D-Parameter aus. Dort können Sie zu Testzwecken oder bei auftretenden Problemen auch die Verwendung der G-Sync-Technologie deaktivieren (vorausschauend haben wir bei unserem Test keine festgestellt).

Die G-Sync-Technologie funktioniert bei allen von Monitoren unterstützten Auflösungen bis hin zu UltraHD. In unserem Fall haben wir jedoch die native Auflösung von 2560 x 1440 Pixel bei 144 Hz verwendet. In meinen Vergleichen mit dem aktuellen Stand der Dinge habe ich einen 60-Hz-Bildwiederholfrequenzmodus mit deaktiviertem G-Sync verwendet, um das Verhalten typischer Nicht-G-Sync-Monitore zu emulieren, die bei den meisten Gamern zu finden sind. Die meisten davon verwenden Full-HD-Monitore mit einem maximalen Modus von 60 Hz.

Es ist auf jeden Fall erwähnenswert, dass die Bildschirmaktualisierung bei aktiviertem G-Sync zwar mit der idealen Frequenz erfolgt – wenn die GPU es „will“, wird der optimale Modus immer noch mit einer Bildrate von etwa 40–60 FPS gerendert – dies ist die am besten geeignete Bildrate für moderne Spiele, nicht zu niedrig, um die Untergrenze von 30 FPS zu erreichen, erfordert aber auch keine Reduzierung der Einstellungen. Diesen Takt strebt übrigens Nvidias Geforce-Experience-Programm an, das in der gleichnamigen, den Treibern beiliegenden Software die passenden Einstellungen für beliebte Spiele bereitstellt.

Neben Spielen haben wir auch eine spezielle Testanwendung von Nvidia ausprobiert – . Diese Anwendung zeigt eine 3D-Pendelszene, die zur Beurteilung der Glätte und Qualität geeignet ist, es Ihnen ermöglicht, verschiedene Bildraten zu simulieren und den Anzeigemodus auszuwählen: V-Sync Aus/Ein und G-Sync. Mit dieser Testsoftware lässt sich ganz einfach der Unterschied zwischen verschiedenen Synchronisationsmodi zeigen – zum Beispiel zwischen V-Sync On und G-Sync:

Mit der Pendulum Demo-Anwendung können Sie verschiedene Synchronisierungsmethoden unter verschiedenen Bedingungen testen. Sie simuliert eine genaue Bildrate von 60 FPS, um V-Sync und G-Sync unter idealen Bedingungen für die veraltete Synchronisierungsmethode zu vergleichen – in diesem Modus sollte es einfach keine geben Unterschied zwischen den Methoden. Aber der 40–50 FPS-Modus bringt V-Sync On in eine schwierige Lage, in der Verzögerungen und unsanfte Bildwechsel mit bloßem Auge sichtbar sind, da die Bildwiedergabezeit die Aktualisierungsperiode bei 60 Hz überschreitet. Wenn G-Sync aktiviert ist, wird alles perfekt.

Beim Vergleich der Modi mit deaktiviertem V-Sync und aktiviertem G-Sync hilft die Nvidia-Anwendung auch hier, den Unterschied zu erkennen – bei Bildraten zwischen 40 und 60 FPS ist Bildriss deutlich sichtbar, obwohl es weniger Verzögerungen gibt als bei V-Sync. Synchronisierung ein. Und selbst eine in Bezug auf den G-Sync-Modus unruhige Videosequenz fällt auf, obwohl dies theoretisch nicht der Fall sein sollte – vielleicht nimmt das Gehirn so „kaputte“ Frames wahr.

Nun, wenn G-Sync aktiviert ist, sorgt jeder der Modi der Testanwendung (konstante Bildrate oder variabel – egal) immer für ein möglichst flüssiges Video. Und in Spielen machen sich alle Probleme des herkömmlichen Ansatzes der Informationsaktualisierung auf einem Monitor mit fester Bildwiederholfrequenz teilweise noch deutlicher bemerkbar – in diesem Fall kann man den Unterschied zwischen allen drei Modi am Beispiel des Spiels StarCraft II deutlich erkennen (Anzeigen einer zuvor gespeicherten Aufnahme):

Wenn Ihr System und Ihr Browser die Wiedergabe des MP4/H.264-Videoformats mit einer Frequenz von 60 FPS unterstützen, werden Sie deutlich erkennen, dass es im deaktivierten Synchronisierungsmodus zu deutlichen Bildrissen kommt, und wenn V-Sync aktiviert ist, Es sind Ruckler und Unruhe des Videos zu beobachten. All dies verschwindet, wenn Nvidia G-Sync aktiviert ist, sodass es keine Artefakte im Bild, keine Erhöhung der Verzögerungen oder eine „unregelmäßige“ Bildrate gibt.

Natürlich ist G-Sync kein Zauberstab, und diese Technologie beseitigt Verzögerungen und Verlangsamungen nicht, die nicht durch die Ausgabe von Bildern auf einen Monitor mit einer festen Bildwiederholfrequenz verursacht werden. Wenn das Spiel selbst Probleme mit der flüssigen Bildausgabe und großen FPS-Ruckeln hat, die durch das Laden von Texturen, Datenverarbeitung auf der CPU, suboptimale Arbeit mit dem Videospeicher, fehlende Codeoptimierung usw. verursacht werden, bleiben diese bestehen. Darüber hinaus werden sie noch deutlicher, da die Ausgabe der verbleibenden Frames vollkommen flüssig ist. In der Praxis treten jedoch auf leistungsstarken Systemen nicht allzu häufig Probleme auf, und G-Sync verbessert die Wahrnehmung dynamischer Videos erheblich.

Da sich die neue Ausgabetechnologie von Nvidia auf die gesamte Ausgabepipeline auswirkt, könnte es theoretisch zu Artefakten und ungleichmäßigen Bildraten kommen, insbesondere wenn das Spiel die FPS irgendwann künstlich begrenzt. Wahrscheinlich sind solche Fälle, sofern es sie gibt, so selten, dass wir sie nicht einmal bemerkt haben. Sie stellten jedoch eine deutliche Verbesserung des Spielkomforts fest – beim Spielen auf einem Monitor mit aktivierter G-Sync-Technologie hat man den Eindruck, dass der PC so viel leistungsfähiger geworden ist, dass er ohne eine konstante Bildrate von mindestens 60 FPS möglich ist eventuelle Aussetzer.

Das Gefühl, das man beim Spielen auf einem G-Sync-Monitor hat, lässt sich nur schwer in Worte fassen. Der Unterschied macht sich besonders bei 40-60 FPS bemerkbar – eine Bildrate, die in anspruchsvollen modernen Spielen sehr üblich ist. Der Unterschied zu herkömmlichen Monitoren ist einfach erstaunlich, und wir werden versuchen, ihn nicht nur in Worte zu fassen und in Videobeispielen zu zeigen, sondern auch Bildratendiagramme zu zeigen, die bei verschiedenen Anzeigemodi erzielt wurden.

In Spielen solcher Genres wie Echtzeitstrategie und ähnlichen Genres wie StarCraft II, League of Legends, DotA 2 usw. sind die Vorteile der G-Sync-Technologie deutlich sichtbar, wie Sie anhand des Beispiels im Video oben sehen können . Darüber hinaus erfordern solche Spiele immer eine rasante Action, die keine Verzögerungen und unruhige Bildraten toleriert, und flüssiges Scrollen spielt eine ziemlich wichtige Rolle für den Komfort, der durch Bildrisse bei V-Sync Off und Verzögerungen und Verzögerungen bei V stark beeinträchtigt wird -Synchronisierung ein. Daher ist die G-Sync-Technologie ideal für Spiele dieser Art.

Noch weiter verbreitet sind Ego-Shooter wie Crysis 3 und Far Cry 4, die zudem hohe Anforderungen an die Rechenressourcen stellen und bei hohen Qualitätseinstellungen oft Bildraten von gerade einmal 30-60 FPS erreichen – ideal für den Einsatz von G-Sync , was den Komfort beim Spielen unter solchen Bedingungen wirklich erheblich verbessert. Die herkömmliche vertikale Synchronisierungsmethode zwingt Sie häufig dazu, Frames mit einer Frequenz von nur 30 FPS auszugeben, was zu Verzögerungen und Rucklern führt.

Das Gleiche gilt für Third-Person-Spiele wie die Serien Batman, Assassin's Creed und Tomb Raider. Auch diese Spiele nutzen die neueste Grafiktechnologie und benötigen recht leistungsstarke GPUs, um hohe Bildraten zu erreichen. Bei maximalen Einstellungen in diesen Spielen und der Deaktivierung von V-Sync liegen die FPS oft in der Größenordnung von 30–90, was zu unangenehmem Bildriss führt. Die Aktivierung von V-Sync hilft nur in einigen Szenen mit geringerem Ressourcenbedarf und die Bildrate springt von 30 auf 60 Schritte, was zu Verlangsamungen und Rucklern führt. Und das Einschalten von G-Sync löst all diese Probleme, und das macht sich in der Praxis deutlich bemerkbar.

Testergebnisse üben

In diesem Abschnitt betrachten wir die Auswirkungen von G-Sync und V-Sync auf die Bildraten – die Leistungsdiagramme geben Ihnen eine klare Vorstellung davon, wie die verschiedenen Technologien funktionieren. Während des Tests haben wir mehrere Spiele getestet, aber nicht bei allen ist es praktisch, den Unterschied zwischen V-Sync und G-Sync zu zeigen – einige Gaming-Benchmarks erlauben es nicht, V-Sync zu erzwingen, andere Spiele haben keine praktische Möglichkeit, dies zu tun Beim Abspielen der exakten Spielsequenz (leider bei den meisten modernen Spielen) laufen andere auf unserem Testsystem entweder zu schnell oder innerhalb enger Framerate-Grenzen ab.

Also entschieden wir uns für Just Cause 2 mit maximalen Einstellungen sowie ein paar Benchmarks: Unigine Heaven und Unigine Valley – ebenfalls mit maximalen Qualitätseinstellungen. Die Bildraten in diesen Anwendungen variieren recht stark, was für unseren Zweck praktisch ist, zu zeigen, was mit der Bildausgabe unter verschiedenen Bedingungen geschieht.

Leider ist das FCAT-Software- und -Hardwaresystem derzeit nicht im Einsatz und wir können keine Diagramme von echten FPS und aufgezeichneten Videos in verschiedenen Modi anzeigen. Stattdessen haben wir die zweitdurchschnittliche und die momentane Bildrate mit einem bekannten Dienstprogramm bei 60- und 120-Hz-Monitoraktualisierungsraten mit den Methoden V-Sync On, V-Sync Off, Adaptive V-Sync-Bildschirmaktualisierung und G-Sync getestet Technologie bei 144 Hz, um den deutlichen Unterschied zwischen der neuen Technologie und aktuellen 60-Hz-Monitoren mit traditioneller vertikaler Synchronisierung zu zeigen.

G-Sync vs. V-Sync an

Wir beginnen unsere Studie mit dem Vergleich der Modi mit aktivierter vertikaler Synchronisierung (V-Sync an) und der G-Sync-Technologie – dies ist der aufschlussreichste Vergleich, der den Unterschied zwischen Methoden zeigt, die nicht die Nachteile von Bildrissen haben. Zunächst schauen wir uns die Heaven-Testanwendung bei maximalen Qualitätseinstellungen und einer Auflösung von 2560 x 1440 Pixeln an (ein Klick auf die Miniaturbilder öffnet die Grafiken in voller Auflösung):

Wie in der Grafik zu sehen ist, ist die Bildrate mit aktiviertem G-Sync und ohne Synchronisierung nahezu gleich, bis auf die Frequenz über 60 FPS. Die FPS im Modus mit aktivierter vertikaler Synchronisationsmethode unterscheiden sich jedoch deutlich, da die Bildrate darin kleiner oder gleich 60 FPS und ein Vielfaches ganzer Zahlen sein kann: 1, 2, 3, 4, 5, 6. ., da der Monitor manchmal über mehrere Aktualisierungsperioden hinweg (zwei, drei, vier usw.) das gleiche vorherige Bild anzeigen muss. Das heißt, mögliche „Schritte“ des Bildratenwerts bei eingeschaltetem V-Sync und 60 Hz: 60, 30, 20, 15, 12, 10, ... FPS.

Diese Abstufung ist in der roten Linie des Diagramms deutlich sichtbar – während des Testdurchlaufs betrug die Bildrate häufig 20 oder 30 FPS und viel seltener 60 FPS. Allerdings lag sie bei ausgeschaltetem G-Sync und V-Sync (keine Synchronisierung) oft in einem größeren Bereich: 35–50 FPS. Bei aktiviertem V-Sync ist diese Ausgaberate nicht möglich, sodass der Monitor in solchen Fällen immer 30 FPS anzeigt – was die Leistung einschränkt und zu Verzögerungen bei der Gesamtausgabezeit führt.

Es ist zu beachten, dass die obige Grafik nicht die momentane Bildrate zeigt, sondern Durchschnittswerte innerhalb einer Sekunde, und in Wirklichkeit kann die FPS viel mehr „springen“ – fast bei jedem Bild, was zu unangenehmer Instabilität und Verzögerungen führt. Um dies deutlich zu machen, präsentieren wir ein paar Diagramme mit sofortigen FPS – genauer gesagt, mit Diagrammen der Renderzeit jedes Frames in Millisekunden. Erstes Beispiel (die Linien sind relativ zueinander leicht verschoben, es wird nur das ungefähre Verhalten in jedem Modus gezeigt):

Wie Sie in diesem Beispiel sehen können, ändert sich die Bildrate bei G-Sync mehr oder weniger gleichmäßig und bei eingeschaltetem V-Sync schrittweise (in beiden Fällen gibt es einzelne Sprünge in der Renderzeit – das ist normal). . Wenn Vsync aktiviert ist, können die Frame-Rendering- und Ausgabezeiten nur 16,7 ms betragen; 33,3 ms; 50 ms, wie in der Grafik zu sehen ist. In FPS-Zahlen entspricht dies 60, 30 und 20 Bildern pro Sekunde. Darüber hinaus gibt es keinen besonderen Unterschied im Verhalten der beiden Linien; in beiden Fällen gibt es Spitzenwerte. Schauen wir uns einen weiteren bedeutenden Zeitraum an:

In diesem Fall gibt es deutliche Schwankungen in der Frame-Rendering-Zeit und damit auch in der FPS bei aktivierter vertikaler Synchronisation. Sehen Sie, bei eingeschaltetem V-Sync ändert sich die Frame-Rendering-Zeit abrupt von 16,7 ms (60 FPS) auf 33,3 ms (30 FPS) und zurück – in Wirklichkeit führt dies zu dieser sehr unangenehmen Unruhe und deutlich sichtbaren Rucklern in der Videosequenz . Die Glätte der Bildwechsel ist bei G-Sync deutlich höher und das Spielen in diesem Modus wird spürbar komfortabler.

Schauen wir uns das FPS-Diagramm in der zweiten Testanwendung – Unigine Valley – an:

In diesem Benchmark stellen wir ungefähr dasselbe fest wie im Himmel. Die Bildraten in den Modi G-Sync und V-Sync Off sind fast gleich (mit Ausnahme eines Spitzenwerts über 60 Hz), und bei eingeschaltetem V-Sync kommt es zu einer deutlichen schrittweisen Änderung der FPS, die meistens 30 FPS anzeigt und manchmal auf abfällt 20 FPS und Anstieg auf 60 FPS – typisches Verhalten dieser Methode, das zu Verzögerungen, Ruckeln und unruhigem Videomaterial führt.

In diesem Unterabschnitt müssen wir uns nur einen Ausschnitt aus dem integrierten Test des Spiels Just Cause 2 ansehen:

Dieses Spiel zeigt perfekt die Unzulänglichkeit der veralteten V-Sync On-Synchronisationsmethode! Wenn die Bildrate zwischen 40 und 60-70 FPS variiert, stimmen die G-Sync- und V-Sync Off-Linien fast überein, aber die Bildrate mit V-Sync On erreicht nur in kurzen Zeiträumen 60 FPS. Das heißt, bei den tatsächlichen Fähigkeiten der GPU, mit 40-55 FPS zu spielen, wird der Spieler mit nur 30 FPS zufrieden sein.

Darüber hinaus gibt es in dem Abschnitt des Diagramms, in dem die rote Linie von 30 auf 40 FPS springt, in Wirklichkeit beim Betrachten des Bildes eine deutlich ungleichmäßige Bildrate – sie springt bei fast jedem Bild von 60 auf 30, was eindeutig keinen Mehrwert bringt Laufruhe und Komfort beim Spielen. Aber vielleicht kommt die vertikale Synchronisierung mit einer Bildwiederholfrequenz von 120 Hz besser zurecht?

G-Sync vs. V-Sync 60/120 Hz

Schauen wir uns zwei Modi der aktivierten vertikalen Synchronisierung V-Sync On bei Bildwiederholfrequenzen von 60 und 120 Hz an und vergleichen sie mit dem V-Sync Off-Modus (wie wir zuvor definiert haben, ist diese Linie fast identisch mit G-Sync). Bei einer Bildwiederholfrequenz von 120 Hz werden den uns bereits bekannten FPS-„Schritten“ weitere Werte hinzugefügt: 120, 40, 24, 17 FPS usw., wodurch die Grafik weniger gestuft werden kann. Schauen wir uns die Bildrate im Heaven-Benchmark an:

Es fällt auf, dass die Bildwiederholfrequenz von 120 Hz dazu beiträgt, dass der V-Sync-Ein-Modus eine bessere Leistung und flüssigere Bildraten erzielt. In Fällen, in denen die Grafik bei 60 Hz 20 FPS anzeigt, ergibt der 120-Hz-Modus einen Zwischenwert von mindestens 24 FPS. Und 40 FPS statt 30 FPS sind in der Grafik deutlich zu erkennen. Allerdings gibt es nicht weniger Schritte, sondern sogar noch mehr, so dass sich die Bildrate bei einem 120-Hz-Update zwar um einen geringeren Betrag, aber häufiger ändert, was sich auch negativ auf die Gesamtglätte auswirkt.

Beim Valley-Benchmark gibt es weniger Änderungen, da die durchschnittliche Bildrate dem 30-FPS-Niveau am nächsten kommt, das sowohl für 60- als auch für 120-Hz-Bildwiederholraten verfügbar ist. „Sync Off“ sorgt für flüssigere Bilder, allerdings mit visuellen Artefakten, und „V-Sync On“-Modi zeigen wiederum gezackte Linien. In diesem Unterabschnitt müssen wir uns nur das Spiel Just Cause 2 ansehen.

Und wieder sehen wir deutlich, wie fehlerhaft die vertikale Synchronisation ist, die keinen reibungslosen Bildwechsel ermöglicht. Selbst das Umschalten auf eine Bildwiederholfrequenz von 120 Hz verleiht dem V-Sync-On-Modus nur ein paar zusätzliche „Schritte“ an FPS – die Sprünge in der Bildrate hin und her von einem Schritt zum anderen sind nicht verschwunden – all das ist beim Betrachten sehr unangenehm Wenn Sie mehr über animierte 3D-Szenen erfahren möchten, können Sie sich auf unser Wort verlassen oder sich die Beispielvideos oben noch einmal ansehen.

Einfluss der Ausgabemethode auf die durchschnittliche Bildrate

Was passiert mit der durchschnittlichen Bildrate, wenn alle diese Synchronisierungsmodi aktiviert sind, und wie wirkt sich die Aktivierung von V-Sync und G-Sync auf die durchschnittliche Leistung aus? Sie können den Geschwindigkeitsverlust bereits anhand der oben gezeigten FPS-Diagramme grob abschätzen, wir präsentieren jedoch auch die durchschnittlichen Bildratenwerte, die wir während des Tests ermittelt haben. Der erste wird wieder Unigine Heaven sein:

Die Leistung in den Modi Adaptive V-Sync und V-Sync Off ist nahezu gleich – schließlich steigt die Geschwindigkeit fast nicht über 60 FPS. Es ist logisch, dass die Aktivierung von V-Sync auch zu einer Verringerung der durchschnittlichen Bildrate führt, da dieser Modus gestufte FPS-Indikatoren verwendet. Bei 60 Hz betrug der Rückgang der durchschnittlichen Bildrate mehr als ein Viertel, und das Einschalten von 120 Hz brachte nur die Hälfte des durchschnittlichen FPS-Verlusts zurück.

Am interessantesten ist für uns, wie stark die durchschnittliche Bildrate im G-Sync-Modus sinkt. Aus irgendeinem Grund wird die Geschwindigkeit über 60 FPS reduziert, obwohl der Monitor auf den 144-Hz-Modus eingestellt war, sodass die Geschwindigkeit bei eingeschaltetem G-Sync etwas niedriger war als im Modus mit deaktivierter Synchronisierung. Generell kann man davon ausgehen, dass es keinerlei Einbußen gibt, und diese sind sicherlich nicht mit der mangelnden Geschwindigkeit bei V-Sync On zu vergleichen. Betrachten wir den zweiten Benchmark – Valley.

In diesem Fall verringerte sich der Rückgang der durchschnittlichen Rendergeschwindigkeit in Modi mit aktiviertem V-Sync, da die Bildrate während des gesamten Tests nahe bei 30 FPS lag – einer der Frequenz-„Schritte“ für V-Sync in beiden Modi: 60 und 120 Hz. Aus offensichtlichen Gründen waren die Verluste im zweiten Fall etwas geringer.

Beim Einschalten von G-Sync war die durchschnittliche Bildrate wiederum niedriger als im deaktivierten Synchronisierungsmodus, und das alles aus dem gleichen Grund – das Einschalten von G-Sync „tötete“ FPS-Werte über 60. Der Unterschied ist jedoch gering , und Nvidias neuer Modus sorgt für deutlich höhere Geschwindigkeiten als bei aktiviertem Vsync. Schauen wir uns das letzte Diagramm an – die durchschnittliche Bildrate im Spiel Just Cause 2:

Bei diesem Spiel litt der V-Sync-On-Modus deutlich stärker als bei Testanwendungen auf der Unigine-Engine. Die durchschnittliche Bildrate in diesem Modus ist bei 60 Hz mehr als eineinhalb Mal niedriger als bei vollständig deaktivierter Synchronisierung! Die Aktivierung einer Bildwiederholfrequenz von 120 Hz verbessert die Situation erheblich, aber dennoch ermöglicht Ihnen G-Sync, selbst bei durchschnittlichen FPS-Zahlen eine spürbar bessere Leistung zu erzielen, ganz zu schweigen vom Komfort des Spiels, der nicht mehr allein anhand von Zahlen beurteilt werden kann – das haben Sie um es mit eigenen Augen zu sehen.

In diesem Abschnitt haben wir herausgefunden, dass die G-Sync-Technologie Bildraten liefert, die denen des Modus mit deaktivierter Synchronisierung nahekommen, und dass ihre Einbeziehung fast keine Auswirkungen auf die Leistung hat. Im Gegensatz zu V-Sync ändert sich die Bildrate bei Aktivierung in Schritten, wobei es häufig zu Sprüngen von Schritt zu Schritt kommt, was bei der Ausgabe einer animierten Bildserie zu unruhigen Bewegungen führt und sich negativ auf den Komfort in 3D-Spielen auswirkt.

Mit anderen Worten: Sowohl unsere subjektiven Eindrücke als auch die Testergebnisse deuten darauf hin, dass Nvidias G-Sync-Technologie den visuellen Komfort von 3D-Spielen tatsächlich zum Besseren verändert. Die neue Methode weist keine grafischen Artefakte in Form von Bildrissen auf, die aus mehreren benachbarten Bildern bestehen, wie wir sie im Modus mit deaktiviertem V-Sync sehen, und es gibt keine Probleme mit der Glätte der Bildausgabe auf dem Monitor und erhöht sich Ausgabeverzögerungen, wie im V-Sync-Modus Ein.

Abschluss

Bei all den Schwierigkeiten, die Glätte der Videoausgabe objektiv zu messen, möchte ich zunächst eine subjektive Einschätzung äußern. Vom Spielerlebnis auf der Nvidia GeForce und dem G-Sync-fähigen Monitor von Asus waren wir durchaus beeindruckt. Selbst eine einmalige „Live“-Demonstration von G-Sync hinterlässt durch die reibungslosen Bildwechsel wirklich einen starken Eindruck, und nach einem langen Test dieser Technologie wird es sehr langweilig, mit alten Methoden der Bildanzeige auf einem Monitor weiterzuspielen auf dem Bildschirm.

Vielleicht kann G-Sync als die größte Änderung im Prozess der Anzeige visueller Informationen auf dem Bildschirm seit langem angesehen werden – wir haben endlich etwas wirklich Neues in der Verbindung zwischen Displays und GPUs gesehen, was sich direkt auf den Komfort beim Betrachten von 3D-Grafiken auswirkt gleichmäßig und so auffällig. Und bevor Nvidia die G-Sync-Technologie ankündigte, waren wir viele Jahre lang an veraltete Bildausgabestandards gebunden, die ihre Wurzeln in den Anforderungen der Fernseh- und Filmindustrie hatten.

Natürlich hätte ich solche Fähigkeiten gerne schon früher, aber jetzt ist kein schlechter Zeitpunkt für die Implementierung, da in vielen anspruchsvollen 3D-Spielen bei maximalen Einstellungen moderne Grafikkarten eine Bildrate liefern, bei der die Vorteile der Aktivierung von G -Sync wird maximal. Und vor dem Aufkommen der Technologie von Nvidia wurde der in Spielen erreichte Realismus bei weitem nicht durch die besten Methoden zur Bildaktualisierung auf dem Monitor „getötet“, was zu Bildrissen, erhöhten Verzögerungen und Rucklern bei der Bildrate führte. Mit der G-Sync-Technologie können Sie diese Probleme beseitigen, indem Sie die Bildrate auf dem Bildschirm mit der Rendergeschwindigkeit des Grafikprozessors gleichsetzen (wenn auch mit einigen Einschränkungen) – dieser Prozess wird jetzt von der GPU selbst verwaltet.

Wir haben keine einzige Person getroffen, die G-Sync bei der Arbeit ausprobiert hat und mit dieser Technologie unzufrieden geblieben ist. Die Bewertungen der allerersten glücklichen Menschen, die die Technologie letzten Herbst auf einer Nvidia-Veranstaltung getestet haben, waren durchweg begeistert. Auch Journalisten der Fachpresse und Spieleentwickler (John Carmack, Tim Sweeney und Johan Andersson) unterstützten die neue Auszahlungsmethode. Wir schließen uns jetzt an – nach mehreren Tagen der Verwendung eines Monitors mit G-Sync möchte ich nicht mehr auf alte Geräte mit längst veralteten Synchronisierungsmethoden zurückgreifen. Ach, wenn es nur mehr Auswahl an Monitoren mit G-Sync gäbe und diese nicht ausschließlich mit TN-Matrizen ausgestattet wären ...

Nun, zu den Nachteilen der Nvidia-Technologie gehört, dass sie mit einer Bildrate von mindestens 30 FPS arbeitet, was als ärgerlicher Nachteil angesehen werden kann – es wäre besser, wenn das Bild auch bei 20-25 FPS danach klar angezeigt würde es wurde auf der GPU vorbereitet. Der Hauptnachteil der Technologie besteht jedoch darin, dass es sich bei G-Sync um eine firmeneigene Lösung handelt, die von anderen GPU-Herstellern nicht verwendet wird: AMD und Intel. Sie können Nvidia auch verstehen, weil sie Ressourcen in die Entwicklung und Implementierung der Technologie gesteckt und mit Monitorherstellern verhandelt haben, um sie genau mit dem Wunsch zu unterstützen, Geld zu verdienen. Tatsächlich fungierten sie erneut als Motor des technischen Fortschritts, trotz der vermeintlichen Profitgier des Unternehmens. Lassen Sie uns ein großes „Geheimnis“ lüften: Gewinn ist das Hauptziel eines jeden kommerziellen Unternehmens, und Nvidia ist keine Ausnahme.

Und doch liegt die Zukunft eher in universelleren offenen Standards, die im Wesentlichen G-Sync ähneln, wie etwa Adaptive-Sync, einer optionalen Funktion in DisplayPort 1.2a. Das Erscheinen und der Vertrieb von Monitoren mit einer solchen Unterstützung müssen jedoch noch einige Zeit warten – etwa bis Mitte nächsten Jahres, und G-Sync-Monitore verschiedener Unternehmen (Asus, Acer, BenQ, AOC und andere) sind bereits im Angebot für mehrere Monate, wenn auch nicht ganz günstig. Nichts hindert Nvidia daran, Adaptive-Sync in Zukunft zu unterstützen, obwohl sie sich zu diesem Thema nicht offiziell geäußert haben. Hoffen wir, dass GeForce-Fans mit G-Sync nicht nur jetzt eine funktionierende Lösung haben, sondern dass es in Zukunft auch möglich sein wird, dynamische Bildwiederholraten im Rahmen eines allgemein akzeptierten Standards zu nutzen.

Neben anderen Nachteilen der Nvidia G-Sync-Technologie für Anwender stellen wir fest, dass ihre Unterstützung auf der Monitorseite den Hersteller einen gewissen Betrag kostet, was auch zu einer Erhöhung des Verkaufspreises im Vergleich zu Standardmonitoren führt. Allerdings gibt es unter den G-Sync-Monitoren Modelle unterschiedlicher Preisklasse, darunter auch einige, die nicht allzu teuer sind. Die Hauptsache ist, dass sie bereits im Angebot sind und jeder Spieler jetzt maximalen Komfort beim Spielen genießen kann, und das bisher nur mit Nvidia Geforce-Grafikkarten – das Unternehmen bürgt für diese Technologie.

Besitzen Sie einen G-SYNC-fähigen Monitor und eine NVIDIA-Grafikkarte? Schauen wir uns an, was G-SYNC ist, wie man es aktiviert und richtig konfiguriert, um das Potenzial und die Fähigkeiten dieser Technologie voll auszuschöpfen. Bedenken Sie, dass das bloße Einschalten nicht alles ist.

Jeder Gamer weiß, was vertikale Synchronisation (V-Sync) ist. Diese Funktion synchronisiert die Bildframes so, dass der Effekt von Bildschirmrissen vermieden wird. Wenn Sie die vertikale Synchronisierung auf einem normalen Monitor deaktivieren, verringern Sie die Eingabeverzögerung (Latenz) und Sie werden feststellen, dass das Spiel besser auf Ihre Befehle reagiert, die Frames jedoch nicht richtig synchronisiert werden und es zu Bildschirmrissen kommt .

V-Sync eliminiert Screen Tearing, bewirkt aber gleichzeitig eine erhöhte Verzögerung der Bildausgabe im Verhältnis zur Steuerung, sodass das Spiel weniger komfortabel wird. Jedes Mal, wenn Sie die Maus bewegen, scheint es, dass der Bewegungseffekt mit einer leichten Verzögerung erfolgt. Und hier hilft die G-SYNC-Funktion, mit der Sie diese beiden Mängel beseitigen können.

Was ist G-SYNC?

Eine recht teure, aber effektive Lösung für NVIDIA GeForce-Grafikkarten ist die Verwendung der G-SYNC-Technologie, die Bildschirmrisse ohne zusätzliche Eingabeverzögerung verhindert. Zur Umsetzung benötigen Sie jedoch einen Monitor, der das G-SYNC-Modul enthält. Das Modul passt die Bildschirmaktualisierungsrate an die Anzahl der Bilder pro Sekunde an, sodass keine zusätzliche Verzögerung entsteht und der Effekt von Bildschirmrissen eliminiert wird.

Viele Benutzer aktivieren nach dem Kauf eines solchen Monitors nur die NVIDIA G-SYNC-Unterstützung in den NVIDIA-Systemsteuerungseinstellungen in der Überzeugung, dass dies alles ist, was sie tun sollten. Theoretisch ja, denn G-SYNC wird funktionieren, aber wenn Sie diese Technologie voll ausnutzen möchten, müssen Sie eine Reihe zusätzlicher Funktionen aktivieren, die mit der entsprechenden Einstellung von klassischem V-Sync und der Begrenzung der FPS in Spielen zusammenhängen eine Anzahl von Bildern, die unter der maximalen Bildwiederholfrequenz des Monitors liegt. Warum? All das erfahren Sie aus den folgenden Empfehlungen.

Aktivieren von G-SYNC in der NVIDIA-Systemsteuerung

Beginnen wir mit der einfachsten Grundlösung, also ab dem Moment, in dem Sie das G-SYNC-Modul einschalten. Dies kann über die NVIDIA-Systemsteuerung erfolgen. Klicken Sie mit der rechten Maustaste auf Ihren Desktop und wählen Sie NVIDIA-Systemsteuerung.

Gehen Sie dann zur Registerkarte „Anzeige“ – G-SYNC-Setup. Hier können Sie die Technologie über das Feld „Enable G-SYNC“ aktivieren. Kennzeichnen Sie es.

Anschließend können Sie festlegen, ob es nur im Vollbildmodus funktioniert oder auch bei Spielen im Fenstermodus oder im Vollbildfenster (ohne Ränder) aktiviert werden soll.

Wenn Sie die Option „G-SYNC für Vollbildmodus aktivieren“ auswählen, funktioniert die Funktion nur in Spielen, bei denen der Vollbildmodus eingestellt ist (diese Option kann in den Einstellungen bestimmter Spiele geändert werden). Spiele im Fenstermodus oder im Vollbildmodus nutzen diese Technologie nicht.

Wenn Sie möchten, dass Fensterspiele auch die G-SYNC-Technologie verwenden, aktivieren Sie die Option „G-SYNC für Fenster- und Vollbildmodus aktivieren“. Wenn diese Option ausgewählt ist, fängt die Funktion das aktuell aktive Fenster ab und überlagert es mit ihrer Aktion, sodass eine modifizierte Bildschirmaktualisierung unterstützt werden kann. Möglicherweise müssen Sie Ihren Computer neu starten, um diese Option zu aktivieren.

So überprüfen Sie, ob diese Technologie aktiviert ist. Öffnen Sie dazu das Anzeigemenü oben im Fenster und aktivieren Sie darin das Feld „G-SYNC-Anzeige“. Dadurch werden Sie darüber informiert, dass G-SYNC aktiviert ist, wenn Sie das Spiel starten.

Gehen Sie dann im Seitenmenü zur Registerkarte „3D-Einstellungen verwalten“. Suchen Sie im Abschnitt „Globale Einstellungen“ nach dem Feld „Bevorzugte Aktualisierungsrate“.

Stellen Sie dies auf „Höchste verfügbare“ ein. Einige Spiele erfordern möglicherweise eine eigene Bildwiederholfrequenz, was dazu führen kann, dass G-SYNC nicht vollständig genutzt wird. Dank dieses Parameters werden alle Spieleinstellungen ignoriert und die Möglichkeit, die maximale Bildwiederholfrequenz des Monitors zu verwenden, ist immer aktiviert, die bei Geräten mit G-SYNC am häufigsten 144 Hz beträgt.

Im Allgemeinen ist dies die grundlegende Einrichtung, die Sie durchführen müssen, um G-SYNC zu aktivieren. Wenn Sie jedoch das Potenzial Ihrer Ausrüstung voll ausschöpfen möchten, sollten Sie die folgenden Anweisungen lesen.

Was soll ich mit V-SYNC machen, wenn ich G-SYNC habe? Anlassen oder ausschalten?

Dies ist das häufigste Dilemma von G-SYNC-Monitorbesitzern. Es ist allgemein anerkannt, dass diese Technologie das klassische V-SYNC vollständig ersetzt, das in der NVIDIA-Systemsteuerung vollständig deaktiviert oder einfach ignoriert werden kann.

Zuerst müssen Sie den Unterschied zwischen ihnen verstehen. Die Aufgabe beider Funktionen ist theoretisch dieselbe – den Effekt des Screen Tearings zu überwinden. Aber die Wirkungsweise ist deutlich anders.

V-SYNC synchronisiert Frames, um sie an die konstante Bildwiederholfrequenz des Monitors anzupassen. Somit fungiert die Funktion als Vermittler, der das Bild und damit den angezeigten Frame erfasst, um sie an eine konstante Bildrate anzupassen und so Bildrisse zu verhindern. Dadurch kann es zu einem Input-Lag (Verzögerung) kommen, da V-SYNC das Bild zunächst „erfassen und organisieren“ muss und es dann erst auf dem Bildschirm anzeigen muss.

G-SYNC funktioniert genau umgekehrt. Es passt nicht das Bild, sondern die Bildwiederholfrequenz des Monitors an die Anzahl der auf dem Bildschirm angezeigten Bilder an. Alles erfolgt hardwaremäßig über das im Monitor integrierte G-SYNC-Modul, sodass es bei der Bildanzeige nicht zu einer zusätzlichen Verzögerung kommt, wie es bei der vertikalen Synchronisation der Fall ist. Dies ist sein Hauptvorteil.

Das ganze Problem besteht darin, dass G-SYNC nur dann gut funktioniert, wenn die FPS im unterstützten Bildwiederholfrequenzbereich liegen. Dieser Bereich umfasst Frequenzen von 30 Hz bis zum Maximalwert, den der Monitor unterstützt (60 Hz oder 144 Hz). Das heißt, diese Technologie entfaltet ihr volles Potenzial, wenn die FPS nicht unter 30 sinkt und 60 oder 144 Bilder pro Sekunde nicht überschreitet, abhängig von der maximal unterstützten Bildwiederholfrequenz. Die von BlurBusters erstellte Infografik unten sieht wirklich gut aus.

Was passiert, wenn die fps außerhalb dieses Bereichs liegen? G-SYNC kann die Bildschirmaktualisierung nicht anpassen, sodass alles außerhalb des Bereichs nicht funktioniert. Sie werden genau die gleichen Probleme wie bei einem normalen Monitor ohne G-SYNC feststellen und die klassische vertikale Synchronisierung funktioniert. Wenn es ausgeschaltet ist, kommt es zu Bildschirmrissen. Wenn es eingeschaltet ist, sehen Sie den Gap-Effekt nicht, es tritt jedoch eine Eingabeverzögerung (Verzögerung) auf.

Daher liegt es in Ihrem Interesse, innerhalb des G-SYNC-Bildwiederholbereichs zu bleiben, der mindestens 30 Hz und maximal die maximale Leistung des Monitors beträgt (am häufigsten sind 144 Hz, es gibt aber auch 60-Hz-Displays). Wie kann man das machen? Verwendung geeigneter vertikaler Synchronisationsparameter sowie Begrenzung der maximalen FPS-Anzahl.

Was ist nun die Schlussfolgerung daraus? In einer Situation, in der die Anzahl der Bilder pro Sekunde unter 30 FPS fällt, müssen Sie die vertikale Synchronisierung weiterhin aktiviert lassen. Dies sind zwar seltene Fälle, aber wenn es doch einmal passieren sollte, stellt V-SYNC sicher, dass es nicht zu einem Tearing-Effekt kommt. Wenn die Obergrenze überschritten wird, ist alles ganz einfach: Sie müssen die maximale Anzahl von Bildern pro Sekunde begrenzen, um sich der Obergrenze nicht zu nähern. Bei Überschreitung wird V-SYNC aktiviert und so ein kontinuierlicher Betrieb von G-SYNC sichergestellt .

Wenn Sie einen 144-Hz-Monitor haben, müssen Sie daher die FPS-Obergrenze auf 142 aktivieren, um zu vermeiden, dass Sie der Obergrenze zu nahe kommen. Wenn der Monitor 60 Hz hat, stellen Sie die Grenze auf 58 ein. Selbst wenn der Computer mehr FPS schaffen kann, schafft er dies nicht. Dann schaltet sich V-SYNC nicht ein und nur G-SYNC ist aktiv.

Aktivieren von Vsync in den NVIDIA-Einstellungen

Öffnen Sie die NVIDIA-Systemsteuerung und gehen Sie zur Registerkarte „3D-Einstellungen verwalten“. Suchen Sie im Abschnitt „Globale Einstellungen“ nach der Option „Vertikale Synchronisierung“ und stellen Sie die Option auf „Ein“.

Dadurch ist die vertikale Synchronisierung immer einsatzbereit, wenn die FPS unter 30 FPS fällt, und ein Monitor mit G-SYNC-Technologie würde damit nicht umgehen können.

Begrenzen Sie die FPS auf weniger als die maximale Bildschirmaktualisierungsrate

Der beste Weg, die Bilder pro Sekunde zu begrenzen, ist die Verwendung des RTSS-Programms (RivaTuner Statistics Server). Die beste Lösung besteht natürlich darin, den im Spiel integrierten Limiter zu verwenden, aber nicht jeder hat einen.

Laden Sie das Programm herunter und führen Sie es aus. Aktivieren Sie dann in der Liste der Spiele auf der linken Seite das Feld „Global“. Hier können Sie einen gemeinsamen Limiter für alle Anwendungen einstellen. Suchen Sie auf der rechten Seite das Feld „Framerate-Limit“. Legen Sie hier den Grenzwert für 144-Hz-Monitore fest – 142 FPS bzw. für 60-Hz-Geräte – 58 FPS.

Wenn das Limit festgelegt ist, kommt es zu keiner Verzögerung bei der Aktivierung der klassischen vertikalen Synchronisation und das Spielen wird deutlich komfortabler.

Beste Monitore für Spiele | Modelle, die Nvidia G-Sync-Technologien unterstützen

Die Technologie mit variabler oder adaptiver Bildschirmaktualisierungsrate gibt es in zwei Varianten: AMD FreeSync und Nvidia G-Sync. Sie erfüllen die gleiche Funktion – sie reduzieren die Bildwiederholfrequenz der Quelle (Grafikkarte) und des Displays, um störendes Frame Tearing bei schnellen Bewegungen im Spiel zu verhindern. FreeSync ist Teil der DisplayPort-Spezifikation, während G-Sync zusätzliche, von Nvidia lizenzierte Hardware erfordert. Die Implementierung von G-Sync erhöht den Preis des Monitors um etwa 200 US-Dollar. Wenn Sie bereits über eine moderne GeForce-Grafikkarte verfügen, liegt die Wahl auf der Hand. Wenn Sie noch unentschlossen sind, sollten Sie wissen, dass G-Sync einen Vorteil hat. Wenn die Bildrate unter den G-Sync-Schwellenwert von 40 fps fällt, werden Bilder dupliziert, um Bildrisse zu verhindern. FreeSync verfügt nicht über eine solche Funktion.


Übersichtstabelle


Modell AOC G2460PG Asus RoG PG248Q Dell S2417DG Asus ROG SWIFT PG279Q
Kategorie FHD FHD QHD QHD
Bester Preis in Russland, Rubel. 24300 28990 31000 58100
Panel-/Hintergrundbeleuchtungstyp TN/W-LED TN/W-LED-Edge-Array TN/W-LED-Edge-Array AHVA/W-LED-Edge-Array
24" / 16:9 24" / 16:9 24" / 16:9 27" / 16:9
Krümmungsradius Nein Nein Nein Nein
1920 x 1080 bei 144 Hz 1920 x 1080 bei 144 Hz, 180 Hz übertaktet 2560 x 1440 bei 144 Hz, 165 Hz übertaktet 2560 x 1440 bei 165 Hz
FreeSync-Betriebsbereich Nein Nein Nein Nein
Farbtiefe/Farbraum 8-Bit (6-Bit mit FRC) / sRGB 8-Bit/sRGB 8-Bit/sRGB 8-Bit/sRGB
Reaktionszeit (GTG), ms 1 1 1 4
Helligkeit, cd/m2 350 350 350 350
Lautsprecher Nein Nein Nein (2) 2 W
Videoeingänge (1) DisplayPort (1) DisplayPort v1.2, (1) HDMI v1.4 (1) DisplayPort v1.2, (1) HDMI v1.4
Audioanschlüsse Nein (1) 3,5-mm-Kopfhörerausgang (1) 3,5-mm-Stereoeingang, (1) 3,5-mm-Kopfhörerausgang (1) 3,5-mm-Kopfhörerausgang
USB v3.0: (1) Eingang, (2) Ausgänge; v2.0: (2) Ausgänge v3.0: (1) Eingabe, (2) Ausgabe v3.0: (1) Eingabe, (4) Ausgabe v3.0: (1) Eingabe, (2) Ausgabe
Energieverbrauch, W 40 typisch 65 max. 33 typisch 90 max., 0,5 erwartet
559x391-517x237 562x418-538x238 541x363x180 620x553x238
Plattenstärke, mm 50 70 52 66
Rahmenbreite, mm 16-26 11 oben/seitlich: 6, unten: 15 8-12
Gewicht (kg 6,5 6,6 5,8 7
Garantie 3 Jahre 3 Jahre 3 Jahre 3 Jahre

Modell Acer Predator XB271HK Acer Predator XB321HK Asus ROG PG348Q Acer Predator Z301CTМ
Kategorie UHD UHD WQHD QHD
Bester Preis in Russland, Rubel. 43900 62000 102000 58000
Panel-/Hintergrundbeleuchtungstyp AHVA/W-LED-Edge-Array IPS/W-LED-Edge-Array AH-IPS/W-LED-Edge-Array AMVA/W-LED, Edge-Array
Bildschirmdiagonale/Seitenverhältnis 27" / 16:9 32" / 16:9 34" / 21:9 30" / 21:9
Krümmungsradius Nein Nein 3800 mm 1800 mm
Maximale Auflösung/Frequenz Aktualisierung 3840 x 2160 bei 60 Hz 3840 x 2160 bei 60 Hz 3440 x 1440 bei 75 Hz, 100 Hz übertaktet 2560 x 1080 bei 144 Hz, 200 Hz übertaktet
FreeSync-Betriebsbereich Nein Nein Nein 8-Bit/sRGB
Farbtiefe/Farbraum 10-Bit/sRGB 10-Bit/sRGB 10-Bit/sRGB 10-Bit/sRGB
Reaktionszeit (GTG), ms 4 4 5 4
Helligkeit, cd/m2 300 350 300 300
Lautsprecher (2) 2 W, DTS (2) 2 W, DTS (2) 2 W (2) 3W, DTS
Videoeingänge (1) DisplayPort v1.2, (1) HDMI v1.4 (1) DisplayPort, (1) HDMI (1) DisplayPort v1.2, (1) HDMI v1.4 (1) DisplayPort v1.2, (1) HDMI v1.4
Audioanschlüsse (1) 3,5-mm-Kopfhörerausgang (1) 3,5-mm-Kopfhörerausgang (1) 3,5-mm-Kopfhörerausgang (1) 3,5-mm-Kopfhörerausgang
USB v3.0: (1) Eingabe, (4) Ausgabe v3.0: (1) Eingabe, (4) Ausgabe v3.0: (1) Eingabe, (4) Ausgabe v3.0: (1) Eingabe, (3) Ausgabe
Energieverbrauch, W 71,5 typisch 56 typisch 100 max. 34 W bei 200 Nits
Abmessungen LxHxB (mit Sockel), mm 614x401-551x268 737x452-579x297 829x558x297 714x384-508x315
Plattenstärke, mm 63 62 73 118
Rahmenbreite, mm oben/seitlich: 8, unten: 22 oben/seitlich: 13, unten: 20 oben/seitlich: 12, unten: 24 oben/seitlich: 12, unten: 20
Gewicht (kg 7 11,5 11,2 9,7
Garantie 3 Jahre 3 Jahre 3 Jahre 3 Jahre

AOC G2460PG – FHD 24 Zoll


  • Bester Preis in Russland: 24.300 Rubel.

VORTEILE

  • Hervorragende Implementierung von G-Sync
  • Bildschirmaktualisierungsrate 144 Hz
  • ULMB-Unterdrückung von Bewegungsunschärfe
  • Hohe Verarbeitungsqualität
  • Sehr hohe Farb- und Graustufenqualität

MÄNGEL

  • Nicht standardmäßiges Gamma
  • Unzureichende Helligkeit für optimale ULMB-Leistung
  • Kein Trinkgeld

URTEIL

Obwohl G-Sync nach wie vor eine Premium- und teure Option ist, ist der AOC G2460PG der erste Monitor in diesem Segment, der sich an preisbewusste Käufer richtet. Er kostet etwa die Hälfte des Preises des Asus ROG Swift, sodass Sie etwas Geld sparen oder zwei Monitore gleichzeitig auf Ihrem Schreibtisch installieren können.

Asus RoG PG248Q – FHD 24 Zoll


  • Bester Preis in Russland: 28.990 Rubel.

VORTEILE

  • G-Sync
  • 180 Hz
  • Geringe Wartezeit
  • Empfänglichkeit
  • Farbgenauigkeit mit Kalibrierung
  • Schlankes Aussehen
  • Bauqualität

MÄNGEL

  • Um das beste Bild zu erzielen, sind Anpassungen erforderlich
  • Kontrast
  • Teuer

URTEIL

Der PG248Q ist wie ein exotischer Sportwagen – teuer und unpraktisch in der Bedienung. Wenn Sie jedoch bei der Installation die richtigen Einstellungen vornehmen, erhalten Sie ein hervorragendes Spielerlebnis. In Bezug auf Laufruhe und Reaktionsfähigkeit ist dieser Monitor vielleicht der beste, den wir bisher getestet haben. Es ist das Geld und die aufgewendete Zeit wert. Sehr empfehlenswert.

Dell S2417DG


  • Bester Preis in Russland: 31.000 Rubel.

    VORTEILE

    • Überragende Bewegungsverarbeitungsqualität
    • Farbgenauigkeit bei Werkseinstellungen
    • Auflösung QHD
    • Bildwiederholfrequenz 165 Hz
    • Gaming-Funktionen
    • Rahmen 6 mm

    MÄNGEL

    • Kontrast
    • Genauigkeit der Gammakurve
    • ULMB reduziert Lichtleistung und Kontrast
    • Betrachtungswinkel

    URTEIL

    Wenn Dell die beim Testen aufgetretenen Gammaprobleme behoben hätte, hätte der S2417DG unseren Editor's Choice Award erhalten. Der Monitor überträgt Bewegungen unglaublich flüssig, ohne Geisterbilder, Verwacklungen oder Tränen – man kann den Blick nicht davon lassen. Der Nutzen der ULMB-Funktion ist gering, aber dennoch vorhanden. Es ist nicht der günstigste 24-Zoll-Gaming-Monitor, aber er übertrifft seine teureren Konkurrenten und verdient einen Platz auf der Liste.

    Asus RoG Swift PG279Q – QHD 27 Zoll


    • Bester Preis in Russland: 58.100 Rubel.

    VORTEILE

    • Stabiler Betrieb bei 165 Hz
    • G-Sync
    • Lebendige und scharfe Bilder
    • Gesättigte Farbe
    • GamePlus
    • Joystick für OSD-Menü
    • Stilvolles Erscheinungsbild
    • Hohe Verarbeitungsqualität

    MÄNGEL

    • Deutliche Reduzierung des Lichtstroms im ULMB-Modus
    • Um die beste Bildqualität zu erzielen, ist eine Kalibrierung erforderlich
    • Teuer

    URTEIL

    Der Neuzugang von Asus in der ROG-Reihe ist nicht perfekt, aber auf jeden Fall einen Blick wert. Der PG279Q bietet alles, was ein Enthusiast braucht, einschließlich eines gestochen scharfen und hellen IPS-Panels, einer Bildwiederholfrequenz von 165 Hz und G-Sync. Dieser Monitor ist nicht billig, aber wir haben noch nicht gehört, dass Benutzer den Kauf bereut haben. Wir haben es genossen, auf diesem Monitor zu spielen, und Sie werden es wahrscheinlich auch genießen.

    Acer Predator XB271HK – UHD 27 Zoll


    • Bester Preis in Russland: 43.900 Rubel.

    VORTEILE

    • Satte Farben
    • Bildgenauigkeit bei Werkseinstellungen
    • G-Sync
    • Ultra-HD-Auflösung
    • Betrachtungswinkel
    • Bauqualität

    MÄNGEL

    • Teuer

    Übersicht über die G-Sync-Technologie | Eine kurze Geschichte der festen Bildwiederholfrequenz

    Früher waren Monitore sperrig und enthielten Kathodenstrahlröhren und Elektronenkanonen. Elektronenkanonen bombardieren den Bildschirm mit Photonen, um farbige Phosphorpunkte, die wir Pixel nennen, zum Leuchten zu bringen. Sie zeichnen von links nach rechts jede „Scanlinie“ von oben nach unten. Das Anpassen der Geschwindigkeit der Elektronenkanone von einem vollständigen Update zum nächsten war vorher nicht sehr praktisch, und vor dem Aufkommen von 3D-Spielen bestand hierfür auch kein besonderer Bedarf. Daher wurden CRTs und verwandte analoge Videostandards mit einer festen Bildwiederholfrequenz entwickelt.

    LCD-Monitore ersetzten nach und nach CRTs und digitale Anschlüsse (DVI, HDMI und DisplayPort) ersetzten analoge Anschlüsse (VGA). Doch die für die Standardisierung von Videosignalen verantwortlichen Verbände (angeführt von VESA) sind nicht von festen Bildwiederholraten abgerückt. Film und Fernsehen sind immer noch auf ein Eingangssignal mit konstanter Bildrate angewiesen. Auch hier scheint die Umstellung auf eine variable Bildwiederholfrequenz nicht unbedingt notwendig zu sein.

    Einstellbare Bildraten und feste Bildwiederholraten sind nicht dasselbe

    Vor dem Aufkommen moderner 3D-Grafiken waren feste Bildwiederholraten für Displays kein Problem. Aber als wir zum ersten Mal auf leistungsstarke GPUs stießen, wurde es deutlich: Die Rate, mit der die GPU einzelne Frames renderte (was wir Framerate nennen, normalerweise ausgedrückt in FPS oder Frames pro Sekunde), ist nicht konstant. Es verändert sich im Laufe der Zeit. In grafikintensiven Szenen kann die Karte 30 FPS liefern, bei leerem Himmel sogar 60 FPS.

    Das Deaktivieren der Synchronisierung führt zu Lücken

    Es stellt sich heraus, dass die variable Bildrate der GPU und die feste Bildwiederholfrequenz des LCD-Panels nicht sehr gut zusammenarbeiten. In dieser Konfiguration stoßen wir auf ein grafisches Artefakt namens „Tearing“. Es tritt auf, wenn zwei oder mehr Teilbilder während desselben Monitoraktualisierungszyklus zusammen gerendert werden. Normalerweise sind sie verschoben, was beim Bewegen einen sehr unangenehmen Effekt hat.

    Das Bild oben zeigt zwei bekannte Artefakte, die häufig vorkommen, aber schwer zu erfassen sind. Da es sich um Anzeigeartefakte handelt, werden Sie diese in normalen Spiel-Screenshots nicht sehen, aber unsere Bilder zeigen, was Sie beim Spielen tatsächlich sehen. Um sie aufzunehmen, benötigen Sie eine Kamera mit einem Hochgeschwindigkeits-Aufnahmemodus. Oder wenn Sie eine Karte haben, die Videoaufnahme unterstützt, können Sie einen unkomprimierten Videostream vom DVI-Anschluss aufzeichnen und den Übergang von einem Bild zum nächsten deutlich sehen; Dies ist die Methode, die wir für FCAT-Tests verwenden. Am besten ist es jedoch, den beschriebenen Effekt mit eigenen Augen zu beobachten.

    Der Träneneffekt ist in beiden Bildern sichtbar. Das obere Bild wurde mit einer Kamera erstellt, das untere Bild mithilfe der Videoaufnahmefunktion. Das untere Bild ist horizontal „geschnitten“ und wirkt verschoben. In den beiden oberen Bildern wurde das linke Foto auf einem Sharp-Bildschirm mit einer Bildwiederholfrequenz von 60 Hz aufgenommen, das rechte auf einem Asus-Display mit einer Bildwiederholfrequenz von 120 Hz. Das Tearing ist auf einem 120-Hz-Display weniger ausgeprägt, da die Bildwiederholfrequenz doppelt so hoch ist. Der Effekt ist jedoch sichtbar und erscheint auf die gleiche Weise wie im linken Bild. Diese Art von Artefakt ist ein klares Zeichen dafür, dass die Bilder mit ausgeschalteter vertikaler Synchronisierung (V-Sync) aufgenommen wurden.

    Battlefield 4 auf GeForce GTX 770 mit deaktivierter V-Sync

    Der zweite Effekt, der in den Bildern von BioShock: Infinite sichtbar ist, heißt Ghosting. Es ist besonders unten links auf dem Foto sichtbar und mit einer Verzögerung bei der Bildschirmaktualisierung verbunden. Kurz gesagt, einzelne Pixel ändern ihre Farbe nicht schnell genug, was zu dieser Art von Leuchten führt. Ein einzelner Frame kann den Effekt, den Ghosting auf das Spiel selbst hat, nicht vermitteln. Ein Panel mit einer Grau-zu-Grau-Reaktionszeit von 8 ms, wie das Sharp, erzeugt bei jeder Bewegung auf dem Bildschirm ein unscharfes Bild. Aus diesem Grund sind diese Displays grundsätzlich nicht für Ego-Shooter zu empfehlen.

    V-Sync: „Seife verschwendet“

    Vertical Sync oder V-Sync ist eine sehr alte Lösung für das Tearing-Problem. Wenn diese Funktion aktiviert ist, versucht die Grafikkarte, sich an die Bildwiederholfrequenz des Bildschirms anzupassen, wodurch Tearing vollständig vermieden wird. Das Problem besteht darin, dass, wenn Ihre Grafikkarte die Bildrate nicht über 60 FPS halten kann (auf einem 60-Hz-Display), die effektive Bildrate zwischen Vielfachen der Bildschirmaktualisierungsrate (60, 30, 20, 15 FPS usw.) schwankt .) usw.), was wiederum zu spürbaren Verlangsamungen führen wird.

    Wenn die Bildrate bei aktivierter V-Synchronisierung unter die Bildwiederholfrequenz fällt, treten Ruckler auf

    Da V-Sync außerdem die Grafikkarte warten lässt und manchmal auf den unsichtbaren Oberflächenpuffer angewiesen ist, kann V-Sync zu zusätzlicher Eingabeverzögerung in der Renderkette führen. Daher kann V-Sync sowohl ein Segen als auch ein Fluch sein, da es einige Probleme löst, aber auch andere Nachteile mit sich bringt. Eine informelle Umfrage unter unseren Mitarbeitern ergab, dass Gamer dazu neigen, V-Sync zu deaktivieren und es erst dann einzuschalten, wenn Tearing unerträglich wird.

    Werden Sie kreativ: Nvidia stellt G-Sync vor

    Beim Starten einer neuen Grafikkarte GeForce GTX 680 Nvidia hat einen Treibermodus namens Adaptive V-Sync integriert, der versucht, Probleme zu mildern, indem er V-Sync aktiviert, wenn die Bildraten über der Bildwiederholfrequenz des Monitors liegen, und ihn schnell deaktiviert, wenn die Leistung stark unter die Bildwiederholfrequenz fällt. Obwohl die Technologie ihre Aufgabe gut erfüllte, handelte es sich um einen Workaround, der das Tearing nicht verhinderte, wenn die Bildrate niedriger als die Bildwiederholfrequenz des Monitors war.

    Implementierung G-Sync viel interessanter. Im Allgemeinen zeigt Nvidia, dass wir neue Monitore dazu zwingen können, mit einer variablen Frequenz zu laufen, anstatt Grafikkarten dazu zu zwingen, mit einer festen Anzeigefrequenz zu laufen.

    Die GPU-Bildrate bestimmt die Bildwiederholfrequenz des Monitors und beseitigt Artefakte, die mit der Aktivierung und Deaktivierung von V-Sync verbunden sind

    Der Paketdatenübertragungsmechanismus des DisplayPort-Anschlusses hat neue Möglichkeiten eröffnet. Durch die Verwendung variabler Austastintervalle im DisplayPort-Videosignal und den Ersatz des Monitorskalierers durch ein Modul, das mit variablen Austastsignalen arbeitet, kann das LCD-Panel mit einer variablen Bildwiederholfrequenz betrieben werden, die sich an der von der Grafikkarte ausgegebenen Bildrate (innerhalb der des Monitors) orientiert Aktualisierungsrate). In der Praxis wurde Nvidia kreativ mit den Besonderheiten der DisplayPort-Schnittstelle und versuchte, zwei Fliegen mit einer Klappe zu fangen.

    Noch bevor der Test beginnt, möchte ich dem Team für seinen kreativen Ansatz zur Lösung eines echten Problems im Zusammenhang mit PC-Spielen loben. Das ist Innovation vom Feinsten. Aber was sind die Ergebnisse? G-Sync in der Praxis? Lass es uns herausfinden.

    Nvidia hat uns ein technisches Muster des Monitors geschickt Asus VG248QE, bei dem das Skalierungsgerät durch ein Modul ersetzt wird G-Sync. Diese Darstellung ist uns bereits bekannt. Der Artikel ist ihm gewidmet „Asus VG248QE Test: 24-Zoll-Gaming-Monitor mit 144 Hz für 400 US-Dollar“, in dem der Monitor mit dem Tom's Hardware Smart Buy Award ausgezeichnet wurde. Jetzt ist es an der Zeit herauszufinden, wie sich die neue Technologie von Nvidia auf die beliebtesten Spiele auswirken wird.

    Übersicht über die G-Sync-Technologie | 3D LightBoost, integrierter Speicher, Standards und 4K

    Als wir die Pressematerialien von Nvidia durchgesehen haben, stellten wir uns viele Fragen, sowohl über den Platz der Technologie in der Gegenwart als auch über ihre Rolle in der Zukunft. Während einer kürzlichen Reise zum Firmensitz in Santa Clara erhielten unsere US-Kollegen einige Antworten.

    G-Sync und 3D LightBoost

    Das erste, was uns auffiel, war, dass Nvidia einen Monitor geschickt hat Asus VG248QE, zur Unterstützung geändert G-Sync. Dieser Monitor unterstützt auch Nvidias 3D LightBoost-Technologie, die ursprünglich zur Steigerung der Helligkeit von 3D-Displays entwickelt wurde, aber seit langem inoffiziell im 2D-Modus verwendet wird und eine pulsierende Panel-Hintergrundbeleuchtung verwendet, um Geisterbilder (oder Bewegungsunschärfe) zu reduzieren. Interessant wurde natürlich, ob diese Technologie eingesetzt wird G-Sync.

    Nvidia gab eine negative Antwort. Während die gleichzeitige Verwendung beider Technologien ideal wäre, führt das Stroboskopieren der Hintergrundbeleuchtung mit einer variablen Bildwiederholfrequenz heute zu Flimmer- und Helligkeitsproblemen. Sie zu lösen ist unglaublich schwierig, da man die Helligkeit anpassen und die Impulse verfolgen muss. Daher besteht nun die Wahl zwischen den beiden Technologien, obwohl das Unternehmen versucht, eine Möglichkeit zu finden, sie in Zukunft gleichzeitig zu nutzen.

    Integrierter G-Sync-Modulspeicher

    Wie wir bereits wissen, G-Sync eliminiert die mit V-Sync verbundene Verzögerung bei der Schritteingabe, da nicht mehr auf den Abschluss des Panel-Scans gewartet werden muss. Allerdings ist uns aufgefallen, dass das Modul G-Sync verfügt über einen integrierten Speicher. Kann das Modul Frames selbstständig puffern? Wenn ja, wie lange wird es dauern, bis der Frame den neuen Kanal durchlaufen hat?

    Laut Nvidia werden Frames nicht im Speicher des Moduls zwischengespeichert. Sobald Daten eintreffen, werden sie auf dem Bildschirm angezeigt und der Speicher führt einige andere Funktionen aus. Allerdings ist die Bearbeitungszeit für G-Sync deutlich weniger als eine Millisekunde. Tatsächlich erleben wir fast die gleiche Verzögerung, wenn V-Sync ausgeschaltet ist, und sie hängt mit den Eigenschaften des Spiels, des Grafiktreibers, der Maus usw. zusammen.

    Wird G-Sync standardisiert?

    Diese Frage wurde kürzlich in einem Interview mit AMD gestellt, als der Leser wissen wollte, wie das Unternehmen auf die Technologie reagiert G-Sync. Wir wollten jedoch direkt beim Entwickler nachfragen und herausfinden, ob Nvidia plant, die Technologie auf einen Industriestandard zu bringen. Theoretisch kann ein Unternehmen anbieten G-Sync als Upgrade auf den DisplayPort-Standard und bietet variable Bildwiederholraten. Schließlich ist Nvidia Mitglied der VESA-Vereinigung.

    Für DisplayPort, HDMI oder DVI sind jedoch keine neuen Spezifikationen geplant. G-Sync Unterstützt bereits DisplayPort 1.2, d. h. der Standard muss nicht geändert werden.

    Wie bereits erwähnt, arbeitet Nvidia an der Kompatibilität G-Sync mit einer Technologie, die jetzt 3D LightBoost heißt (aber bald einen anderen Namen haben wird). Darüber hinaus sucht das Unternehmen nach einer Möglichkeit, die Kosten für Module zu senken G-Sync und sie zugänglicher zu machen.

    G-Sync bei Ultra HD-Auflösungen

    Nvidia verspricht Monitore mit Support G-Sync und Auflösungen bis zu 3840x2160 Pixel. Allerdings unterstützt das Modell von Asus, das wir uns heute ansehen, nur 1920 x 1080 Pixel. Derzeit verwenden Ultra-HD-Monitore den STMicro Athena-Controller, der über zwei Skalierer verfügt, um eine gekachelte Anzeige zu erstellen. Wir fragen uns, ob es ein Modul geben wird G-Sync MST-Konfiguration unterstützen?

    Tatsächlich müssen 4K-Displays mit variablen Bildraten noch warten. Es gibt noch kein separates Upscaling-Gerät, das die 4K-Auflösung unterstützt; das nächste soll im ersten Quartal 2014 erscheinen, damit ausgestattete Monitore erst im zweiten Quartal. Seit dem Modul G-Sync Wenn das Skalierungsgerät ersetzt wird, werden ab diesem Zeitpunkt kompatible Panels angezeigt. Glücklicherweise unterstützt das Modul nativ Ultra HD.

    NVIDIA G-SYNC-Monitore verfügen über die revolutionäre NVIDIA-Technologie, die durch VSync-Bildsynchronisierung Bildschirmrisse und Eingabeverzögerungen eliminiert und die Fähigkeiten moderner Monitore verbessert, was zu dem reibungslosesten und reaktionsschnellsten Spielerlebnis führt, das Sie je gesehen haben.

    Dadurch erscheinen Spielszenen sofort, Objekte werden klarer und das Gameplay wird flüssiger.

    WIE FUNKTIONIERT NVIDIA G-SYNC?

    NVIDIA® G-SYNC™ ist eine innovative Lösung, die mit alten Mustern bricht und die fortschrittlichsten und reaktionsschnellsten Computerdisplays aller Zeiten schafft. Das NVIDIA G-SYNC-Modul kann unabhängig installiert oder vorinstalliert in den neuesten Gaming-Monitoren erworben werden. Es hilft Ihnen, Bildschirmrisse, Eingabeverzögerungen und augenermüdende Jitter zu vergessen, die durch ältere Technologien verursacht wurden, die von analogen Fernsehern auf moderne Monitore umgestiegen sind.

    PROBLEM: ALTE MONITORTECHNOLOGIE

    Als Fernseher erfunden wurden, nutzten sie Kathodenstrahlröhren, die den Elektronenfluss über die Oberfläche einer mit Phosphor beschichteten Röhre abtasteten. Dieser Strahl verursachte ein Flackern des Pixels, und wenn relativ schnell genügend Pixel aktiviert wurden, erzeugte die Kathodenstrahlröhre das Gefühl eines Full-Motion-Videos. Ob Sie es glauben oder nicht, diese frühen Fernseher arbeiteten mit einer Bildwiederholfrequenz von 60 Hz, da die kommerzielle Wechselstromfrequenz in den USA 60 Hz beträgt. Durch die Anpassung der Bildwiederholfrequenz des Fernsehers an die industrielle Wechselstromfrequenz war es einfacher, frühe Elektronik zu bauen und das Bildschirmrauschen zu reduzieren.

    Als Anfang der 1980er Jahre Personalcomputer erfunden wurden, hatte sich die Kathodenstrahl-TV-Technologie als einfachste und kostengünstigste Technologie zur Herstellung von Computermonitoren fest etabliert. 60 Hz und feste Bildwiederholfrequenzen sind zum Standard geworden, und Systementwickler haben gelernt, das Beste aus einer nicht idealen Situation zu machen. Während sich die Kathodenstrahl-TV-Technologie in den letzten drei Jahrzehnten zur LCD- und LED-TV-Technologie weiterentwickelt hat, hat sich kein großes Unternehmen getraut, dieses Stereotyp in Frage zu stellen, und die Synchronisierung der GPU mit der Bildwiederholfrequenz des Monitors ist bis heute branchenübliche Praxis.

    Das Problem besteht darin, dass Grafikkarten Bilder nicht mit einer konstanten Frequenz rendern. Tatsächlich variieren die GPU-Bildraten selbst innerhalb derselben Szene im selben Spiel je nach aktueller GPU-Auslastung erheblich. Und wenn Monitore eine feste Bildwiederholfrequenz haben, wie überträgt man dann Bilder von der GPU auf den Bildschirm? Die erste Möglichkeit besteht darin, die Bildwiederholfrequenz des Monitors einfach zu ignorieren und das Bild mitten im Zyklus zu aktualisieren. Wir nennen diesen VSync-deaktivierten Modus, so wie die meisten Gamer standardmäßig spielen. Der Nachteil besteht darin, dass, wenn ein Monitoraktualisierungszyklus zwei Bilder umfasst, eine sehr auffällige „Bruchlinie“ auftritt, die allgemein als Bildschirmriss bezeichnet wird. Eine bekannte Methode zur Bekämpfung von Bildschirmrissen ist die Aktivierung der VSync-Technologie, die dazu führt, dass die GPU die Bildschirmaktualisierungen bis zum Beginn eines neuen Monitoraktualisierungszyklus verzögert. Dies führt zu Bildruckeln, wenn die GPU-Bildrate niedriger ist als die Bildwiederholfrequenz des Displays. Es erhöht auch die Latenz, was zu einer Eingabeverzögerung führt – einer spürbaren Verzögerung zwischen dem Drücken einer Taste und dem Erscheinen des Ergebnisses auf dem Bildschirm.

    Erschwerend kommt hinzu, dass viele Spieler aufgrund von Bildverwacklungen unter einer Überanstrengung der Augen leiden und andere unter Kopfschmerzen und Migräne leiden. Dies veranlasste uns zur Entwicklung der Adaptive VSync-Technologie, einer effektiven Lösung, die von Kritikern gut angenommen wurde. Trotz der Entwicklung dieser Technologie bleibt das Problem der Eingabeverzögerung bestehen, was für viele begeisterte Gamer inakzeptabel ist und für professionelle Gamer (E-Sport), die ihre Grafikkarten, Monitore, Tastaturen und Mäuse unabhängig konfigurieren, um störende Geräusche zu minimieren, völlig ungeeignet ist Verzögerungen zwischen Aktion und Reaktion.

    LÖSUNG: NVIDIA G-SYNC

    Lernen Sie die NVIDIA G-SYNC-Technologie kennen, die Bildschirmrisse, VSync-Anzeigeverzögerungen und Bildzittern verhindert. Um diese revolutionäre Fähigkeit zu erreichen, haben wir G-SYNC für Monitore entwickelt, das es dem Monitor ermöglicht, sich mit der Bildrate der GPU zu synchronisieren, und nicht umgekehrt, was zu schnelleren, flüssigeren und tränenfreien Bildern führt, die das Spielen zum Erlebnis machen nächste Ebene.

    Die Branchenexperten John Carmack, Tim Sweeney, Johan Andersson und Mark Rein waren von der NVIDIA G-SYNC-Technologie beeindruckt. E-Sport-Spieler und E-Sport-Ligen stehen Schlange, um die NVIDIA G-SYNC-Technologie zu nutzen, die ihre wahren Fähigkeiten entfalten wird und dank einer nicht wahrnehmbaren Verzögerung zwischen Aktionen auf dem Bildschirm und Tastaturbefehlen noch schnellere Reaktionen erfordert. Während interner Tests verbrachten begeisterte Gamer ihre Mittagsstunden damit, Online-LAN-Spiele auf G-SYNC-fähigen Monitoren zu spielen, um zu gewinnen.

    Wenn Sie über einen Monitor verfügen, der NVIDIA G-SYNC unterstützt, haben Sie bei Online-Spielen einen unbestreitbaren Vorteil gegenüber anderen Spielern, vorausgesetzt, Sie haben auch einen niedrigen Ping.

    EINE REVOLUTIONÄRE LÖSUNG IST DA

    In diesen Zeiten technologischer Wunder können nur wenige Fortschritte als wirklich „innovativ“ oder „revolutionär“ bezeichnet werden. Allerdings ist NVIDIA G-SYNC einer der wenigen Durchbrüche, der veraltete Monitortechnologie mit einem innovativen Ansatz revolutioniert, der noch nie zuvor ausprobiert wurde.

    G-SYNC eliminiert Eingabeverzögerungen, Tearing und Jitter und sorgt so für ein atemberaubendes visuelles Erlebnis auf jedem G-SYNC-fähigen Monitor. Sie sind so großartig, dass Sie nie wieder einen normalen Monitor verwenden möchten. Neben der visuellen Revolution profitieren Multiplayer-Gamer von der Kombination aus G-SYNC, schneller GeForce GTX-Grafik und Eingabegeräten mit geringer Latenz. Das wird Fans von Shootern auf jeden Fall interessieren. Für eSportler ist NVIDIA G-SYNC eine deutliche Verbesserung. Da G-SYNC die Eingabeverzögerung eliminiert, liegt Erfolg oder Misserfolg nun bei den Spielern und trägt dazu bei, die Profis von den Amateuren zu unterscheiden.

    Wenn Sie wie eSport-Athleten das schärfste, flüssigste und reaktionsschnellste Spielerlebnis wünschen, dann sind NVIDIA G-SYNC-fähige Monitore ein Durchbruch, den Sie nirgendwo anders finden. NVIDIA G-SYNC ist eine echte Innovation im Zeitalter der Verbesserungen und wird die Art und Weise, wie Sie Spiele spielen, revolutionieren.



  • Dieser Artikel ist auch in den folgenden Sprachen verfügbar: Thailändisch

    • Nächste

      Vielen Dank für die sehr nützlichen Informationen im Artikel. Alles ist sehr übersichtlich dargestellt. Es scheint, dass viel Arbeit in die Analyse der Funktionsweise des eBay-Shops gesteckt wurde

      • Vielen Dank und anderen regelmäßigen Lesern meines Blogs. Ohne Sie wäre ich nicht motiviert genug, viel Zeit in die Pflege dieser Website zu investieren. Mein Gehirn ist so aufgebaut: Ich mag es, tief zu graben, verstreute Daten zu systematisieren, Dinge auszuprobieren, die noch niemand zuvor gemacht oder aus diesem Blickwinkel betrachtet hat. Schade, dass unsere Landsleute aufgrund der Krise in Russland keine Zeit haben, bei eBay einzukaufen. Sie kaufen bei Aliexpress aus China, da die Waren dort viel billiger sind (oft auf Kosten der Qualität). Aber Online-Auktionen wie eBay, Amazon und ETSY verschaffen den Chinesen problemlos einen Vorsprung im Angebot an Markenartikeln, Vintage-Artikeln, handgefertigten Artikeln und verschiedenen ethnischen Waren.

        • Nächste

          Was in Ihren Artikeln wertvoll ist, ist Ihre persönliche Einstellung und Analyse des Themas. Gib diesen Blog nicht auf, ich komme oft hierher. Es sollte viele von uns geben, die so sind. Maile mir Kürzlich erhielt ich eine E-Mail mit dem Angebot, mir beizubringen, wie man bei Amazon und eBay handelt. Und ich erinnerte mich an Ihre ausführlichen Artikel über diese Berufe. Bereich Ich habe alles noch einmal gelesen und bin zu dem Schluss gekommen, dass die Kurse ein Betrug sind. Ich habe noch nichts bei eBay gekauft. Ich komme nicht aus Russland, sondern aus Kasachstan (Almaty). Aber wir brauchen auch noch keine zusätzlichen Ausgaben. Ich wünsche Ihnen viel Glück und bleiben Sie in Asien sicher.

    • Erfreulich ist auch, dass die Versuche von eBay, die Benutzeroberfläche für Benutzer aus Russland und den GUS-Staaten zu russifizieren, erste Früchte tragen. Schließlich verfügt die überwältigende Mehrheit der Bürger der Länder der ehemaligen UdSSR nicht über ausgeprägte Fremdsprachenkenntnisse. Nicht mehr als 5 % der Bevölkerung sprechen Englisch. Unter den jungen Leuten sind es mehr. Daher ist zumindest die Benutzeroberfläche auf Russisch – das ist eine große Hilfe beim Online-Shopping auf dieser Handelsplattform. eBay folgte nicht dem Weg seines chinesischen Pendants Aliexpress, wo eine maschinelle (sehr ungeschickte und unverständliche, manchmal zum Lachen führende) Übersetzung von Produktbeschreibungen durchgeführt wird. Ich hoffe, dass in einem fortgeschritteneren Entwicklungsstadium der künstlichen Intelligenz eine hochwertige maschinelle Übersetzung von jeder Sprache in jede in Sekundenschnelle Realität wird. Bisher haben wir Folgendes (das Profil eines der Verkäufer bei eBay mit russischer Benutzeroberfläche, aber englischer Beschreibung):
      https://uploads.disquscdn.com/images/7a52c9a89108b922159a4fad35de0ab0bee0c8804b9731f56d8a1dc659655d60.png