G sync y a-t-il des lacunes ? Comment désactiver la synchronisation verticale sur une carte vidéo

Présentation de la technologie G-Sync | Un bref historique du taux de rafraîchissement fixe

Autrefois, les moniteurs étaient volumineux et contenaient des tubes cathodiques et des canons à électrons. Les canons à électrons bombardent l'écran de photons pour éclairer des points de phosphore colorés que nous appelons pixels. Ils dessinent de gauche à droite chaque ligne de « balayage » de haut en bas. Ajuster la vitesse du canon à électrons d’une mise à jour complète à l’autre n’était pas très pratique auparavant, et cela n’était pas particulièrement nécessaire avant l’avènement des jeux 3D. Par conséquent, les tubes cathodiques et les normes vidéo analogiques associées ont été conçus avec un taux de rafraîchissement fixe.

Les moniteurs LCD ont progressivement remplacé les CRT et les connecteurs numériques (DVI, HDMI et DisplayPort) ont remplacé les connecteurs analogiques (VGA). Mais les associations chargées de normaliser les signaux vidéo (menées par VESA) ne s'éloignent pas des taux de rafraîchissement fixes. Le cinéma et la télévision dépendent toujours d'un signal d'entrée à une fréquence d'images constante. Encore une fois, passer à un taux de rafraîchissement variable ne semble pas si nécessaire.

Les fréquences d'images réglables et les fréquences de rafraîchissement fixes ne sont pas les mêmes

Avant l’avènement des graphiques 3D modernes, les taux de rafraîchissement fixes n’étaient pas un problème pour les écrans. Mais cela s'est produit lorsque nous avons rencontré pour la première fois des GPU puissants : la vitesse à laquelle le GPU restitue les images individuelles (ce que nous appelons la fréquence d'images, généralement exprimée en FPS ou en images par seconde) n'est pas constante. Cela change avec le temps. Dans les scènes graphiques lourdes, la carte peut fournir 30 FPS, et lorsque l'on regarde un ciel vide, 60 FPS.


La désactivation de la synchronisation provoque des écarts

Il s’avère que la fréquence d’images variable du GPU et la fréquence de rafraîchissement fixe du panneau LCD ne fonctionnent pas très bien ensemble. Dans cette configuration, nous rencontrons un artefact graphique appelé « déchirure ». Cela se produit lorsque deux ou plusieurs images partielles sont restituées ensemble au cours du même cycle de rafraîchissement du moniteur. Habituellement, ils sont déplacés, ce qui donne un effet très désagréable lors du déplacement.

L'image ci-dessus montre deux artefacts bien connus, courants mais difficiles à capturer. Comme il s'agit d'artefacts d'affichage, vous ne le verrez pas dans les captures d'écran classiques du jeu, mais nos images montrent ce que vous voyez réellement pendant que vous jouez. Pour les photographier, vous avez besoin d'un appareil photo doté d'un mode de prise de vue à grande vitesse. Ou si vous disposez d'une carte prenant en charge la capture vidéo, vous pouvez enregistrer un flux vidéo non compressé à partir du port DVI et voir clairement la transition d'une image à l'autre ; C'est la méthode que nous utilisons pour les tests FCAT. Cependant, il est préférable d’observer l’effet décrit de vos propres yeux.

L'effet de déchirure est visible sur les deux images. Celui du haut a été réalisé à l’aide d’une caméra, celui du bas a été réalisé grâce à la fonction de capture vidéo. L'image du bas est « coupée » horizontalement et semble déplacée. Dans les deux images du haut, la photo de gauche a été prise sur un écran Sharp avec un taux de rafraîchissement de 60 Hz, celle de droite a été prise sur un écran Asus avec un taux de rafraîchissement de 120 Hz. Le déchirement sur un écran 120 Hz est moins prononcé car le taux de rafraîchissement est deux fois plus élevé. Cependant, l'effet est visible et apparaît de la même manière que sur l'image de gauche. Ce type d'artefact indique clairement que les images ont été prises avec la synchronisation verticale (V-sync) désactivée.


Battlefield 4 sur GeForce GTX 770 avec V-sync désactivé

Le deuxième effet visible sur les images de BioShock : Infinite est appelé ghosting. Il est surtout visible en bas à gauche de la photo et est associé à un retard de rafraîchissement de l'écran. En bref, les pixels individuels ne changent pas de couleur assez rapidement, ce qui entraîne ce type de lueur. Une seule image ne peut pas transmettre l’effet du ghosting sur le jeu lui-même. Un panneau avec un temps de réponse gris à gris de 8 ms, comme le Sharp, finira par produire une image floue à tout mouvement sur l'écran. C'est pourquoi ces écrans ne sont généralement pas recommandés pour les jeux de tir à la première personne.

V-sync : "gaspillé en savon"

La synchronisation verticale, ou V-sync, est une solution très ancienne au problème du déchirement. Lorsque cette fonctionnalité est activée, la carte graphique tente de correspondre au taux de rafraîchissement de l'écran, éliminant ainsi complètement le déchirement. Le problème est que si votre carte graphique ne peut pas maintenir la fréquence d'images au-dessus de 60 FPS (sur un écran 60 Hz), la fréquence d'images effective sautera entre des multiples de la fréquence de rafraîchissement de l'écran (60, 30, 20, 15 FPS, etc. .) etc.), ce qui entraînera à son tour des ralentissements notables.


Lorsque la fréquence d'images descend en dessous de la fréquence de rafraîchissement avec V-sync active, vous ressentirez un bégaiement

De plus, comme V-sync fait attendre la carte graphique et s'appuie parfois sur le tampon de surface invisible, V-sync peut introduire un décalage d'entrée supplémentaire dans la chaîne de rendu. Ainsi, la synchronisation V peut être à la fois une bénédiction et une malédiction, résolvant certains problèmes mais entraînant d’autres inconvénients. Une enquête informelle auprès de notre personnel a révélé que les joueurs ont tendance à désactiver la synchronisation V et à ne l'activer que lorsque le déchirement devient insupportable.

Soyez créatif : Nvidia dévoile G-Sync

Lors du démarrage d'une nouvelle carte vidéo GeForce GTX 680 Nvidia a inclus un mode pilote appelé Adaptive V-sync qui tente d'atténuer les problèmes en activant la V-sync lorsque les fréquences d'images sont supérieures à la fréquence de rafraîchissement du moniteur et en la désactivant rapidement lorsque les performances chutent nettement en dessous de la fréquence de rafraîchissement. Bien que la technologie ait bien fait son travail, il s'agissait d'une solution de contournement qui n'éliminait pas le déchirement si la fréquence d'images était inférieure à la fréquence de rafraîchissement du moniteur.

Mise en œuvre G-Sync beaucoup plus intéressant. D'une manière générale, Nvidia montre qu'au lieu de forcer les cartes graphiques à fonctionner à une fréquence d'affichage fixe, nous pouvons forcer les nouveaux moniteurs à fonctionner à une fréquence variable.


La fréquence d'images du GPU détermine la fréquence de rafraîchissement du moniteur, supprimant les artefacts associés à l'activation et à la désactivation de la synchronisation V.

Le mécanisme de transfert de données par paquets du connecteur DisplayPort a ouvert de nouvelles possibilités. En utilisant des intervalles de suppression variables dans le signal vidéo DisplayPort et en remplaçant le scaler du moniteur par un module qui fonctionne sur des signaux de suppression variables, le panneau LCD peut fonctionner à une fréquence de rafraîchissement variable liée à la fréquence d'images émise par la carte vidéo (dans les limites de la fréquence d'images du moniteur). fréquence de rafraîchissement). En pratique, Nvidia a fait preuve de créativité avec les fonctionnalités spéciales de l'interface DisplayPort et a tenté de faire d'une pierre deux coups.

Avant même le début des tests, je voudrais féliciter l’équipe pour son approche créative visant à résoudre un problème réel affectant les jeux sur PC. C'est l'innovation à son meilleur. Mais quels sont les résultats G-Syncà la pratique ? Découvrons-le.

Nvidia nous a envoyé un échantillon technique du moniteur Asus VG248QE, dans lequel le dispositif de mise à l'échelle est remplacé par un module G-Sync. Nous connaissons déjà cet affichage. L'article lui est dédié "Asus VG248QE Review: moniteur de jeu 24 pouces 144 Hz pour 400 $", dans lequel le moniteur a remporté le prix Tom's Hardware Smart Buy. Il est maintenant temps de découvrir comment la nouvelle technologie de Nvidia affectera les jeux les plus populaires.

Présentation de la technologie G-Sync | 3D LightBoost, mémoire intégrée, standards et 4K

En examinant les documents de presse de Nvidia, nous nous sommes posés de nombreuses questions, à la fois sur la place de la technologie dans le présent et sur son rôle dans le futur. Lors d'un récent déplacement au siège de l'entreprise à Santa Clara, nos collègues américains ont reçu quelques réponses.

G-Sync et 3D LightBoost

La première chose que nous avons remarquée, c'est que Nvidia a envoyé un moniteur Asus VG248QE, modifié pour prendre en charge G-Sync. Ce moniteur prend également en charge la technologie 3D LightBoost de Nvidia, conçue à l'origine pour augmenter la luminosité des écrans 3D, mais qui a longtemps été utilisée officieusement en mode 2D, en utilisant un rétroéclairage pulsé du panneau pour réduire les images fantômes (ou le flou de mouvement). Naturellement, il est devenu intéressant de savoir si cette technologie est utilisée dans G-Sync.

Nvidia a donné une réponse négative. Bien qu’il serait idéal d’utiliser les deux technologies en même temps, aujourd’hui, le rétroéclairage stroboscopique à un taux de rafraîchissement variable entraîne des problèmes de scintillement et de luminosité. Les résoudre est incroyablement difficile car il faut régler la luminosité et suivre les impulsions. En conséquence, le choix se situe désormais entre les deux technologies, même si l’entreprise essaie de trouver un moyen de les utiliser simultanément à l’avenir.

Mémoire du module G-Sync intégrée

Comme nous le savons déjà, G-Syncélimine le décalage d'entrée par étapes associé à la synchronisation V car il n'est plus nécessaire d'attendre la fin de l'analyse du panneau. Cependant, nous avons remarqué que le module G-Sync a une mémoire intégrée. Le module peut-il tamponner les images tout seul ? Si oui, combien de temps faudra-t-il à la trame pour parcourir le nouveau canal ?

Selon Nvidia, les images ne sont pas mises en mémoire tampon dans la mémoire du module. Au fur et à mesure que les données arrivent, elles sont affichées à l'écran et la mémoire remplit d'autres fonctions. Cependant, le délai de traitement pour G-Sync sensiblement moins d'une milliseconde. En fait, nous rencontrons presque le même délai lorsque V-sync est désactivé, et il est associé aux caractéristiques du jeu, du pilote vidéo, de la souris, etc.

G-Sync sera-t-il standardisé ?

Cette question a été posée lors d'une récente interview avec AMD, lorsque le lecteur voulait connaître la réaction de l'entreprise face à la technologie. G-Sync. Cependant, nous voulions interroger directement le développeur et savoir si Nvidia envisageait d'amener la technologie à un standard de l'industrie. En théorie, une entreprise peut proposer G-Sync en tant que mise à niveau de la norme DisplayPort, offrant des taux de rafraîchissement variables. Après tout, Nvidia est membre de l'association VESA.

En revanche, aucune nouvelle spécification n'est prévue pour DisplayPort, HDMI ou DVI. G-Sync prend déjà en charge DisplayPort 1.2, c'est-à-dire que la norme n'a pas besoin d'être modifiée.

Comme indiqué, Nvidia travaille sur la compatibilité G-Sync avec une technologie qui s'appelle désormais 3D LightBoost (mais qui portera bientôt un nom différent). De plus, l'entreprise cherche un moyen de réduire le coût des modules G-Sync et les rendre plus accessibles.

G-Sync aux résolutions Ultra HD

Nvidia promet des moniteurs avec support G-Sync et des résolutions jusqu'à 3840x2160 pixels. Cependant, le modèle d'Asus, que nous examinerons aujourd'hui, ne prend en charge que 1920 x 1080 pixels. Actuellement, les moniteurs Ultra HD utilisent le contrôleur STMicro Athena, qui dispose de deux scalers pour créer un affichage en mosaïque. On se demande s'il y aura un module G-Sync prend en charge la configuration MST ?

En vérité, les écrans 4K avec des fréquences d'images variables devront encore attendre. Il n'existe pas encore de dispositif de mise à l'échelle distinct prenant en charge la résolution 4K ; le plus proche devrait apparaître au premier trimestre 2014, et les moniteurs qui en sont équipés n'apparaîtront qu'au deuxième trimestre. Depuis le module G-Sync remplace le dispositif de mise à l'échelle, les panneaux compatibles commenceront à apparaître après ce point. Heureusement, le module supporte nativement l’Ultra HD.

Que se passe-t-il jusqu'à 30 Hz ?

G-Sync peut modifier le taux de rafraîchissement de l’écran jusqu’à 30 Hz. Cela s'explique par le fait qu'à des taux de rafraîchissement très faibles, l'image sur l'écran LCD commence à se détériorer, ce qui entraîne l'apparition d'artefacts visuels. Si la source fournit moins de 30 FPS, le module mettra automatiquement à jour le panneau, évitant ainsi d'éventuels problèmes. Cela signifie qu'une seule image peut être lue plus d'une fois, mais le seuil inférieur est de 30 Hz, ce qui garantira la meilleure qualité d'image possible.

Présentation de la technologie G-Sync | Panneaux 60 Hz, SLI, Surround et disponibilité

La technologie est-elle limitée aux panneaux à taux de rafraîchissement élevé ?

Vous remarquerez que le premier moniteur avec G-Sync a initialement un taux de rafraîchissement d'écran très élevé (au-dessus du niveau requis pour la technologie) et une résolution de 1920x1080 pixels. Mais l'écran Asus a ses propres limites, comme la dalle TN 6 bits. Nous sommes devenus curieux de connaître la mise en œuvre de la technologie G-Sync Est-il uniquement prévu pour les écrans à taux de rafraîchissement élevé ou pourrons-nous le voir sur des moniteurs 60 Hz plus courants ? De plus, je souhaite accéder le plus rapidement possible à une résolution de 2560x1440 pixels.

Nvidia a réitéré que la meilleure expérience vient de G-Sync peut être obtenu lorsque votre carte vidéo maintient la fréquence d'images entre 30 et 60 FPS. Ainsi, la technologie peut véritablement bénéficier des moniteurs 60 Hz conventionnels dotés d'un module G-Sync .

Mais pourquoi utiliser un moniteur 144 Hz alors ? Il semble que de nombreux fabricants de moniteurs aient décidé d'implémenter une fonction de faible flou de mouvement (3D LightBoost) qui nécessite un taux de rafraîchissement élevé. Mais ceux qui décident de ne pas utiliser cette fonction (et pourquoi pas, car elle n'est pas encore compatible avec G-Sync), peut créer un panneau avec G-Sync pour beaucoup moins d'argent.

En parlant de résolutions, on peut noter que tout se passe ainsi : des écrans QHD avec un taux de rafraîchissement supérieur à 120 Hz pourraient commencer à être produits début 2014.

Y a-t-il des problèmes avec SLI et G-Sync ?

De quoi avez-vous besoin pour voir G-Sync en mode Surround ?

Désormais, bien sûr, il n'est plus nécessaire de combiner deux adaptateurs graphiques pour fournir une sortie d'image 1080p sur l'écran. Même une carte graphique de milieu de gamme basée sur Kepler sera en mesure de fournir le niveau de performances requis pour jouer confortablement à cette résolution. Mais il n'est pas non plus possible d'exécuter deux cartes en SLI sur trois G-Sync-moniteurs en mode Surround.

Cette limitation est due aux sorties d'affichage modernes sur les cartes Nvidia, qui ont généralement deux DVI, un HDMI et un DisplayPort. G-Sync nécessite DisplayPort 1.2 et l'adaptateur ne fonctionnera pas (tout comme le hub MST). La seule option est de connecter trois moniteurs en mode Surround à trois cartes, c'est-à-dire Il existe une carte distincte pour chaque moniteur. Naturellement, nous supposons que les partenaires de Nvidia commenceront à sortir des cartes "G-Sync Edition" avec davantage de connecteurs DisplayPort.

G-Sync et triple mise en mémoire tampon

Pour un jeu confortable avec synchronisation verticale, une triple mise en mémoire tampon active était requise. Est-ce nécessaire pour G-Sync? La réponse est non. G-Sync non seulement il ne nécessite pas de triple mise en mémoire tampon, puisque le canal ne s'arrête jamais, mais il nuit au contraire G-Sync, car il ajoute une trame de latence supplémentaire sans gain de performances. Malheureusement, la triple mise en mémoire tampon du jeu est souvent définie indépendamment et ne peut pas être contournée manuellement.

Qu'en est-il des jeux qui ne répondent généralement pas bien à la désactivation de la synchronisation V ?

Des jeux comme Skyrim, qui fait partie de notre suite de tests, sont conçus pour fonctionner avec V-sync sur un panneau de 60 Hz (même si cela nous rend parfois la vie difficile en raison du décalage d'entrée). Pour les tester, la modification de certains fichiers avec l'extension .ini est nécessaire. La façon dont il se comporte G-Sync avec des jeux basés sur les moteurs Gamebryo et Creation sensibles aux paramètres de synchronisation verticale ? Sont-ils plafonnés à 60 FPS ?

Deuxièmement, vous avez besoin d'un moniteur avec un module Nvidia G-Sync. Ce module remplace le scaler d'écran. Et, par exemple, ajoutez à un écran Ultra HD divisé G-Sync impossible. Dans la revue d'aujourd'hui, nous utilisons un prototype avec une résolution de 1920 x 1080 pixels et un taux de rafraîchissement allant jusqu'à 144 Hz. Mais même avec son aide, vous pouvez avoir une idée de l'impact que cela aura G-Sync, si les fabricants commencent à l'installer dans des panneaux moins chers à 60 Hz.

Troisièmement, un câble DisplayPort 1.2 est requis. DVI et HDMI ne sont pas pris en charge. À court terme, cela signifie que la seule option pour travailler G-Sync sur trois moniteurs en mode Surround, ils sont connectés via une connexion triple SLI, puisque chaque carte ne possède qu'un seul connecteur DisplayPort, et les adaptateurs DVI vers DisplayPort ne fonctionnent pas dans ce cas. Il en va de même pour les hubs MST.

Et enfin, n’oubliez pas l’assistance aux pilotes. La dernière version du package 331.93 bêta est déjà compatible avec G-Sync, et nous supposons que les futures versions avec certificat WHQL en seront équipées.

Banc d'essai

Configuration du banc de test
CPU Intel Core i7-3970X (Sandy Bridge-E), fréquence de base 3,5 GHz, overclocké à 4,3 GHz, LGA 2011, 15 Mo de cache L3 partagé, Hyper-Threading activé, fonctionnalités d'économie d'énergie activées.
Carte mère MSI X79A-GD45 Plus (LGA 2011) Chipset X79 Express, BIOS 17.5
RAM G.Skill 32 Go (8 x 4 Go) DDR3-2133, F3-17000CL9Q-16GBXM x2 @ 9-11-10-28 et 1,65 V
Périphérique de stockage Samsung 840 Pro SSD 256 Go SATA 6 Go/s
Cartes vidéo Nvidia GeForce GTX 780 Ti 3 Go
Nvidia GeForce GTX 760 2 Go
Unité de puissance Corsaire AX860i 860W
Logiciel système et pilotes
Système d'exploitation Windows 8 Professionnel 64 bits
DirectX DirectX11
Pilote vidéo Nvidia GeForce 331.93 bêta

Nous devons maintenant déterminer dans quels cas G-Sync a le plus grand impact. Il y a de fortes chances que vous utilisiez déjà un moniteur 60 Hz. Les modèles 120 Hz et 144 Hz sont plus populaires parmi les joueurs, mais Nvidia suppose à juste titre que la majorité des passionnés du marché s'en tiendront toujours à 60 Hz.

Avec Vsync actif sur un moniteur 60 Hz, les artefacts les plus visibles apparaissent lorsque la carte ne peut pas gérer 60 ips, ce qui entraîne des sauts gênants entre 30 et 60 FPS. Il y a ici des ralentissements notables. Avec Vsync désactivé, le déchirement sera plus visible dans les scènes où vous devez faire beaucoup de panoramique avec la caméra ou avoir beaucoup de mouvement. Certains joueurs trouvent cela tellement distrayant qu'ils activent simplement la synchronisation V et subissent le bégaiement et le décalage d'entrée.

Avec des taux de rafraîchissement de 120 Hz et 144 Hz et des fréquences d'images plus élevées, l'affichage se rafraîchit plus fréquemment, réduisant ainsi la durée pendant laquelle une seule image persiste sur plusieurs analyses d'écran lorsque les performances sont insuffisantes. Cependant, des problèmes de synchronisation V active et inactive subsistent. Pour cette raison, nous testerons le moniteur Asus en modes 60 et 144 Hz avec les technologies activées et désactivées G-Sync .

Présentation de la technologie G-Sync | Test de G-Sync avec V-Sync activé

Il est temps de commencer les tests G-Sync. Il ne reste plus qu'à installer une carte de capture vidéo, un ensemble de plusieurs SSD et passer aux tests, non ?

Non c'est faux.

Aujourd’hui, nous mesurons la qualité et non la productivité. Dans notre cas, les tests ne peuvent montrer qu’une seule chose : la fréquence d’images à un moment précis. À propos de la qualité et de l'expérience d'utilisation avec la technologie activée et désactivée G-Sync ils ne disent absolument rien. Vous devrez donc vous fier à notre description soigneusement vérifiée et éloquente, que nous essaierons de rapprocher le plus possible de la réalité.

Pourquoi ne pas simplement enregistrer une vidéo et la donner aux lecteurs pour qu'ils la jugent ? Le fait est que la caméra enregistre la vidéo à une vitesse fixe de 60 Hz. Votre moniteur lit également la vidéo à un taux de rafraîchissement constant de 60 Hz. Parce que le G-Sync introduit un taux de rafraîchissement variable, vous ne verrez pas la technologie en action.

Compte tenu du nombre de jeux disponibles, le nombre de combinaisons de tests possibles est incalculable. V-sync activé, V-sync désactivé, G-Sync sur, G-Sync off, 60 Hz, 120 Hz, 144 Hz, ... La liste est longue. Mais nous commencerons par un taux de rafraîchissement de 60 Hz et une Vsync active.

Il est probablement plus simple de commencer avec l'utilitaire de démonstration de Nvidia, qui comporte un pendule se balançant d'un côté à l'autre. L'utilitaire peut simuler des fréquences d'images de 60, 50 ou 40 FPS. Ou la fréquence peut fluctuer entre 40 et 60 FPS. Vous pouvez ensuite désactiver ou activer V-sync et G-Sync. Bien que le test soit fictif, il démontre bien les capacités de la technologie. Vous pouvez regarder la scène à 50 FPS avec la synchronisation verticale activée et penser : « Tout va plutôt bien, et des ralentissements visibles peuvent être tolérés. » Mais après activation G-Sync J'ai immédiatement envie de dire : "A quoi pensais-je ? La différence est aussi évidente que le jour et la nuit. Comment pouvais-je vivre avec ça avant ?"

Mais n'oublions pas qu'il s'agit d'une démonstration technique. J'aimerais des preuves basées sur des jeux réels. Pour ce faire, vous devez exécuter un jeu avec une configuration système élevée, comme Arma III.

Peut être installé dans un véhicule d'essai dans Arma III GeForce GTX 770 et réglé sur les paramètres ultra. Avec la synchronisation verticale désactivée, la fréquence d'images oscille entre 40 et 50 FPS. Mais si vous activez la synchronisation V, elle tombera à 30 FPS. Les performances ne sont pas suffisamment élevées pour voir des fluctuations constantes entre 30 et 60 FPS. Au lieu de cela, la fréquence d'images de la carte graphique diminue simplement.

Puisqu'il n'y avait pas de ralentissement de l'image, il y avait une différence significative lors de l'activation G-Sync imperceptible, sauf que la fréquence d'images réelle augmente de 10 à 20 FPS. Le décalage d’entrée doit également être réduit puisque la même image n’est pas conservée lors de plusieurs analyses du moniteur. Nous pensons qu'Arma est généralement moins nerveux que de nombreux autres jeux, donc le décalage n'est pas perceptible.

En revanche, dans Metro: Last Light, l'influence G-Sync plus prononcé. Avec carte vidéo GeForce GTX 770 Le jeu peut fonctionner à 1920 x 1080 pixels avec des paramètres de détail très élevés, notamment AF 16x, tessellation normale et flou de mouvement. Dans ce cas, vous pouvez sélectionner les paramètres SSAA de 1x à 2x à 3x pour réduire progressivement la fréquence d'images.

De plus, l'environnement du jeu comprend un couloir qui facilite les déplacements. Après avoir lancé le niveau avec synchronisation verticale active à 60 Hz, nous sommes allés en ville. Fraps a montré qu'avec l'anticrénelage 3x SSAA, la fréquence d'images était de 30 FPS, et avec l'anticrénelage désactivé, elle était de 60 FPS. Dans le premier cas, des ralentissements et des retards sont perceptibles. Avec SSAA désactivé, vous obtiendrez une image absolument fluide à 60 FPS. Cependant, l'activation de 2x SSAA entraîne des fluctuations de 60 à 30 FPS, ce qui rend chaque image en double un inconvénient. C’est un jeu dans lequel nous désactiverions définitivement Vsync et ignorerions simplement le déchirement. De toute façon, de nombreuses personnes ont déjà développé une habitude.

Cependant G-Syncélimine tous les effets négatifs. Vous n'aurez plus besoin de regarder le compteur Fraps en attendant des chutes en dessous de 60 FPS pour baisser encore un paramètre graphique. Au contraire, vous pouvez en augmenter certains, car même s'il ralentit à 50 - 40 FPS, il n'y aura pas de ralentissements évidents. Et si vous désactivez la synchronisation verticale ? Vous en saurez plus plus tard.

Présentation de la technologie G-Sync | Test de G-Sync avec V-Sync désactivé

Les conclusions de ce document sont basées sur une enquête auprès des auteurs et amis de Tom's Hardware via Skype (en d'autres termes, l'échantillon de répondants est petit), mais presque tous comprennent ce qu'est la synchronisation verticale et quels inconvénients les utilisateurs doivent mettre À ce propos, selon eux, ils ont recours à la synchronisation V uniquement lorsque le déchirement dû à de très grandes variations de la fréquence d'images et du taux de rafraîchissement du moniteur devient insupportable.

Comme vous pouvez l'imaginer, l'impact de la désactivation de Vsync sur les visuels est difficile à confondre, bien qu'il soit fortement influencé par le jeu spécifique et ses paramètres de détail.

Prenons par exemple Crise 3. Le jeu peut facilement mettre votre sous-système graphique à genoux avec les paramètres graphiques les plus élevés. Et depuis Crise 3 est un jeu de tir à la première personne avec un gameplay très dynamique, le déchirement peut être assez perceptible. Dans l'exemple ci-dessus, la sortie FCAT a été capturée entre deux images. Comme vous pouvez le constater, l’arbre est entièrement coupé.

D'un autre côté, lorsque nous forçons la désactivation de Vsync dans Skyrim, le déchirement n'est pas si grave. Veuillez noter que dans ce cas, la fréquence d'images est très élevée et plusieurs images apparaissent à l'écran à chaque numérisation. Selon les critiques, le nombre de mouvements par image est relativement faible. Il y a des problèmes lors de la lecture de Skyrim dans cette configuration, et ce n'est peut-être pas la plus optimale. Mais cela montre que même avec la synchronisation V désactivée, la sensation du jeu peut changer.

Pour notre troisième exemple, nous avons choisi une photo de l'épaule de Lara Croft de Tomb Raider, qui montre des déchirures assez nettes (regardez aussi les cheveux et la bretelle du débardeur). Tomb Raider est le seul jeu de notre échantillon qui vous permet de choisir entre un double et un triple buffering lorsque Vsync est activé.

Le dernier graphique montre que Metro: Last Light avec G-Syncà 144 Hz, offre généralement les mêmes performances qu'avec la synchronisation V désactivée. Cependant, l’absence de lacunes n’est pas visible sur le graphique. Si vous utilisez une technologie avec un écran 60 Hz, la fréquence d'images sera de 60 FPS, mais il n'y aura ni ralentissements ni retards.

Au contraire, ceux d'entre vous (et nous) qui ont passé d'innombrables heures sur des tests graphiques, regardant encore et encore le même benchmark, peuvent s'y habituer et déterminer visuellement la qualité d'un résultat particulier. C'est ainsi que nous mesurons les performances absolues des cartes vidéo. Changements dans l'image par rapport à l'actif G-Sync sont immédiatement perceptibles car ils ont la même douceur que lorsque la synchronisation V est activée, mais sans la caractéristique de déchirure de la synchronisation V désactivée. C'est dommage que nous ne puissions pas montrer la différence dans la vidéo pour le moment.

Présentation de la technologie G-Sync | Compatibilité du jeu : presque géniale

Vérifier d'autres jeux

Nous avons testé quelques jeux supplémentaires. Crise 3, Tomb Raider, Skyrim, BioShock : Infini, Battlefield 4 visité le banc d'essai. Tous, sauf Skyrim, ont bénéficié de la technologie G-Sync. L'effet dépendait du jeu compétitif. Mais si vous le voyiez, vous admettriez immédiatement que vous avez ignoré les défauts qui étaient présents auparavant.

Des artefacts peuvent encore apparaître. Par exemple, l’effet rampant associé au lissage est plus visible lors d’un mouvement fluide. Vous souhaiterez probablement régler l'anticrénelage aussi haut que possible pour supprimer les bords irréguliers et désagréables qui n'étaient pas si visibles auparavant.

Skyrim : cas spécial

Le moteur graphique Creation qui alimente Skyrim active la synchronisation V par défaut. Pour tester le jeu à des fréquences d'images supérieures à 60 FPS, vous devez ajouter la ligne iPresentInterval=0 à l'un des fichiers .ini du jeu.

Skyrim peut donc être testé de trois manières : dans son état d'origine, en permettant au pilote Nvidia d'"utiliser les paramètres de l'application", en activant G-Sync dans le pilote et laissez les paramètres Skyrim intacts, puis activez G-Sync et désactivez V-sync dans le fichier de jeu avec l'extension .ini.

La première configuration, dans laquelle le moniteur expérimenté était réglé sur 60 Hz, affichait un 60 FPS stable avec des réglages ultra avec une carte vidéo GeForce GTX 770. Par conséquent, nous avons obtenu une image fluide et agréable. Cependant, les entrées des utilisateurs souffrent toujours de latence. De plus, le mitraillage latéral a révélé un flou de mouvement notable. Cependant, c’est ainsi que la plupart des gens jouent sur PC. Bien sûr, vous pouvez acheter un écran avec un taux de rafraîchissement de 144 Hz et cela éliminera réellement le flou. Mais depuis GeForce GTX 770 fournit un taux de rafraîchissement d'environ 90 à 100 images par seconde, il y aura un bégaiement notable lorsque le moteur oscille entre 144 et 72 FPS.

À 60 Hz G-Sync a un impact négatif sur l'image, cela est probablement dû à la synchronisation verticale active, malgré le fait que la technologie devrait fonctionner avec la synchronisation V désactivée. Désormais, les mitraillages latéraux (surtout plus près des murs) entraînent des ralentissements prononcés. Il s'agit d'un problème potentiel pour les panneaux 60 Hz avec G-Sync, du moins dans des jeux comme Skyrim. Heureusement, dans le cas du moniteur Asus VG248Q, vous pouvez passer en mode 144 Hz, et malgré la V-sync active, G-Sync fonctionnera à cette fréquence d’images sans aucune plainte.

La désactivation complète de la synchronisation verticale dans Skyrim entraîne un contrôle de la souris plus « plus précis ». Cependant, cela introduit un déchirement de l'image (sans parler d'autres artefacts tels que l'eau scintillante). Inclusion G-Sync laisse du bégaiement à 60 Hz, mais à 144 Hz la situation s'améliore considérablement. Bien que dans nos tests de cartes vidéo, nous testions le jeu avec Vsync désactivé, nous ne recommandons pas de jouer sans.

Pour Skyrim, la meilleure solution serait peut-être de désactiver G-Sync et jouez à 60 Hz, ce qui vous donnera une cadence constante de 60 images par seconde sur les paramètres graphiques choisis.

Présentation de la technologie G-Sync | G-Sync est-il ce que vous attendiez ?

Avant même de recevoir un échantillon test du moniteur Asus de Technology G-Sync, nous sommes déjà encouragés par le fait que Nvidia travaille sur un problème bien réel affectant les jeux pour lequel aucune solution n'a encore été proposée. Jusqu'à présent, vous pouviez activer ou désactiver la synchronisation verticale selon vos goûts. De plus, toute décision s'accompagnait de compromis qui affectaient négativement l'expérience de jeu. Si vous choisissez de laisser Vsync activé jusqu'à ce que le déchirement devienne insupportable, vous choisissez le moindre de deux maux.

G-Sync résout le problème en donnant au moniteur la possibilité de scanner l'écran à une fréquence variable. Une telle innovation est le seul moyen de continuer à faire progresser notre industrie tout en conservant l’avantage technique des ordinateurs personnels sur les consoles et plateformes de jeux. Nvidia sera sans aucun doute critiqué pour ne pas avoir développé une norme que les concurrents pourraient appliquer. Cependant, l'entreprise utilise DisplayPort 1.2 pour sa solution. En conséquence, deux mois seulement après l'annonce de la technologie G-Sync elle était entre nos mains.

La question est : Nvidia tiendra-t-il tout ce qu'il a promis avec G-Sync ?

Trois développeurs talentueux vantant les qualités d'une technologie que vous n'avez jamais vue en action peuvent inspirer n'importe qui. Mais si votre première expérience avec G-Sync Sur la base du test de démonstration pendulaire de Nvidia, vous vous demanderez certainement si une différence aussi énorme est possible, ou si le test représente un scénario spécial qui est trop beau pour être vrai.

Naturellement, lorsque l’on teste la technologie dans des jeux réels, l’effet n’est pas aussi clair. D’un côté, il y avait des exclamations de « Wow ! et "Crazy!", de l'autre - "Je pense que je vois la différence." Le meilleur effet de l'activation G-Sync perceptible lors du changement du taux de rafraîchissement de l’affichage de 60 Hz à 144 Hz. Mais nous avons aussi essayé de tester à 60 Hz avec G-Sync pour voir ce que vous obtiendrez avec (espérons-le) des écrans moins chers à l'avenir. Dans certains cas, le simple fait de passer de 60 à 144 Hz vous époustouflera, surtout si votre carte graphique peut gérer des fréquences d'images élevées.

Aujourd'hui, nous savons qu'Asus prévoit d'introduire le support G-Sync dans le modèle Asus VG248QE, qui, selon la société, coûtera 400 $ l'année prochaine. Le moniteur a une résolution native de 1920 x 1080 pixels et un taux de rafraîchissement de 144 Hz. Version sans G-Sync a déjà reçu notre prix Smart Buy pour ses performances exceptionnelles. Mais pour nous personnellement, la dalle TN 6 bits est un inconvénient. Je veux vraiment voir 2560x1440 pixels sur une matrice IPS. Nous accepterons même un taux de rafraîchissement de 60 Hz si cela permet de maintenir le prix bas.

Même si au CES nous attendons tout un tas d'annonces, des commentaires officiels de Nvidia concernant d'autres écrans avec modules G-Sync et nous n'avons pas entendu leurs prix. De plus, nous ne sommes pas sûrs des projets de l'entreprise concernant le module de mise à niveau, qui devrait vous permettre de mettre en œuvre le module. G-Sync dans un moniteur déjà acheté Asus VG248QE Dans 20 Minutes.

Pour l'instant, nous pouvons dire que cela vaut la peine d'attendre. Vous constaterez que dans certains jeux, l'impact des nouvelles technologies est indubitable, tandis que dans d'autres, il est moins prononcé. Mais peu importe G-Sync répond à la question "barbu" de savoir s'il faut activer ou non la synchronisation verticale.

Il y a une autre pensée intéressante. Après avoir testé G-Sync, pendant combien de temps AMD peut-il éviter de commenter ? L'entreprise a taquiné nos lecteurs dans son entretien(en anglais), précisant qu'elle se prononcerait prochainement sur cette possibilité. Et si elle a quelque chose de prévu ? La fin de 2013 et le début de 2014 nous réservent de nombreuses nouvelles intéressantes à discuter, notamment Battlefield 4 Versions Mantle, prochaine architecture Nvidia Maxwell, G-Sync, moteur AMD xDMA avec support CrossFire et rumeurs sur de nouvelles cartes vidéo à double puce. Nous manquons désormais de cartes vidéo avec plus de 3 Go (Nvidia) et 4 Go (AMD) de mémoire GDDR5, mais elles coûtent moins de 1 000 $...

Présentation de la technologie G-Sync | Test de G-Sync avec V-Sync désactivé

Les conclusions de ce document sont basées sur une enquête auprès des auteurs et amis de Tom's Hardware via Skype (en d'autres termes, l'échantillon de répondants est petit), mais presque tous comprennent ce qu'est la synchronisation verticale et quels inconvénients les utilisateurs doivent mettre À ce propos, selon eux, ils ont recours à la synchronisation V uniquement lorsque le déchirement dû à de très grandes variations de la fréquence d'images et du taux de rafraîchissement du moniteur devient insupportable.

Comme vous pouvez l'imaginer, l'impact de la désactivation de Vsync sur les visuels est difficile à confondre, bien qu'il soit fortement influencé par le jeu spécifique et ses paramètres de détail.

Prenons par exemple Crise 3. Le jeu peut facilement mettre votre sous-système graphique à genoux avec les paramètres graphiques les plus élevés. Et depuis Crise 3 est un jeu de tir à la première personne avec un gameplay très dynamique, le déchirement peut être assez perceptible. Dans l'exemple ci-dessus, la sortie FCAT a été capturée entre deux images. Comme vous pouvez le constater, l’arbre est entièrement coupé.

D'un autre côté, lorsque nous forçons la désactivation de Vsync dans Skyrim, le déchirement n'est pas si grave. Veuillez noter que dans ce cas, la fréquence d'images est très élevée et plusieurs images apparaissent à l'écran à chaque numérisation. Selon les critiques, le nombre de mouvements par image est relativement faible. Il y a des problèmes lors de la lecture de Skyrim dans cette configuration, et ce n'est peut-être pas la plus optimale. Mais cela montre que même avec la synchronisation V désactivée, la sensation du jeu peut changer.

Pour notre troisième exemple, nous avons choisi une photo de l'épaule de Lara Croft de Tomb Raider, qui montre des déchirures assez nettes (regardez aussi les cheveux et la bretelle du débardeur). Tomb Raider est le seul jeu de notre échantillon qui vous permet de choisir entre un double et un triple buffering lorsque Vsync est activé.

Le dernier graphique montre que Metro: Last Light avec G-Syncà 144 Hz, offre généralement les mêmes performances qu'avec la synchronisation V désactivée. Cependant, l’absence de lacunes n’est pas visible sur le graphique. Si vous utilisez une technologie avec un écran 60 Hz, la fréquence d'images sera de 60 FPS, mais il n'y aura ni ralentissements ni retards.

Au contraire, ceux d'entre vous (et nous) qui ont passé d'innombrables heures sur des tests graphiques, regardant encore et encore le même benchmark, peuvent s'y habituer et déterminer visuellement la qualité d'un résultat particulier. C'est ainsi que nous mesurons les performances absolues des cartes vidéo. Changements dans l'image par rapport à l'actif G-Sync sont immédiatement perceptibles car ils ont la même douceur que lorsque la synchronisation V est activée, mais sans la caractéristique de déchirure de la synchronisation V désactivée. C'est dommage que nous ne puissions pas montrer la différence dans la vidéo pour le moment.

Présentation de la technologie G-Sync | Compatibilité du jeu : presque géniale

Vérifier d'autres jeux

Nous avons testé quelques jeux supplémentaires. Crise 3, Tomb Raider, Skyrim, BioShock : Infini, Battlefield 4 visité le banc d'essai. Tous, sauf Skyrim, ont bénéficié de la technologie G-Sync. L'effet dépendait du jeu compétitif. Mais si vous le voyiez, vous admettriez immédiatement que vous avez ignoré les défauts qui étaient présents auparavant.

Des artefacts peuvent encore apparaître. Par exemple, l’effet rampant associé au lissage est plus visible lors d’un mouvement fluide. Vous souhaiterez probablement régler l'anticrénelage aussi haut que possible pour supprimer les bords irréguliers et désagréables qui n'étaient pas si visibles auparavant.

Skyrim : cas spécial

Le moteur graphique Creation qui alimente Skyrim active la synchronisation V par défaut. Pour tester le jeu à des fréquences d'images supérieures à 60 FPS, vous devez ajouter la ligne iPresentInterval=0 à l'un des fichiers .ini du jeu.

Skyrim peut donc être testé de trois manières : dans son état d'origine, en permettant au pilote Nvidia d'"utiliser les paramètres de l'application", en activant G-Sync dans le pilote et laissez les paramètres Skyrim intacts, puis activez G-Sync et désactivez V-sync dans le fichier de jeu avec l'extension .ini.

La première configuration, dans laquelle le moniteur expérimenté était réglé sur 60 Hz, affichait un 60 FPS stable avec des réglages ultra avec une carte vidéo GeForce GTX 770. Par conséquent, nous avons obtenu une image fluide et agréable. Cependant, les entrées des utilisateurs souffrent toujours de latence. De plus, le mitraillage latéral a révélé un flou de mouvement notable. Cependant, c’est ainsi que la plupart des gens jouent sur PC. Bien sûr, vous pouvez acheter un écran avec un taux de rafraîchissement de 144 Hz et cela éliminera réellement le flou. Mais depuis GeForce GTX 770 fournit un taux de rafraîchissement d'environ 90 à 100 images par seconde, il y aura un bégaiement notable lorsque le moteur oscille entre 144 et 72 FPS.

À 60 Hz G-Sync a un impact négatif sur l'image, cela est probablement dû à la synchronisation verticale active, malgré le fait que la technologie devrait fonctionner avec la synchronisation V désactivée. Désormais, les mitraillages latéraux (surtout plus près des murs) entraînent des ralentissements prononcés. Il s'agit d'un problème potentiel pour les panneaux 60 Hz avec G-Sync, du moins dans des jeux comme Skyrim. Heureusement, dans le cas du moniteur Asus VG248Q, vous pouvez passer en mode 144 Hz, et malgré la V-sync active, G-Sync fonctionnera à cette fréquence d’images sans aucune plainte.

La désactivation complète de la synchronisation verticale dans Skyrim entraîne un contrôle de la souris plus « plus précis ». Cependant, cela introduit un déchirement de l'image (sans parler d'autres artefacts tels que l'eau scintillante). Inclusion G-Sync laisse du bégaiement à 60 Hz, mais à 144 Hz la situation s'améliore considérablement. Bien que dans nos tests de cartes vidéo, nous testions le jeu avec Vsync désactivé, nous ne recommandons pas de jouer sans.

Pour Skyrim, la meilleure solution serait peut-être de désactiver G-Sync et jouez à 60 Hz, ce qui vous donnera une cadence constante de 60 images par seconde sur les paramètres graphiques choisis.

Présentation de la technologie G-Sync | G-Sync est-il ce que vous attendiez ?

Avant même de recevoir un échantillon test du moniteur Asus de Technology G-Sync, nous sommes déjà encouragés par le fait que Nvidia travaille sur un problème bien réel affectant les jeux pour lequel aucune solution n'a encore été proposée. Jusqu'à présent, vous pouviez activer ou désactiver la synchronisation verticale selon vos goûts. De plus, toute décision s'accompagnait de compromis qui affectaient négativement l'expérience de jeu. Si vous choisissez de laisser Vsync activé jusqu'à ce que le déchirement devienne insupportable, vous choisissez le moindre de deux maux.

G-Sync résout le problème en donnant au moniteur la possibilité de scanner l'écran à une fréquence variable. Une telle innovation est le seul moyen de continuer à faire progresser notre industrie tout en conservant l’avantage technique des ordinateurs personnels sur les consoles et plateformes de jeux. Nvidia sera sans aucun doute critiqué pour ne pas avoir développé une norme que les concurrents pourraient appliquer. Cependant, l'entreprise utilise DisplayPort 1.2 pour sa solution. En conséquence, deux mois seulement après l'annonce de la technologie G-Sync elle était entre nos mains.

La question est : Nvidia tiendra-t-il tout ce qu'il a promis avec G-Sync ?

Trois développeurs talentueux vantant les qualités d'une technologie que vous n'avez jamais vue en action peuvent inspirer n'importe qui. Mais si votre première expérience avec G-Sync Sur la base du test de démonstration pendulaire de Nvidia, vous vous demanderez certainement si une différence aussi énorme est possible, ou si le test représente un scénario spécial qui est trop beau pour être vrai.

Naturellement, lorsque l’on teste la technologie dans des jeux réels, l’effet n’est pas aussi clair. D’un côté, il y avait des exclamations de « Wow ! et "Crazy!", de l'autre - "Je pense que je vois la différence." Le meilleur effet de l'activation G-Sync perceptible lors du changement du taux de rafraîchissement de l’affichage de 60 Hz à 144 Hz. Mais nous avons aussi essayé de tester à 60 Hz avec G-Sync pour voir ce que vous obtiendrez avec (espérons-le) des écrans moins chers à l'avenir. Dans certains cas, le simple fait de passer de 60 à 144 Hz vous époustouflera, surtout si votre carte graphique peut gérer des fréquences d'images élevées.

Aujourd'hui, nous savons qu'Asus prévoit d'introduire le support G-Sync dans le modèle Asus VG248QE, qui, selon la société, coûtera 400 $ l'année prochaine. Le moniteur a une résolution native de 1920 x 1080 pixels et un taux de rafraîchissement de 144 Hz. Version sans G-Sync a déjà reçu notre prix Smart Buy pour ses performances exceptionnelles. Mais pour nous personnellement, la dalle TN 6 bits est un inconvénient. Je veux vraiment voir 2560x1440 pixels sur une matrice IPS. Nous accepterons même un taux de rafraîchissement de 60 Hz si cela permet de maintenir le prix bas.

Même si au CES nous attendons tout un tas d'annonces, des commentaires officiels de Nvidia concernant d'autres écrans avec modules G-Sync et nous n'avons pas entendu leurs prix. De plus, nous ne sommes pas sûrs des projets de l'entreprise concernant le module de mise à niveau, qui devrait vous permettre de mettre en œuvre le module. G-Sync dans un moniteur déjà acheté Asus VG248QE Dans 20 Minutes.

Pour l'instant, nous pouvons dire que cela vaut la peine d'attendre. Vous constaterez que dans certains jeux, l'impact des nouvelles technologies est indubitable, tandis que dans d'autres, il est moins prononcé. Mais peu importe G-Sync répond à la question "barbu" de savoir s'il faut activer ou non la synchronisation verticale.

Il y a une autre pensée intéressante. Après avoir testé G-Sync, pendant combien de temps AMD peut-il éviter de commenter ? L'entreprise a taquiné nos lecteurs dans son entretien(en anglais), précisant qu'elle se prononcerait prochainement sur cette possibilité. Et si elle a quelque chose de prévu ? La fin de 2013 et le début de 2014 nous réservent de nombreuses nouvelles intéressantes à discuter, notamment Battlefield 4 Versions Mantle, prochaine architecture Nvidia Maxwell, G-Sync, moteur AMD xDMA avec support CrossFire et rumeurs sur de nouvelles cartes vidéo à double puce. Nous manquons désormais de cartes vidéo avec plus de 3 Go (Nvidia) et 4 Go (AMD) de mémoire GDDR5, mais elles coûtent moins de 1 000 $...

Au bon vieux temps, lorsque les propriétaires d'ordinateurs personnels utilisaient activement d'énormes moniteurs CRT, se méritant l'astigmatisme, on ne parlait pas de fluidité de l'image. Les technologies de l’époque ne supportaient pas vraiment la 3D. Les utilisateurs pauvres devaient donc se contenter de ce qu’ils avaient. Mais le temps passe, la technologie évolue et nombreux sont ceux qui ne se contentent plus du déchirement d'image lors d'une lecture dynamique. Cela est particulièrement vrai pour les soi-disant cyber-athlètes. Dans leur cas, une fraction de seconde fait toute la différence. Que dois-je faire?

Les progrès ne s’arrêtent pas. Par conséquent, ce qui semblait auparavant impossible peut désormais être tenu pour acquis. La même situation s'applique à la qualité de l'image sur un ordinateur. Les fabricants de cartes vidéo et d'autres composants PC travaillent désormais dur pour résoudre le problème de la sortie d'images de mauvaise qualité sur les moniteurs. Et je dois dire qu’ils sont déjà allés assez loin. Il n'en reste qu'un peu et l'image sur le moniteur sera parfaite. Mais tout cela n’est qu’une digression lyrique. Revenons à notre sujet principal.

Un peu d'histoire

De nombreux moniteurs ont activement essayé de surmonter les déchirures et d'améliorer l'image. Ce qu'ils n'ont pas inventé : ils ont augmenté le « hertz » du moniteur, activé V-Sync. Rien n’a aidé. Et un beau jour, le célèbre fabricant de cartes vidéo NVIDIA présentera la technologie G-Sync, avec laquelle vous pourrez obtenir une fluidité d'image « irréelle » sans aucun artefact. Cela semble être une bonne chose, mais il y a un petit « mais » très sérieux. Pour utiliser cette option, vous avez besoin de moniteurs prenant en charge G-Sync. Les fabricants de moniteurs ont dû travailler plus dur et « lancer » quelques dizaines de modèles sur le marché. Et après? Examinons la technologie et essayons de déterminer si elle est bonne.

Qu'est-ce que G-Sync ?

G-Sync est une technologie d'affichage sur écran de NVIDIA. Il se caractérise par un changement de cadre fluide sans aucun artefact. Il n’y a pas de déchirure ou de bégaiement de l’image. Pour un fonctionnement adéquat de cette technologie, un ordinateur assez puissant est nécessaire, car le traitement d'un signal numérique nécessite une puissance de processeur considérable. C'est pourquoi seuls les nouveaux modèles de cartes vidéo de NVIDIA sont équipés de cette technologie. De plus, G-Sync est une fonctionnalité propriétaire de NVIDIA, les propriétaires de cartes vidéo d'autres fabricants n'ont donc aucune chance.

De plus, un moniteur G-Sync est requis. Le fait est qu'ils sont équipés d'une carte avec un convertisseur de signal numérique. Les propriétaires de moniteurs ordinaires ne pourront pas profiter de cette option étonnante. C'est injuste, bien sûr, mais c'est la politique des fabricants modernes : siphonner autant d'argent que possible aux utilisateurs pauvres. Si la configuration de votre PC vous permet d'utiliser G-Sync et que votre moniteur prend miraculeusement en charge cette option, alors vous pourrez pleinement apprécier tous les plaisirs de cette technologie.

Comment fonctionne G-Sync

Essayons d'expliquer de manière simplifiée le fonctionnement de G-Sync. Le fait est qu'un GPU (carte vidéo) ordinaire envoie simplement un signal numérique au moniteur, mais ne prend pas en compte sa fréquence. C'est pourquoi le signal apparaît « irrégulier » lorsqu'il est affiché à l'écran. Le signal provenant du GPU est interrompu par la fréquence du moniteur et semble inesthétique dans la version finale. Même avec l'option V-Sync activée.

Lors de l'utilisation de G-Sync, le GPU régule lui-même la fréquence du moniteur. C'est pourquoi les signaux parviennent à la matrice lorsqu'ils sont réellement nécessaires. Grâce à cela, il est possible d'éviter le déchirement de l'image et d'améliorer la fluidité de l'image dans son ensemble. Étant donné que les moniteurs conventionnels ne permettent pas au GPU de se contrôler, un moniteur G-Sync a été inventé, qui comprenait une carte NVIDIA qui régule la fréquence. L’utilisation de moniteurs conventionnels n’est donc pas possible.

Moniteurs prenant en charge cette technologie

Il est révolu le temps où les utilisateurs tuaient leur vue en regardant d'anciens moniteurs CRT pendant des heures. Les modèles actuels sont élégants et inoffensifs. Alors pourquoi ne pas leur offrir de nouvelles technologies ? Le premier moniteur prenant en charge NVIDIA G-Sync et une résolution 4K a été lancé par Acer. Le nouveau produit a fait sensation.

Les moniteurs de haute qualité avec G-Sync sont encore assez rares. Mais les constructeurs envisagent de standardiser ces appareils. Très probablement, dans cinq ans, les moniteurs prenant en charge cette technologie deviendront une solution standard, même pour les PC de bureau. En attendant, il ne reste plus qu'à examiner ces nouveaux produits et à attendre leur large diffusion. C'est à ce moment-là qu'ils deviendront moins chers.

Après cela, les moniteurs prenant en charge G-Sync ont commencé à être rivés par tout le monde. Même des modèles économiques dotés de cette technologie sont apparus. Mais à quoi sert cette technologie sur un écran économique avec une mauvaise matrice ? Quoi qu’il en soit, de tels modèles existent. La meilleure option pour cette option est (G-Sync fonctionnera pleinement dessus).

Les meilleurs moniteurs avec G-Sync

Les moniteurs dotés de la technologie G-Sync se distinguent comme une gamme spéciale d'appareils. Ils doivent présenter les caractéristiques nécessaires au plein fonctionnement de cette option. Il est clair que tous les écrans ne peuvent pas faire face à cette tâche. Plusieurs leaders dans la production de tels moniteurs ont déjà été identifiés. Leurs modèles se sont révélés très réussis.

Par exemple, le moniteur G-Sync est l'un des représentants les plus brillants de cette gamme. Cet appareil est premium. Pourquoi? Jugez par vous-même. La diagonale de l'écran est de 34 pouces, la résolution est de 4K, le contraste est de 1:1000, 100 Hz, le temps de réponse de la matrice est de 5 ms. De plus, beaucoup aimeraient acquérir ce « monstre » pour eux-mêmes. Il est clair qu'il gérera la technologie G-Sync avec brio. Il n'a pas encore d'analogues. Vous pouvez l'appeler en toute sécurité le meilleur de sa catégorie et ne pas vous tromper.

En général, les moniteurs ASUS G-Sync sont désormais au sommet d'Olympus. Pas un seul fabricant n'a encore réussi à surpasser cette entreprise. Et il est peu probable que cela se produise un jour. ASUS peut être qualifié de pionnier à cet égard. Leurs moniteurs prenant en charge G-Sync se vendent comme des petits pains chauds.

L'avenir de G-Sync

Ils tentent désormais activement d'introduire la technologie G-Sync dans les ordinateurs portables. Certains fabricants ont même lancé quelques modèles de ce type. De plus, ils peuvent fonctionner sans carte G-Sync dans le moniteur. Ce qui est compréhensible. Néanmoins, l’ordinateur portable présente des caractéristiques de conception légèrement différentes. Une carte vidéo prenant en charge cette technologie est tout à fait suffisante.

Il est probable que NVIDIA G-Sync occupera bientôt une place importante dans l'industrie informatique. Les moniteurs dotés de cette technologie devraient devenir moins chers. A terme, cette option devrait devenir disponible partout. Sinon, à quoi ça sert de le développer ? En tout cas, tout n’est pas encore si rose. Il y a quelques problèmes avec la mise en œuvre de G-Sync.

À l'avenir, la technologie G-Sync deviendra la même chose courante qu'était autrefois pour nous un port VGA pour connecter un moniteur. Mais toutes sortes de « synchronisation verticale » dans le contexte de cette technologie ressemblent à un anachronisme flagrant. Non seulement ces technologies obsolètes ne peuvent pas fournir une qualité d’image satisfaisante, mais elles consomment également une quantité considérable de ressources système. Décidément, avec l'avènement du G-Sync, leur place dans la poubelle de l'histoire.

Qu’est-ce que la synchronisation verticale dans les jeux ? Cette fonction est responsable de l'affichage correct des jeux sur les moniteurs LCD standards avec une fréquence de 60 Hz. Lorsqu'elle est activée, la fréquence d'images est limitée à 60 Hz et aucun bégaiement n'est affiché à l'écran. Le désactiver augmentera la fréquence d’images, mais en même temps il y aura un effet de déchirement d’écran.

Pourquoi avez-vous besoin d’une synchronisation verticale dans les jeux ?

La synchronisation verticale est un sujet quelque peu controversé dans le domaine des jeux. D’une part, cela semble très nécessaire pour une expérience de jeu visuellement confortable, à condition de disposer d’un moniteur LCD standard.

Grâce à cela, aucune erreur n'apparaît à l'écran pendant le jeu, l'image est stable et ne présente aucun vide. L'inconvénient est que la fréquence d'images est plafonnée à 60 Hz, de sorte que les joueurs les plus exigeants peuvent subir ce qu'on appelle un décalage d'entrée, c'est-à-dire un léger retard lors du déplacement dans le jeu avec la souris (peut être assimilé à un lissage artificiel du mouvement de la souris). .

La désactivation de Vsync a également ses avantages et ses inconvénients. Tout d’abord, nous fournissons une fréquence d’images FPS illimitée et supprimons ainsi complètement le décalage d’entrée mentionné. Ceci est pratique dans des jeux comme Counter-Strike, où la réaction et la précision sont importantes. Le mouvement et la visée sont très clairs et dynamiques, chaque mouvement de la souris se produit avec une grande précision. Dans certains cas, nous pourrons obtenir une fréquence FPS plus élevée, car V-Sync, selon la carte vidéo, peut légèrement réduire les performances matérielles (la différence est d'environ 3 à 5 FPS). Malheureusement, l’inconvénient est que sans synchronisation verticale, l’écran se déchire. En tournant ou en changeant de mouvement dans le jeu, on remarque que l'image est déchirée en deux ou trois parties horizontales.

Activer ou désactiver V-Sync ?

La synchronisation verticale est-elle nécessaire ? Tout dépend de nos préférences individuelles et de ce que nous voulons obtenir. Dans les jeux FPS multijoueurs, il est recommandé de désactiver la synchronisation V pour augmenter la précision de la visée. En règle générale, l’effet du déchirement de l’écran n’est pas si perceptible et, lorsque nous nous y habituerons, nous ne le remarquerons même pas.

À votre tour, dans les jeux d’histoire, vous pouvez activer en toute sécurité V-Sync. Ici, la grande précision n'est pas si importante, le premier violon est joué par l'environnement, le confort visuel, il faut donc compter sur une bonne qualité.

La synchronisation verticale peut généralement être activée ou désactivée dans les paramètres graphiques du jeu. Mais si nous n'y trouvons pas une telle fonction, vous pouvez la désactiver manuellement dans les paramètres de la carte vidéo - à la fois pour toutes les applications et uniquement pour les applications sélectionnées.

Synchronisation verticale sur les cartes vidéo NVIDIA

Sur les cartes vidéo GeForce, la fonction se trouve dans le panneau de configuration Nvidia. Faites un clic droit sur le bureau Windows 10, puis sélectionnez Panneau de configuration Nvidia.

Dans la barre latérale, sélectionnez l'onglet Gérer les paramètres 3D sous Paramètres 3D. Les paramètres disponibles seront affichés à droite.

Les paramètres sont divisés en deux onglets – global et programme. Sur le premier onglet, vous pouvez définir les paramètres pour tous les jeux et, par exemple, activer ou désactiver la synchronisation verticale dans chacun. Alors que sur le deuxième onglet, vous pouvez définir les mêmes paramètres, mais individuellement pour chaque jeu séparément.

Sélectionnez l'onglet global ou programme, puis recherchez l'option « Synchronisation verticale » dans la liste. A proximité se trouve un champ déroulant - sélectionnez l'arrêt forcé ou activez la synchronisation verticale.

V-Sync sur les graphiques AMD

Dans le cas des cartes vidéo, AMD ressemble exactement à Nvidia. Faites un clic droit sur votre bureau, puis accédez au Panel Catalyst Control Center.

Ouvrez ensuite l'onglet « Jeux » sur la gauche et sélectionnez « Paramètres de l'application 3D ». Une liste des options disponibles s'affichera sur la droite et pourra être activée de force à partir des paramètres de la carte vidéo AMD Radeon. Quand on est sur l'onglet « Paramètres système », on sélectionne pour tout le monde.

Si vous devez définir les paramètres individuellement pour chaque jeu séparément, cliquez sur le bouton « Ajouter » et spécifiez le fichier EXE. Il sera ajouté à la liste en tant que nouveau signet et lorsque vous y accéderez, vous pourrez définir les paramètres uniquement pour ce jeu.

Lorsque vous avez sélectionné l'onglet avec les paramètres d'application ou système ajoutés (généraux), recherchez l'option « Attendre la mise à jour verticale » dans la liste. Un champ de sélection apparaîtra où nous pourrons forcer l'activation ou la désactivation de cette option.

V-Sync sur carte graphique Intel HD intégrée

Si nous utilisons la puce Intel HD Graphics intégrée, un panneau de contrôle est également disponible. Il devrait être disponible en cliquant avec le bouton droit sur le bureau ou via la combinaison de touches Ctrl + Alt + F12.

Sur le panneau Intel, accédez à l'onglet Mode Paramètres - Panneau de configuration - Graphiques 3D, puis à Paramètres utilisateur.

On retrouve ici un champ avec synchronisation verticale Vertical Sync. Vous pouvez le forcer en le définissant sur Activé ou en le définissant sur Paramètres de l'application. Malheureusement, les options de la carte Intel HD n'ont pas de fonction d'arrêt forcé - vous ne pouvez activer que V-Sync. Puisqu'il n'est pas possible de désactiver la synchronisation verticale dans la carte vidéo, cela ne peut être fait que dans les paramètres du jeu lui-même.

instcomputer.ru

Windows 10, FPS faible et souris flottante :: Counter-Strike: Global Offensive General Discussions

Counter-Strike: Global Offensive > Discussions générales > Détails du sujet

Windows 10, FPS faible et souris flottante

Bonjour à tous, j'ai récemment mis à jour mon système vers Win10 (le précédent était Win7). Après la mise à jour, j'ai rencontré plusieurs problèmes.Le premier problème est le FPS relativement faible par rapport à ce qu'il était. En fait, après avoir installé Win10, mon FPS semblait verrouillé. Je vais vous expliquer l'essence du problème, j'ai un système moyen et sur le "sept" j'avais un bon FPS de 200-300. Sur le "dix", mon FPS ne dépasse pas 60, ni dans le menu ni dans le jeu lui-même. J'ai cherché presque tout sur Internet et je n'ai pas trouvé de solution à ce problème. Le deuxième problème est un léger flottement de la souris qui se fait à peine sentir, mais qui en même temps gêne grandement la précision de la visée. P.S. avant d'installer le "dix", ce problème n'existait pas. Mon système : GPU : GeForce GTX 660TiCPU : ItelCore i3-3220 3,3 GHzRAM : 8 Go Disque dur (sur lequel CS:GO est installé) : 2 ToMoniteur : ASUS VK278 60 HzSouris : Razer DeathAdder 2013Mat : Razer Goliathus SpeedClavier : Razer BlackWidow Ultimate 2013

Veuillez partager vos réflexions sur ce sujet. Je serais très heureux)

Remarque : Ceci doit UNIQUEMENT être utilisé pour signaler du spam, de la publicité et des messages problématiques (harcèlement, bagarres ou grossiers).

steamcommunity.com

La mise à jour de Windows 10 vous permet de désactiver Vsync et de débloquer les fps maximum

11.05.2016 02:22

Les projets de jeux optimisés pour la plateforme Windows universelle (UWP) avec prise en charge de DirectX 12 peuvent être lancés sans activer l'option V-Sync. La mise à jour ajoute également la prise en charge des technologies NVIDIA G-SYNC et AMD FreeSync.

La mise à jour permettra d'éviter les contractions et les retards de l'image à l'écran, ainsi que d'améliorer la qualité visuelle de l'image.

Microsoft a déclaré que Gears of War : Ultimate Edition et Forza Motorsport 6 : Apex recevraient des correctifs avec cette option dans un avenir très proche.

Les mises à jour automatiques arriveront progressivement sur tous les ordinateurs équipés de la « dixième » version de Windows.

PC de bureau connecté à un moniteur G-SYNC :

Cartes vidéo prises en charge : La technologie G-SYNC est prise en charge sur les GPU NVIDIA GeForce ® GTX 650Ti BOOST et supérieurs.
Conducteur:
Système opérateur:

  • Windows 10
  • Windows 8.1
  • Windows 7

Configuration requise:

Ordinateur portable connecté à un moniteur doté de la technologie G-SYNC :

Cartes vidéo prises en charge : GPU NVIDIA GeForce ® GTX 980M, GTX 970M, GTX 965M ou supérieur.
Conducteur: R340.52 ou version ultérieure
Système opérateur:

  • Windows 10
  • Windows 8.1
  • Windows 7

Configuration requise: Nécessite la prise en charge de DisplayPort 1.2 directement sur le GPU.

Ordinateur portable avec écran G-SYNC :

L'ordinateur portable doit prendre en charge la technologie G-SYNC. Vérifiez auprès du fabricant si votre ordinateur portable prend en charge la technologie G-SYNC. Vous trouverez ci-dessous la configuration système minimale requise pour les ordinateurs portables prenant en charge la technologie G-SYNC.
Cartes vidéo prises en charge : GPU NVIDIA GeForce ® GTX 980M, GTX 970M, GTX 965M ou supérieur. La configuration SLI est également prise en charge.
Conducteur: R352.06 ou version ultérieure
Système opérateur:

  • Windows 10
  • Windows 8.1
  • Windows 7

Configuration requise: Nécessite la prise en charge de DisplayPort 1.2 directement sur le GPU.

EXIGENCES SYSTÈME POUR G-SYNC HDR

Bureau connecté à un moniteur G-SYNC HDR :

Cartes vidéo prises en charge : La technologie G-SYNC HDR est prise en charge sur les GPU NVIDIA GeForce ® GTX 1050 et supérieurs. 1
Conducteur:
Système opérateur:

  • Windows 10

Configuration requise:
Remarque 1 : assurez-vous que les derniers pilotes et logiciels GPU sont installés. Pour ce faire, allez sur : http://www.nvidia.ru/object/nv-uefi-update-x64.html

Ordinateur portable connecté à un moniteur doté de la technologie G-SYNC HDR :

Cartes vidéo prises en charge : La technologie G-SYNC HDR est prise en charge sur les GPU NVIDIA GeForce ® GTX 1050 et supérieurs.
Conducteur: R396 GA2 ou version ultérieure
Système opérateur:

  • Windows 10

Configuration requise: Nécessite la prise en charge de DisplayPort 1.4 directement sur le GPU.