Écran PC 24"  AOC G2460FQ - Full HD - 144 Hz à  227.9€ @ Materiel

-27° Écran PC 24" AOC G2460FQ - Full HD - 144 Hz à 227.9€ @ Materiel

Posté par Ben_Sen_Sizz le 07/12/2015 à 15h54

Écran PC 24" AOC G2460FQ - Full HD - 144 Hz à 227.9€ @ Materiel

Le 07/12/2015 à 15h54

Le 07/12/2015 à 15h56

 Écran PC 24"  AOC G2460FQ - Full HD - 144 Hz à  227.9€ @ Materiel

Expiré

2.99€

227.9€ 260€ (-13%)

-27°

Expire le 08/12/2015

Caracteristiques indiquées sur le site de materiel.net :

Dalle
Technologie de dalle TN
Diagonale 24" (61 cm)
Définition 1920 x 1080 (FHD)
Format Large (16:9)
Pitch 0,276 mm
Fréquence de rafraîchissement maximale 144 Hz
Angles de vision (H°/V°) 170°/160°
Luminosité 350 cd/m²
Rapport de contraste dynamique 80 000 000:1
Temps de réponse (gris-à-gris) 1 ms
Spécificités gaming
Technologie anti-scintillement (Flicker Free) Oui
Technologie anti lumière bleue (Eye Care) Oui
Connectique vidéo
VGA VGA (x1)
DVI DVI-D (x1)
HDMI HDMI (x1)
DisplayPort DisplayPort (x1)
Connectique diverse
Haut-parleurs intégrés 2 x 1 W
Ergonomie
Inclinaison avant/arrière Oui
Détachable Oui
Montage VESA 100 x 100 mm
Caractéristiques physiques
Couleur cadre Noir
Dimensions sur pied 551,4 x 400,4 x 221 mm
Poids avec pied 4,2 kg
Accessoires et fonctions Livré avec câble VGA, câble HDMI, câble DisplayPort, câble audio
Caractéristiques énergétiques
Bloc d'alimentation intégré Oui
Label énergétique Energy Star 6.0 / TCO 6.0

Lien constructeur : http://aoc-europe.com/fr/products/specification/g2460fq

CODE PROMO

24 commentaires

NOUVEAU COMMENTAIRE

Nombre de commentaires par page

Ce paramètre s’applique automatiquement à l’ensemble des deals.

Blade685

Le 07/12/2015 à 15h57

#1 Signaler
a quand la bonne promo sur du g-sync :)
Omebourses

Le 07/12/2015 à 16h08

#2 Signaler
Ce n'est pas un G-sync. Je l'ai à la maison. C'est un bon écran pour le jeux. Cependant la colorimétrie est vraiment horrible :S
Rien à voir avec un IPS. Du coup, en double écran, il fait tache.
Ben_Sen_Sizz

Le 07/12/2015 à 16h09

#3 Signaler
j'attends également une bonne promo sur un moniteur g-sync
je ne sais franchement pas si ca vaut vraiment le coup d'attendre une promo g-sync vu les prix des 144Hz gamer
perso, je vais certainement prendre une résolution 1080p et j'ai une GTX970
y a-t-il une différence quelconque entre un ecran 144Hz avec ou sans g-sync avec une grosse config ?
Blade685

Le 07/12/2015 à 16h20

#4 Signaler
j'attends également une bonne promo sur un moniteur g-sync
je ne sais franchement pas si ca vaut vraiment le coup d'attendre une promo g-sync vu les prix des 144Hz gamer
perso, je vais certainement prendre une résolution 1080p et j'ai une GTX970
y a-t-il une différence quelconque entre un ecran 144Hz avec ou sans g-sync avec une grosse config ?
J'ai lu que certains oui d'autre pas trop même si la différence de prix pour juste du g-sync en plus est indescente.... :o
Leon_Pavo

Le 07/12/2015 à 16h49

#5 Signaler
j'attends également une bonne promo sur un moniteur g-sync
je ne sais franchement pas si ca vaut vraiment le coup d'attendre une promo g-sync vu les prix des 144Hz gamer
perso, je vais certainement prendre une résolution 1080p et j'ai une GTX970
y a-t-il une différence quelconque entre un ecran 144Hz avec ou sans g-sync avec une grosse config ?
J'ai lu que certains oui d'autre pas trop même si la différence de prix pour juste du g-sync en plus est indescente.... :o

La puce G-Sync étant la propriété de Nvidia (d'où son prix), G-Sync a le même effet sur tous les écrans.
arthurg

Le 07/12/2015 à 18h39

#6 Signaler
Sur une grosse config (après ça dépend dépend de ce que tu appelles grosse) l'avantage est faible en 1080p puisque tu tournera en 144fps
Yeino

Le 08/12/2015 à 8h24

#7 Signaler
Beurk les réponses...

Le 144Hz est utile quand les déplacements horizontaux (pas verticaux) de l'écran sont très rapides, comme sur une simulation automobile par exemple.
Voici le lien qui vous permettra de faire une comparaison pour illustrer mon propos :
https://frames-per-second.appspot.com/

La technologie G-Sync a beau être propriétaire, ce n'est pas pour ça qu'elle a le même effet sur tous les écrans. Selon la carte graphique compatible utilisée (série GTX 600 et plus), la puce G-Sync intégrée à l'écran ne travaillera pas de la même façon. La G-Sync empêche les effets de "lag" (stuttering, clipping, ect.) pendant des chutes de framerate. La G-Sync est sensée remplacer la V-Sync. Dans le cas où une baisse de framerate passerait sous les 30 fps, il y aura quand même un effet de ralentissement cependant.

La version G-Sync de cet écran AOC se trouve au minimum à 430€, -5% actuels de Materiel.net, soit 408,49€. C'est vraiment le plus bas prix que j'aie pu voir sur ce produit. Cependant, la dalle est toujours moyenne, les couleurs pas top, et la rémanence toujours présente :
http://www.lesnumeriques.com/moniteur-ecran-lcd/aoc-g2460pg-p20680/test.html
arthurg

Le 08/12/2015 à 15h44

#8 Signaler
Tu oses dire '' beurk les réponses ''

La puce GSync fonctionne toujours de la même façon si la carte est compatible, soit se synchroniser avec la génération des images sur le GPU pour rafraîchir l'écran.
Il ne remplace pas la Vsync mais améliore celle-ci par la possibilité de modifié de le taux de rafraîchissement en cas de FPS inférieure à celui de l'écran. Si ton GPU est toujours au max d'un écran, la Vsync suffit et tu ne verrai aucune différence avec du GSync.

Enfin, le clipping est un lag dû au jeu (éventuellement une carte pas assez rapide) rien à voir avec GSync.
Ben_Sen_Sizz

Le 08/12/2015 à 16h03 (Modifié le 08/12/2015 à 16h04)

#9 Signaler
j'avais cru comprendre que le g-sync mettait d'égale à égale la fréquence de fonctionnement d'un jeu et de l'écran
par exemple, si j'ai une config pas assez puissante sur un jeu qui tourne à 40FPS (Hz) l'écran qui est censé tourner à 144Hz se met à 40Hz
de ce fait, il n y a plus de lag ou de décalage d'image dû aux différences de fréquences :)
du coup, que j'ai une bonne config ou pas si mon jeu tourne à 40Hz sur un écran 144Hz il y aura des décalages de meme que si mon jeux tourne à 144Hz sur un écran 60Hz :)

Ce message a été masqué par son auteur. Cliquez pour l’afficher.
à mon avis, le g-sync ou équivalent devrait etre impérativement implémenté sur tous types d'écran tv/moniteur et par conséquent ne devrait pas etre propriétaire mais devrait plutot etre une norme ouverte à tous
arthurg

Le 08/12/2015 à 21h03

#10 Signaler
j'avais cru comprendre que le g-sync mettait d'égale à égale la fréquence de fonctionnement d'un jeu et de l'écran
par exemple, si j'ai une config pas assez puissante sur un jeu qui tourne à 40FPS (Hz) l'écran qui est censé tourner à 144Hz se met à 40Hz
de ce fait, il n y a plus de lag ou de décalage d'image dû aux différences de fréquences :)
du coup, que j'ai une bonne config ou pas si mon jeu tourne à 40Hz sur un écran 144Hz il y aura des décalages de meme que si mon jeux tourne à 144Hz sur un écran 60Hz :)

Ce message a été masqué par son auteur. Cliquez pour l’afficher.
à mon avis, le g-sync ou équivalent devrait etre impérativement implémenté sur tous types d'écran tv/moniteur et par conséquent ne devrait pas etre propriétaire mais devrait plutot etre une norme ouverte à tous

L'adaptive Sync (FreeSync chez AMD) est libre, mais il n'y a pas de module dédié, et le fonctionnement est *apparemment* plus aléatoire en fonction du GPU et de l'écran.
Leon_Pavo

Le 09/12/2015 à 10h29

#11 Signaler
Ce message a été masqué par son auteur. Cliquez pour l’afficher.
à mon avis, le g-sync ou équivalent devrait etre impérativement implémenté sur tous types d'écran tv/moniteur et par conséquent ne devrait pas etre propriétaire mais devrait plutot etre une norme ouverte à tous

Mais wtf.
Yeino

Le 09/12/2015 à 10h57 (Modifié le 09/12/2015 à 11h01)

#12 Signaler
Tu oses dire '' beurk les réponses ''

La puce GSync fonctionne toujours de la même façon si la carte est compatible, soit se synchroniser avec la génération des images sur le GPU pour rafraîchir l'écran.
Il ne remplace pas la Vsync mais améliore celle-ci par la possibilité de modifié de le taux de rafraîchissement en cas de FPS inférieure à celui de l'écran. Si ton GPU est toujours au max d'un écran, la Vsync suffit et tu ne verrai aucune différence avec du GSync.

Enfin, le clipping est un lag dû au jeu (éventuellement une carte pas assez rapide) rien à voir avec GSync.

N'importe quoi. Il faut désactiver la V-Sync pour que la G-Sync puisse fonctionner. Et la G-Sync ne fait pas se synchroniser l'écran par rapport à la génération d'images sur le GPU, mais tout l'inverse. C'est la puce G-Sync de l'écran qui dit à la carte graphique si l'écran est prêt ou pas à recevoir/afficher une nouvelle image. C'est grâce à cette fonctionnalité que le mode G-Sync soulage les cartes graphiques.
Et j'ai déjà expliqué que la G-Sync était utile en cas de chute de framerate... Si tu ne sais pas lire ou que tu ne comprends pas un point technique, tu ferais mieux de t'abstenir.


j'avais cru comprendre que le g-sync mettait d'égale à égale la fréquence de fonctionnement d'un jeu et de l'écran
par exemple, si j'ai une config pas assez puissante sur un jeu qui tourne à 40FPS (Hz) l'écran qui est censé tourner à 144Hz se met à 40Hz
de ce fait, il n y a plus de lag ou de décalage d'image dû aux différences de fréquences :)
du coup, que j'ai une bonne config ou pas si mon jeu tourne à 40Hz sur un écran 144Hz il y aura des décalages de meme que si mon jeux tourne à 144Hz sur un écran 60Hz :)

En réalité, un écran fonctionne à une fréquence de rafraîchissement fixe. Un écran calibré pour fonctionner à 144Hz reste à 144Hz. Par contre, rien n'empêche cet écran d'afficher plusieurs fois de suite la même image !
Avec la V-Sync, dans le cas où la carte graphique génèrerait un FPS sous tes 144Hz d'écran, tu aurais divers problèmes d'affichage, parce que ta carte ne pourrait plus "fabriquer" suffisamment d'images, alors que l'écran continue de balancer 144 images par secondes.
Avec la G-Sync, la puce de l'écran 144Hz dit à ta carte graphique "l'image précédente a été affichée, tu peux m'en filer une autre", donc si ta carte graphique pouvait afficher plus de 144 images par seconde, ta carte graphique ne s'embête plus à calculer plus d'images que l'écran ne peut en afficher. Si ta carte graphique ne pouvait pas afficher 144 images par seconde, la carte graphique dit à ton écran "je ne peux pas t'en envoyer une tout de suite" et la puce de l'écran répond à ta carte graphique "c'est pas grave, j'en ai encore une en stock, je vais l'afficher une seconde fois et toi, commence à préparer la suivante".

Juste pour ce qui est de la différence entre V-Sync et G-Sync quand il n'y a pas de chute de framerate : je prends un exemple avec [email protected] La G-Sync dit à ta carte graphique de ne calculer (sur demande de l'écran) que ce dont l'écran a besoin d'afficher. La V-Sync ne dit rien à ta carte. La V-Sync est simplement une bride d'envoi des images vers l'écran. 60fps veut dire une image toutes les 0,0166666667s, donc une image toutes les 16,6666667 millisecondes. Non seulement ce compte ne tombe pas juste (on aura forcément un décalage à un moment donné), mais ça n'empêche absolument pas la carte graphique de calculer les images à afficher, même si elles ne seront finalement jamais envoyées vers l'écran... Au final, avec la V-Sync ta carte graphique utilise de la puissance inutilement, alors que la G-Sync permet de n'utiliser que la puissance nécessaire de ta carte graphique. Moins de puissance requise veut aussi dire que tu pourras augmenter les détails dans ton jeu, grâce à la G-Sync. Alors certes, ce n'est pas du gain de 300%, mais rien que 5 à 10% sont appréciables.

La G-Sync nécessite une puce intégrée dans les écrans compatibles. Cette puce a un coût de fabrication, et a eu un coût de recherche. nVidia l'a développée seule, contrairement à AMD et sa FreeSync. D'ailleurs, la G-Sync n'est pas limité à un affichage via Displayport, contrairement à FreeSync, qui s'appuie sur une norme Adaptive-Sync du Displayport, et qui nécessite donc cette connectique pour fonctionner. Pour le coup, l'HDMI est bien plus répandu que le Displayport...
arthurg

Le 09/12/2015 à 12h17

#13 Signaler
Tu oses dire '' beurk les réponses ''

La puce GSync fonctionne toujours de la même façon si la carte est compatible, soit se synchroniser avec la génération des images sur le GPU pour rafraîchir l'écran.
Il ne remplace pas la Vsync mais améliore celle-ci par la possibilité de modifié de le taux de rafraîchissement en cas de FPS inférieure à celui de l'écran. Si ton GPU est toujours au max d'un écran, la Vsync suffit et tu ne verrai aucune différence avec du GSync.

Enfin, le clipping est un lag dû au jeu (éventuellement une carte pas assez rapide) rien à voir avec GSync.

N'importe quoi. Il faut désactiver la V-Sync pour que la G-Sync puisse fonctionner. Et la G-Sync ne fait pas se synchroniser l'écran par rapport à la génération d'images sur le GPU, mais tout l'inverse. C'est la puce G-Sync de l'écran qui dit à la carte graphique si l'écran est prêt ou pas à recevoir/afficher une nouvelle image. C'est grâce à cette fonctionnalité que le mode G-Sync soulage les cartes graphiques.
Et j'ai déjà expliqué que la G-Sync était utile en cas de chute de framerate... Si tu ne sais pas lire ou que tu ne comprends pas un point technique, tu ferais mieux de t'abstenir.


j'avais cru comprendre que le g-sync mettait d'égale à égale la fréquence de fonctionnement d'un jeu et de l'écran
par exemple, si j'ai une config pas assez puissante sur un jeu qui tourne à 40FPS (Hz) l'écran qui est censé tourner à 144Hz se met à 40Hz
de ce fait, il n y a plus de lag ou de décalage d'image dû aux différences de fréquences :)
du coup, que j'ai une bonne config ou pas si mon jeu tourne à 40Hz sur un écran 144Hz il y aura des décalages de meme que si mon jeux tourne à 144Hz sur un écran 60Hz :)

En réalité, un écran fonctionne à une fréquence de rafraîchissement fixe. Un écran calibré pour fonctionner à 144Hz reste à 144Hz. Par contre, rien n'empêche cet écran d'afficher plusieurs fois de suite la même image !
Avec la V-Sync, dans le cas où la carte graphique génèrerait un FPS sous tes 144Hz d'écran, tu aurais divers problèmes d'affichage, parce que ta carte ne pourrait plus "fabriquer" suffisamment d'images, alors que l'écran continue de balancer 144 images par secondes.
Avec la G-Sync, la puce de l'écran 144Hz dit à ta carte graphique "l'image précédente a été affichée, tu peux m'en filer une autre", donc si ta carte graphique pouvait afficher plus de 144 images par seconde, ta carte graphique ne s'embête plus à calculer plus d'images que l'écran ne peut en afficher. Si ta carte graphique ne pouvait pas afficher 144 images par seconde, la carte graphique dit à ton écran "je ne peux pas t'en envoyer une tout de suite" et la puce de l'écran répond à ta carte graphique "c'est pas grave, j'en ai encore une en stock, je vais l'afficher une seconde fois et toi, commence à préparer la suivante".

Juste pour ce qui est de la différence entre V-Sync et G-Sync quand il n'y a pas de chute de framerate : je prends un exemple avec [email protected] La G-Sync dit à ta carte graphique de ne calculer (sur demande de l'écran) que ce dont l'écran a besoin d'afficher. La V-Sync ne dit rien à ta carte. La V-Sync est simplement une bride d'envoi des images vers l'écran. 60fps veut dire une image toutes les 0,0166666667s, donc une image toutes les 16,6666667 millisecondes. Non seulement ce compte ne tombe pas juste (on aura forcément un décalage à un moment donné), mais ça n'empêche absolument pas la carte graphique de calculer les images à afficher, même si elles ne seront finalement jamais envoyées vers l'écran... Au final, avec la V-Sync ta carte graphique utilise de la puissance inutilement, alors que la G-Sync permet de n'utiliser que la puissance nécessaire de ta carte graphique. Moins de puissance requise veut aussi dire que tu pourras augmenter les détails dans ton jeu, grâce à la G-Sync. Alors certes, ce n'est pas du gain de 300%, mais rien que 5 à 10% sont appréciables.

La G-Sync nécessite une puce intégrée dans les écrans compatibles. Cette puce a un coût de fabrication, et a eu un coût de recherche. nVidia l'a développée seule, contrairement à AMD et sa FreeSync. D'ailleurs, la G-Sync n'est pas limité à un affichage via Displayport, contrairement à FreeSync, qui s'appuie sur une norme Adaptive-Sync du Displayport, et qui nécessite donc cette connectique pour fonctionner. Pour le coup, l'HDMI est bien plus répandu que le Displayport...

Et c'est moi qui doit m'abstenir : '' LA SOLUTION : NVIDIA G-SYNC

Découvrez vite la technologie NVIDIA G-SYNC, qui élimine les problèmes de latence, de déchirures et de saccades. Pour parvenir à un tel niveau d’innovation, NVIDIA a choisi de synchroniser le moniteur-hôte à la sortie du GPU (au lieu de synchroniser le GPU au moniteur). 

''

Sur le site de Nvidia. Qui ne sait pas lire ? On en parle ?
Ben_Sen_Sizz

Le 09/12/2015 à 12h59 (Modifié le 09/12/2015 à 13h01)

#14 Signaler
Tu oses dire '' beurk les réponses ''

La puce GSync fonctionne toujours de la même façon si la carte est compatible, soit se synchroniser avec la génération des images sur le GPU pour rafraîchir l'écran.
Il ne remplace pas la Vsync mais améliore celle-ci par la possibilité de modifié de le taux de rafraîchissement en cas de FPS inférieure à celui de l'écran. Si ton GPU est toujours au max d'un écran, la Vsync suffit et tu ne verrai aucune différence avec du GSync.

Enfin, le clipping est un lag dû au jeu (éventuellement une carte pas assez rapide) rien à voir avec GSync.

N'importe quoi. Il faut désactiver la V-Sync pour que la G-Sync puisse fonctionner. Et la G-Sync ne fait pas se synchroniser l'écran par rapport à la génération d'images sur le GPU, mais tout l'inverse. C'est la puce G-Sync de l'écran qui dit à la carte graphique si l'écran est prêt ou pas à recevoir/afficher une nouvelle image. C'est grâce à cette fonctionnalité que le mode G-Sync soulage les cartes graphiques.
Et j'ai déjà expliqué que la G-Sync était utile en cas de chute de framerate... Si tu ne sais pas lire ou que tu ne comprends pas un point technique, tu ferais mieux de t'abstenir.


j'avais cru comprendre que le g-sync mettait d'égale à égale la fréquence de fonctionnement d'un jeu et de l'écran
par exemple, si j'ai une config pas assez puissante sur un jeu qui tourne à 40FPS (Hz) l'écran qui est censé tourner à 144Hz se met à 40Hz
de ce fait, il n y a plus de lag ou de décalage d'image dû aux différences de fréquences :)
du coup, que j'ai une bonne config ou pas si mon jeu tourne à 40Hz sur un écran 144Hz il y aura des décalages de meme que si mon jeux tourne à 144Hz sur un écran 60Hz :)

En réalité, un écran fonctionne à une fréquence de rafraîchissement fixe. Un écran calibré pour fonctionner à 144Hz reste à 144Hz. Par contre, rien n'empêche cet écran d'afficher plusieurs fois de suite la même image !
Avec la V-Sync, dans le cas où la carte graphique génèrerait un FPS sous tes 144Hz d'écran, tu aurais divers problèmes d'affichage, parce que ta carte ne pourrait plus "fabriquer" suffisamment d'images, alors que l'écran continue de balancer 144 images par secondes.
Avec la G-Sync, la puce de l'écran 144Hz dit à ta carte graphique "l'image précédente a été affichée, tu peux m'en filer une autre", donc si ta carte graphique pouvait afficher plus de 144 images par seconde, ta carte graphique ne s'embête plus à calculer plus d'images que l'écran ne peut en afficher. Si ta carte graphique ne pouvait pas afficher 144 images par seconde, la carte graphique dit à ton écran "je ne peux pas t'en envoyer une tout de suite" et la puce de l'écran répond à ta carte graphique "c'est pas grave, j'en ai encore une en stock, je vais l'afficher une seconde fois et toi, commence à préparer la suivante".

Juste pour ce qui est de la différence entre V-Sync et G-Sync quand il n'y a pas de chute de framerate : je prends un exemple avec [email protected] La G-Sync dit à ta carte graphique de ne calculer (sur demande de l'écran) que ce dont l'écran a besoin d'afficher. La V-Sync ne dit rien à ta carte. La V-Sync est simplement une bride d'envoi des images vers l'écran. 60fps veut dire une image toutes les 0,0166666667s, donc une image toutes les 16,6666667 millisecondes. Non seulement ce compte ne tombe pas juste (on aura forcément un décalage à un moment donné), mais ça n'empêche absolument pas la carte graphique de calculer les images à afficher, même si elles ne seront finalement jamais envoyées vers l'écran... Au final, avec la V-Sync ta carte graphique utilise de la puissance inutilement, alors que la G-Sync permet de n'utiliser que la puissance nécessaire de ta carte graphique. Moins de puissance requise veut aussi dire que tu pourras augmenter les détails dans ton jeu, grâce à la G-Sync. Alors certes, ce n'est pas du gain de 300%, mais rien que 5 à 10% sont appréciables.

La G-Sync nécessite une puce intégrée dans les écrans compatibles. Cette puce a un coût de fabrication, et a eu un coût de recherche. nVidia l'a développée seule, contrairement à AMD et sa FreeSync. D'ailleurs, la G-Sync n'est pas limité à un affichage via Displayport, contrairement à FreeSync, qui s'appuie sur une norme Adaptive-Sync du Displayport, et qui nécessite donc cette connectique pour fonctionner. Pour le coup, l'HDMI est bien plus répandu que le Displayport...
Je te remercie de tes explications
Néanmoins, de ce que je comprends, il est question d'une évolution hardware et software.
Je vais te dire mon avis, sachant que je suis également dans la conception mais en architecture mécanique.
Ce ne sont que du mytho... Nvidia, selon moi, a créé un nouveau Marché pour s'enrichir
Les constructeurs d'écrans en profitent en participant activement à la publication des mensonges de Nvidia
Ce que tu explique peut etre conçu d'une meilleur façon et simplement.
Mais pour créer un Marché il faut des prétextes, ce prétextes et la g-sync
Malheureusement la majorité des gens tombe dans le panneau...
Tu verras que demain, on parlera d'une évolution du G-Sync et il y aura une soi-disant évolution pour inciter les consommateur (pigeons comme moi par exemple) à consommer d'avantages :)
Il y a eu une fuite à un moment donné et un cadre a été contraint de démissionner suite à cela
Cela évoquait le fait d'avoir le g-sync uniquement via une évolution software :)
http://www.hardware.fr/news/14226/g-sync-passe-mobile-sans-module.html
Yeino

Le 09/12/2015 à 13h36

#15 Signaler

Et c'est moi qui doit m'abstenir : '' LA SOLUTION : NVIDIA G-SYNC

Découvrez vite la technologie NVIDIA G-SYNC, qui élimine les problèmes de latence, de déchirures et de saccades. Pour parvenir à un tel niveau d’innovation, NVIDIA a choisi de synchroniser le moniteur-hôte à la sortie du GPU (au lieu de synchroniser le GPU au moniteur). 

''

Sur le site de Nvidia. Qui ne sait pas lire ? On en parle ?

http://www.lesnumeriques.com/moniteur-ecran-lcd/on-a-teste-g-sync-nvidia-a1794.html

Donc finalement, quand je dis que ça dépend de la carte graphique, et que tu me rétorques que non... Le nombre d'images différentes affichées par un écran ne correspond pas à son taux de rafraîchissement. Un effet, un écran G-Sync réaffiche une image déjà affichée si la carte graphique ne lui en a pas envoyée de nouvelle. La seule chose qui émane de ta citation (dont voici le lien : http://www.nvidia.fr/object/how-does-g-sync-work-fr.html), c'est que l'affichage de l'écran dépend de la carte graphique... Ce qui était déjà le cas avant. Il s'agit avant tout d'une vulgarisation sur une page vitrine du site nVidia. Visiblement, la vulgarisation a eu l'effet escompté sur toi.


@Ben_Sen_Sizz :
La conception actuelle correspond à une réalité mécanique/physique. Le besoin d'améliorer l'existant permettait d'optimiser l'expérience visuelle, chose en perpétuelle évolution. Le système étant ce qu'il est, avec ses brevets et ses licences, nVidia a aussi optimisé son rendement, en partant sur un créneau jusqu'alors inexploité, et délaissé par la recherche. Que la chose ait été mal conçue dès le départ n'est pas le problème.
J'ai précisé qu'il n'y avait qu'un gain de 5 à 10% entre la G-Sync et la V-Sync. Mais si je bride encore mon système en définissant un framerate maximum directement dans le driver de ma carte graphique nVidia, et en limitant à 1 le nombre d'images précalculées et mise en mémoire tampon, j'augmente encore la différence de performances (pratiquement 10% chez moi, avec une EVGA GTX 970 SC), et j'observe en pratique une amélioration de 20% environ sur un jeu comme The Witcher 3. Evidemment, une telle configuration me permettait déjà une augmentation des performances de l'ordre des 6% avec mon ancienne MSI GTX 670 OC, et jusqu'à 9% au total en limitant le framerate et la mise en mémoire tampon dans le driver.
Mais ce qui est vraiment flagrant, ce n'est pas avec un chiffre balancé comme ça sur un graphique. On pourrait se dire que 6% d'amélioration de performances, dans l'absolu, ce n'est pas fantastique... Sauf que ça m'a permis de passer The Witcher 3 de Bas à Moyen sur ma vieille GTX 670, le tout à 34fps en moyenne, et sans aucun ralentissement visible à l'écran, ou autre désagrément. Le gain de confort ne peut pas être jugé négligeable.

Ma conclusion : il n'y a pas de panneau. La qualité du confort de jeu a un prix, qu'on sait assez élevé.
Il y a déjà eu une espèce de hack pour reproduire le comportement de la G-Sync sans module, par le biais d'un driver modifié sur un laptop, mais qui ne fonctionnait que pour l'appareil en question, et qui ne supportait pas toutes les interactions de fonctionnalités de la marque au caméléon. Pour le coup, le rendement reste dépendant des composants clients, et du budget dont vous avez à disposition pour upgrader votre machine...

Juste pour info : j'ai mis -1 à ce deal, à cause de la qualité médiocre de la dalle de l'écran concernant la luminance, la profondeur des noirs, les nuances de gris, les reflets...
Je ne faisais qu'expliquer en quoi consiste la G-Sync et à qui elle peut être utile.
arthurg

Le 09/12/2015 à 13h43

#16 Signaler
La vulgarisation est utile quand tu n'as pas besoin de détails, mais même avec de la vulgarisation tu arrives totalement l'inverse de la réalité (''C'est la puce GSync de la carte qui dit à la carte graphique si l'écran est prêt ou pas à recevoir''). Que ce soit les numériques ou Nvidia les deux disent bien que c'est l'écran qui s'adapte à la fréquence des images reçues par la CG.
Je te cite ton lien pour que tu comprennes bien : ''Avec le G-Sync, l'écran s'adapte donc automatiquement et va afficher une image dès qu'elle est envoyée par le GPU''.

Je ne vois pas où tu vois que ça dépend de la carte graphique. A partir du moment où l'écran est compatible GSync, que la CG aussi, le principe reste toujours le même.
Ben_Sen_Sizz

Le 09/12/2015 à 16h20 (Modifié le 09/12/2015 à 16h25)

#17 Signaler

Et c'est moi qui doit m'abstenir : '' LA SOLUTION : NVIDIA G-SYNC

Découvrez vite la technologie NVIDIA G-SYNC, qui élimine les problèmes de latence, de déchirures et de saccades. Pour parvenir à un tel niveau d’innovation, NVIDIA a choisi de synchroniser le moniteur-hôte à la sortie du GPU (au lieu de synchroniser le GPU au moniteur). 

''

Sur le site de Nvidia. Qui ne sait pas lire ? On en parle ?

http://www.lesnumeriques.com/moniteur-ecran-lcd/on-a-teste-g-sync-nvidia-a1794.html

Donc finalement, quand je dis que ça dépend de la carte graphique, et que tu me rétorques que non... Le nombre d'images différentes affichées par un écran ne correspond pas à son taux de rafraîchissement. Un effet, un écran G-Sync réaffiche une image déjà affichée si la carte graphique ne lui en a pas envoyée de nouvelle. La seule chose qui émane de ta citation (dont voici le lien : http://www.nvidia.fr/object/how-does-g-sync-work-fr.html), c'est que l'affichage de l'écran dépend de la carte graphique... Ce qui était déjà le cas avant. Il s'agit avant tout d'une vulgarisation sur une page vitrine du site nVidia. Visiblement, la vulgarisation a eu l'effet escompté sur toi.


@Ben_Sen_Sizz :
La conception actuelle correspond à une réalité mécanique/physique. Le besoin d'améliorer l'existant permettait d'optimiser l'expérience visuelle, chose en perpétuelle évolution. Le système étant ce qu'il est, avec ses brevets et ses licences, nVidia a aussi optimisé son rendement, en partant sur un créneau jusqu'alors inexploité, et délaissé par la recherche. Que la chose ait été mal conçue dès le départ n'est pas le problème.
J'ai précisé qu'il n'y avait qu'un gain de 5 à 10% entre la G-Sync et la V-Sync. Mais si je bride encore mon système en définissant un framerate maximum directement dans le driver de ma carte graphique nVidia, et en limitant à 1 le nombre d'images précalculées et mise en mémoire tampon, j'augmente encore la différence de performances (pratiquement 10% chez moi, avec une EVGA GTX 970 SC), et j'observe en pratique une amélioration de 20% environ sur un jeu comme The Witcher 3. Evidemment, une telle configuration me permettait déjà une augmentation des performances de l'ordre des 6% avec mon ancienne MSI GTX 670 OC, et jusqu'à 9% au total en limitant le framerate et la mise en mémoire tampon dans le driver.
Mais ce qui est vraiment flagrant, ce n'est pas avec un chiffre balancé comme ça sur un graphique. On pourrait se dire que 6% d'amélioration de performances, dans l'absolu, ce n'est pas fantastique... Sauf que ça m'a permis de passer The Witcher 3 de Bas à Moyen sur ma vieille GTX 670, le tout à 34fps en moyenne, et sans aucun ralentissement visible à l'écran, ou autre désagrément. Le gain de confort ne peut pas être jugé négligeable.

Ma conclusion : il n'y a pas de panneau. La qualité du confort de jeu a un prix, qu'on sait assez élevé.
Il y a déjà eu une espèce de hack pour reproduire le comportement de la G-Sync sans module, par le biais d'un driver modifié sur un laptop, mais qui ne fonctionnait que pour l'appareil en question, et qui ne supportait pas toutes les interactions de fonctionnalités de la marque au caméléon. Pour le coup, le rendement reste dépendant des composants clients, et du budget dont vous avez à disposition pour upgrader votre machine...

Juste pour info : j'ai mis -1 à ce deal, à cause de la qualité médiocre de la dalle de l'écran concernant la luminance, la profondeur des noirs, les nuances de gris, les reflets...
Je ne faisais qu'expliquer en quoi consiste la G-Sync et à qui elle peut être utile.

Merci de partager tes expériences :)
On a dévié du sujet mais je trouve ca intéressant donc je continue :D
Alors, je vais etre catégorique, pour moi, et je le dis depuis plus de 15 ans, les concepteurs hardware brident leur produits via le software pour maintenir un Marché stable.
On a l'exemple de DX12 par exemple et encore, on doit certainement nous cacher tellement de possibilité d'augmenter les performances sans se ruiner...
Il fallait sortir G-sync ! C'est une arme (arnaque) commerciale !
Il fallait sortir DX12 ! C'est également une arme commerciale !
Mais en réalité, il y a toujours plus simple et moins cher pour le consommateur mais ca... ce n'est pas dans l’intérêt des concepteurs :)
Dans mon métier, je peux te citer tellement d'exemple (et ca se calcul en M€) que si tu savais tu comprendrais à quel point c'est sale... tu gerberais peut-etre :D
J'ai eu l'occasion de participer à des projets de conception de machines industrielles, et je peux te dire que si on veut on peut concevoir une machine quasi parfaite à tous les niveaux qui permettrait au Client d'investir sans se ruiner pendant... des années et des années...
Yeino

Le 10/12/2015 à 9h21

#18 Signaler
La vulgarisation est utile quand tu n'as pas besoin de détails, mais même avec de la vulgarisation tu arrives totalement l'inverse de la réalité (''C'est la puce GSync de la carte qui dit à la carte graphique si l'écran est prêt ou pas à recevoir''). Que ce soit les numériques ou Nvidia les deux disent bien que c'est l'écran qui s'adapte à la fréquence des images reçues par la CG.
Je te cite ton lien pour que tu comprennes bien : ''Avec le G-Sync, l'écran s'adapte donc automatiquement et va afficher une image dès qu'elle est envoyée par le GPU''.

Je ne vois pas où tu vois que ça dépend de la carte graphique. A partir du moment où l'écran est compatible GSync, que la CG aussi, le principe reste toujours le même.

Si l'écran affichait réellement une image dès qu'elle est envoyée par le GPU, on observerait un effet de déchirement de l'écran entre la nouvelle image affichée en haut et l'ancienne image en bas. Or, la G-Sync est sensée corriger ce genre de problèmes. Si tu ne comprends pas ce que tu lis, abstiens-toi car il s'agit encore une fois de vulgarisation commerciale.
L'actualisation de l'image affichée (ou sa non-actualisation) dépend de la puissance de la carte graphique, c'est pourtant évident. Si la carte graphique ne peut envoyer que 10 images par seconde, ou si au contraire elle peut en envoyer 200 par seconde, la puce G-Sync n'aura pas le même comportement, et l'image ne sera pas actualisée aussi souvent pour 10fps qu'elle peut l'être pour 200fps.
Quand tu dis que le "principe reste toujours le même", j'ai envie de te dire que non. Il y a une différence entre additionner 2 chiffres positifs et additionner 1 chiffre positif et 1 chiffre négatif, pourtant l'opérateur est le même (+), mais on observe une différence de comportement de l'addition.

Tu n'es pas compétent dans ce domaine, je ne me fatiguerai donc plus à répondre à quelqu'un qui refuse de réaliser que 1+1=2, et qui n'arrive même pas à compter sur ses doigts...


On a l'exemple de DX12 par exemple et encore, on doit certainement nous cacher tellement de possibilité d'augmenter les performances sans se ruiner...

DirectX 12 est une compilation de ce qui s'est fait de mieux en matière de procédures et fonctions, de lignes de code, le tout depuis DirectX 8.
Le code a été revu, corrigé, nettoyé, compressé. A aucun moment il n'est sensé "brider" le matériel. DirectX 12 a été créé par Microsoft, et tu dis que Microsoft briderait les matériels pour garder un marché stable... Déjà, Microsoft n'est pas constructeur hardware (ni pour les PC, ni pour ses consoles, ni pour ses smartphones). Ensuite, Microsoft a publié un rapport montrant que les ventes de PC chutent de manière régulière depuis pas loin de 10 ans. Finalement, Steve Ballmer a annoncé cet été que le but de Windows10 était de pérenniser sur au moins 1 milliard de machines d'ici mi-2016...
Donc c'est complètement contradictoire avec ta théorie du complot du bridage hardware programmé/organisé.

Je suis moi-même dans un secteur qui brasse des milliards d'€ (et je n'en profite même pas !). Je suis informaticien de métier (cf, la chanson : "ingénieur informaticien... je répare des ordinateurs..."). Des conneries j'en vois passer aussi, et également de bonnes idées passer à la trappe volontairement. Je peux te dire que quand une innovation apporte du mieux, on prend et après on fait le bilan, parce que la conception ne dépend pas de nous. Les lois sur les brevets commerciaux ne dépendent pas non plus de nous. Alors oui on subit, mais de là à dire qu'une avancée technologique, aussi mince soit-elle, est complètement inutile et/ou fabriquée de toute pièce, je ne suis pas d'accord.

Evidemment, je peux aussi trouver un contre-exemple. J'ai réussi à faire tourner Rage (FPS/RPG) sur une machine de test avec la configuration suivante :
- Intel Core 2 Quad Q9650 3.0GHz
- 4Go RAM 1333MHz (fréquence maximale supportée par le processeur)
- nVidia GeForce GTX295 avec 1,7Go VRAM (bi-GPU, double GTX280 amputées en fréquences) (modèle blower)
- HDD 120Go à 5200 RPM

Bon au final, Rage tournait correctement à 48fps en moyenne, le tout en qualité Moyen, alors que théoriquement, je n'aurais pas du pouvoir dépasser le Bas. Il suffit de savoir comment paramétrer sa machine, mais ça n'est pas donnée à tout le monde. C'est comme paramétrer une courbe de ventilation pour sa carte graphique, ou savoir quels ventilateurs mettre dans sa tour, et où les mettre. Tout peut se faire, encore faut-il savoir comment. La seule limitation serait sans doute les versions de DirectX pour des jeux trop récents pour une carte graphique. Une carte graphique comme ma GTX295 ne supporte pas DirectX 11, parce qu'elle n'est plus mise à jour. Elle n'est plus mise à jour parce que ce serait trop compliqué et donc chronophage de le faire, pour une carte jugée pas suffisamment puissante. Il y a également une limitation pour les Vertex Shaders par exemple, ou des limitations de charge/température/déperdition énergétique...
Par exemple, Microsoft n'a pas voulu développer le module de son HoloLens sur du code aussi archaïque et sale que celui de DirectX 11 (DirectX 9 + rajout = DirectX 10 ; DirectX 10 + rajout = DirectX 11...). Ils ont préféré repartir sur une base saine, du code nettoyé, donc plus rapide, et prenant en charge (enfin) le multithreading, le tout pour intégrer nativement leur module HoloLens de manière native.

Toujours est-il qu'une innovation/amélioration gratuite est toujours bonne à prendre.
arthurg

Le 10/12/2015 à 9h32

#19 Signaler
La vulgarisation est utile quand tu n'as pas besoin de détails, mais même avec de la vulgarisation tu arrives totalement l'inverse de la réalité (''C'est la puce GSync de la carte qui dit à la carte graphique si l'écran est prêt ou pas à recevoir''). Que ce soit les numériques ou Nvidia les deux disent bien que c'est l'écran qui s'adapte à la fréquence des images reçues par la CG.
Je te cite ton lien pour que tu comprennes bien : ''Avec le G-Sync, l'écran s'adapte donc automatiquement et va afficher une image dès qu'elle est envoyée par le GPU''.

Je ne vois pas où tu vois que ça dépend de la carte graphique. A partir du moment où l'écran est compatible GSync, que la CG aussi, le principe reste toujours le même.

Si l'écran affichait réellement une image dès qu'elle est envoyée par le GPU, on observerait un effet de déchirement de l'écran entre la nouvelle image affichée en haut et l'ancienne image en bas. Or, la G-Sync est sensée corriger ce genre de problèmes. Si tu ne comprends pas ce que tu lis, abstiens-toi car il s'agit encore une fois de vulgarisation commerciale.
L'actualisation de l'image affichée (ou sa non-actualisation) dépend de la puissance de la carte graphique, c'est pourtant évident. Si la carte graphique ne peut envoyer que 10 images par seconde, ou si au contraire elle peut en envoyer 200 par seconde, la puce G-Sync n'aura pas le même comportement, et l'image ne sera pas actualisée aussi souvent pour 10fps qu'elle peut l'être pour 200fps.
Quand tu dis que le "principe reste toujours le même", j'ai envie de te dire que non. Il y a une différence entre additionner 2 chiffres positifs et additionner 1 chiffre positif et 1 chiffre négatif, pourtant l'opérateur est le même (+), mais on observe une différence de comportement de l'addition.

Tu n'es pas compétent dans ce domaine, je ne me fatiguerai donc plus à répondre à quelqu'un qui refuse de réaliser que 1+1=2, et qui n'arrive même pas à compter sur ses doigts...


On a l'exemple de DX12 par exemple et encore, on doit certainement nous cacher tellement de possibilité d'augmenter les performances sans se ruiner...

DirectX 12 est une compilation de ce qui s'est fait de mieux en matière de procédures et fonctions, de lignes de code, le tout depuis DirectX 8.
Le code a été revu, corrigé, nettoyé, compressé. A aucun moment il n'est sensé "brider" le matériel. DirectX 12 a été créé par Microsoft, et tu dis que Microsoft briderait les matériels pour garder un marché stable... Déjà, Microsoft n'est pas constructeur hardware (ni pour les PC, ni pour ses consoles, ni pour ses smartphones). Ensuite, Microsoft a publié un rapport montrant que les ventes de PC chutent de manière régulière depuis pas loin de 10 ans. Finalement, Steve Ballmer a annoncé cet été que le but de Windows10 était de pérenniser sur au moins 1 milliard de machines d'ici mi-2016...
Donc c'est complètement contradictoire avec ta théorie du complot du bridage hardware programmé/organisé.

Je suis moi-même dans un secteur qui brasse des milliards d'€ (et je n'en profite même pas !). Je suis informaticien de métier (cf, la chanson : "ingénieur informaticien... je répare des ordinateurs..."). Des conneries j'en vois passer aussi, et également de bonnes idées passer à la trappe volontairement. Je peux te dire que quand une innovation apporte du mieux, on prend et après on fait le bilan, parce que la conception ne dépend pas de nous. Les lois sur les brevets commerciaux ne dépendent pas non plus de nous. Alors oui on subit, mais de là à dire qu'une avancée technologique, aussi mince soit-elle, est complètement inutile et/ou fabriquée de toute pièce, je ne suis pas d'accord.

Evidemment, je peux aussi trouver un contre-exemple. J'ai réussi à faire tourner Rage (FPS/RPG) sur une machine de test avec la configuration suivante :
- Intel Core 2 Quad Q9650 3.0GHz
- 4Go RAM 1333MHz (fréquence maximale supportée par le processeur)
- nVidia GeForce GTX295 avec 1,7Go VRAM (bi-GPU, double GTX280 amputées en fréquences) (modèle blower)
- HDD 120Go à 5200 RPM

Bon au final, Rage tournait correctement à 48fps en moyenne, le tout en qualité Moyen, alors que théoriquement, je n'aurais pas du pouvoir dépasser le Bas. Il suffit de savoir comment paramétrer sa machine, mais ça n'est pas donnée à tout le monde. C'est comme paramétrer une courbe de ventilation pour sa carte graphique, ou savoir quels ventilateurs mettre dans sa tour, et où les mettre. Tout peut se faire, encore faut-il savoir comment. La seule limitation serait sans doute les versions de DirectX pour des jeux trop récents pour une carte graphique. Une carte graphique comme ma GTX295 ne supporte pas DirectX 11, parce qu'elle n'est plus mise à jour. Elle n'est plus mise à jour parce que ce serait trop compliqué et donc chronophage de le faire, pour une carte jugée pas suffisamment puissante. Il y a également une limitation pour les Vertex Shaders par exemple, ou des limitations de charge/température/déperdition énergétique...
Par exemple, Microsoft n'a pas voulu développer le module de son HoloLens sur du code aussi archaïque et sale que celui de DirectX 11 (DirectX 9 + rajout = DirectX 10 ; DirectX 10 + rajout = DirectX 11...). Ils ont préféré repartir sur une base saine, du code nettoyé, donc plus rapide, et prenant en charge (enfin) le multithreading, le tout pour intégrer nativement leur module HoloLens de manière native.

Toujours est-il qu'une innovation/amélioration gratuite est toujours bonne à prendre.


Mais tu ne veux pas comprendre que tu n'as pas raison. Je te dis depuis le début que ce n'est pas l'écran qui commande la carte mais la carte qui commande l'écran. C'est elle qui va lui dire de se mettre à 30 Hz ou 50 ou autre (pour vulgariser à haut niveau comme tu aimes ça).
Ensuite que tu ai une 750 ou une 980 le comportement est le même je le répète. Sur un CS:GO par exemple dans les deux cas le GSync aura un comportement de VSync, sur un Crysis en 4K dans les deux cas le GSync baissera le rafraîchissement de l'écran. Tu reste un peu trop braqué sur tes position pour quelqu'un d'intelligent.

Pour la phrase dans les numériques je ne faisait que citer le passage qui veut dire la même chose que sur le site D'Nvidia, pour te souligner que ce que tu dis est erroné même en venant de ta propre source.
Malheureusement GSync est propriétaire donc ça va être difficile de trouver le code pour savoir comment ça se passe, tu ne l'as pas et je ne l'ai pas. Mais perso je préfère me baser sur ce qui est dit officiellement plutôt que de fabuler.
Ben_Sen_Sizz

Le 10/12/2015 à 10h55

#20 Signaler
La vulgarisation est utile quand tu n'as pas besoin de détails, mais même avec de la vulgarisation tu arrives totalement l'inverse de la réalité (''C'est la puce GSync de la carte qui dit à la carte graphique si l'écran est prêt ou pas à recevoir''). Que ce soit les numériques ou Nvidia les deux disent bien que c'est l'écran qui s'adapte à la fréquence des images reçues par la CG.
Je te cite ton lien pour que tu comprennes bien : ''Avec le G-Sync, l'écran s'adapte donc automatiquement et va afficher une image dès qu'elle est envoyée par le GPU''.

Je ne vois pas où tu vois que ça dépend de la carte graphique. A partir du moment où l'écran est compatible GSync, que la CG aussi, le principe reste toujours le même.

Si l'écran affichait réellement une image dès qu'elle est envoyée par le GPU, on observerait un effet de déchirement de l'écran entre la nouvelle image affichée en haut et l'ancienne image en bas. Or, la G-Sync est sensée corriger ce genre de problèmes. Si tu ne comprends pas ce que tu lis, abstiens-toi car il s'agit encore une fois de vulgarisation commerciale.
L'actualisation de l'image affichée (ou sa non-actualisation) dépend de la puissance de la carte graphique, c'est pourtant évident. Si la carte graphique ne peut envoyer que 10 images par seconde, ou si au contraire elle peut en envoyer 200 par seconde, la puce G-Sync n'aura pas le même comportement, et l'image ne sera pas actualisée aussi souvent pour 10fps qu'elle peut l'être pour 200fps.
Quand tu dis que le "principe reste toujours le même", j'ai envie de te dire que non. Il y a une différence entre additionner 2 chiffres positifs et additionner 1 chiffre positif et 1 chiffre négatif, pourtant l'opérateur est le même (+), mais on observe une différence de comportement de l'addition.

Tu n'es pas compétent dans ce domaine, je ne me fatiguerai donc plus à répondre à quelqu'un qui refuse de réaliser que 1+1=2, et qui n'arrive même pas à compter sur ses doigts...


On a l'exemple de DX12 par exemple et encore, on doit certainement nous cacher tellement de possibilité d'augmenter les performances sans se ruiner...

DirectX 12 est une compilation de ce qui s'est fait de mieux en matière de procédures et fonctions, de lignes de code, le tout depuis DirectX 8.
Le code a été revu, corrigé, nettoyé, compressé. A aucun moment il n'est sensé "brider" le matériel. DirectX 12 a été créé par Microsoft, et tu dis que Microsoft briderait les matériels pour garder un marché stable... Déjà, Microsoft n'est pas constructeur hardware (ni pour les PC, ni pour ses consoles, ni pour ses smartphones). Ensuite, Microsoft a publié un rapport montrant que les ventes de PC chutent de manière régulière depuis pas loin de 10 ans. Finalement, Steve Ballmer a annoncé cet été que le but de Windows10 était de pérenniser sur au moins 1 milliard de machines d'ici mi-2016...
Donc c'est complètement contradictoire avec ta théorie du complot du bridage hardware programmé/organisé.

Je suis moi-même dans un secteur qui brasse des milliards d'€ (et je n'en profite même pas !). Je suis informaticien de métier (cf, la chanson : "ingénieur informaticien... je répare des ordinateurs..."). Des conneries j'en vois passer aussi, et également de bonnes idées passer à la trappe volontairement. Je peux te dire que quand une innovation apporte du mieux, on prend et après on fait le bilan, parce que la conception ne dépend pas de nous. Les lois sur les brevets commerciaux ne dépendent pas non plus de nous. Alors oui on subit, mais de là à dire qu'une avancée technologique, aussi mince soit-elle, est complètement inutile et/ou fabriquée de toute pièce, je ne suis pas d'accord.

Evidemment, je peux aussi trouver un contre-exemple. J'ai réussi à faire tourner Rage (FPS/RPG) sur une machine de test avec la configuration suivante :
- Intel Core 2 Quad Q9650 3.0GHz
- 4Go RAM 1333MHz (fréquence maximale supportée par le processeur)
- nVidia GeForce GTX295 avec 1,7Go VRAM (bi-GPU, double GTX280 amputées en fréquences) (modèle blower)
- HDD 120Go à 5200 RPM

Bon au final, Rage tournait correctement à 48fps en moyenne, le tout en qualité Moyen, alors que théoriquement, je n'aurais pas du pouvoir dépasser le Bas. Il suffit de savoir comment paramétrer sa machine, mais ça n'est pas donnée à tout le monde. C'est comme paramétrer une courbe de ventilation pour sa carte graphique, ou savoir quels ventilateurs mettre dans sa tour, et où les mettre. Tout peut se faire, encore faut-il savoir comment. La seule limitation serait sans doute les versions de DirectX pour des jeux trop récents pour une carte graphique. Une carte graphique comme ma GTX295 ne supporte pas DirectX 11, parce qu'elle n'est plus mise à jour. Elle n'est plus mise à jour parce que ce serait trop compliqué et donc chronophage de le faire, pour une carte jugée pas suffisamment puissante. Il y a également une limitation pour les Vertex Shaders par exemple, ou des limitations de charge/température/déperdition énergétique...
Par exemple, Microsoft n'a pas voulu développer le module de son HoloLens sur du code aussi archaïque et sale que celui de DirectX 11 (DirectX 9 + rajout = DirectX 10 ; DirectX 10 + rajout = DirectX 11...). Ils ont préféré repartir sur une base saine, du code nettoyé, donc plus rapide, et prenant en charge (enfin) le multithreading, le tout pour intégrer nativement leur module HoloLens de manière native.

Toujours est-il qu'une innovation/amélioration gratuite est toujours bonne à prendre.
Ce que je voulais dire à propos de DX12 c'est que ca pouvait sortir depuis plus de 15 ans
On a attendu 2015 pour quelle raison à ton avis ? Mantle ?
Ce ne sont que des prétextes
Les prétextes sont facile à inventer face à des ignorants que sont les consommateurs
MatYX

Le 10/12/2015 à 11h07 (Modifié le 10/12/2015 à 11h07)

#21 Signaler
Merci de vous calmer ici !

Il est tout à fait possible d'avoir une conversation sans forcément s'insulter...
Yeino

Le 10/12/2015 à 14h14 (Modifié le 10/12/2015 à 14h19)

#22 Signaler
Juste pour arthug, un peu d'algorithmique de base :

SI (ma carte est suffisamment puissante) ALORS
=> On exécute le code ici
SINON
=> On exécute plutôt le code ici

Des enfants de CM2 arrivent à comprendre ce concept. Le fait que tu en sois incapable ne fait que me conforter dans l'idée que le niveau culturel moyen baisse d'année en année...
D'ailleurs, la G-Sync n'a pas un comportement de V-Sync. La V-Sync continue de calculer des images qui ne seront pas affichées. La G-Sync empêche le calcul d'images inutiles. Et je te répète que la fréquence de rafraîchissement de l'écran ne varie pas. Voici un lien où les ingénieurs nVidia s'expriment à ce sujet :
http://www.geforce.com/whats-new/articles/introducing-nvidia-g-sync-revolutionary-ultra-smooth-stutter-free-gaming

Concernant le lien lesnumeriques.com, ils précisent bien "Avec le G-Sync, l'écran s'adapte donc automatiquement et va afficher une image dès qu'elle est envoyée par le GPU". Mais tu comprends de travers.
Ici aussi c'est vulgarisé :
http://www.clubic.com/technologies-d-avenir/article-616890-1-nvidia-g-sync.html

Donc les gens sont tentés de croire que le GPU fait ce qu'il veut, qu'il calcule des images à 100% de ses perf, et qu'il envoie tout à l'écran qui affiche les images dès qu'il les reçoit. Mais attends, avec un tel système, le GPU surchaufferait sans limite et pourrait rendre l'âme plus rapidement... Et ce n'est pas justement ça qui posait problème avec la technologie CRT ? Le fait que l'écran affiche une image dès qu'il la reçoit provoque du "tearing" ou "micro-tearing". Comme je l'ai déjà décrit plus haut, on pourra observer lors du tearing un découpage horizontal de l'écran, avec en haut un morceau de la dernière image reçue, et en bas un morceau de l'ancienne image. On avait du tearing lorsque le GPU envoyait plus d'images à l'écran que le nombre maximal d'images que pouvait afficher l'écran. Un écran à 60Hz ne pouvait pas afficher plus de 60fps, donc si le GPU lui en envoyait plus, ça faisait planter le moteur d'affichage de l'écran. Dans le cas où on activait la V-Sync pour corriger ce problème, le GPU ne pouvait plus envoyer plus de 60fps vers l'écran, donc le tearing maximal disparaissait. Par contre, dans le cas où le GPU envoyait moins de 60fps vers l'écran avec la V-Sync activée, l'écran réaffichait une seconde fois la même image parce qu'elle n'avait pas reçu la nouvelle à temps, et affichait la nouvelle dès qu'elle la recevait, ce qui provoquait de nouveau du tearing. D'autres problèmes étaient inhérents à la V-Sync, comme le micro-stuttering, le screen frame buffer lag, ect.
Le module G-Sync dans l'écran va forcément agir différemment selon le nombre d'images reçues par le GPU, soit augmenter le renouvellement d'affichage, soit le diminuer, selon la puissance du GPU. Comme le montrent les graphiques de mes liens précédents, sous G-Sync, le GPU calcule plusieurs images d'affilée, puis les envoie à l'écran qui les stocke autant qu'il peut dans son screen frame buffer, et dit "stop" au GPU quand son buffer est plein. Le GPU arrête alors de calculer et attend un signal de l'écran lui disant qu'il faut qu'il en recalcule. Techniquement, dès qu'une position se libère dans le screen frame buffer, le module G-Sync envoie l'information au GPU, qui relance le calcul d'une image, et ainsi de suite. Donc au final, le nombre d'images à afficher varie, selon la puissance du GPU.
Là où ça pêche, c'est que tu penses que la fréquence de rafraîchissement de l'écran varie. Admettons que ta théorie soit vraie, ça voudrait dire que si le GPU baisse en fps, le module G-Sync empêche l'écran de se rafraîchir tant qu'il n'a pas reçu de nouvelle image du GPU, c'est bien ça ? Mais ça voudrait aussi dire que si l'on descend sous la barre des 30 fps, on devrait voir à l'oeil nu des "trous noirs" entre l'affichage de 2 images. Parce que si le GPU est vraiment pas puissant, il faut quand même afficher une image à l'écran en continu, histoire d'avoir du lag, pas un scintillement. Or c'est du scintillement que tu nous proposes avec ta théorie. Certes, du scintillement sous les 30fps a été vu sur certains laptops, et même sur l'écran AOC de ce deal. Mais on a aussi pu observer du lag sur le ROG Swift à la place du scintillement... C'est donc que ce n'est pas un effet du au module G-Sync, mais bien propre à l'une des caractéristiques de la dalle de l'écran (électrons, quand tu nous tiens...).
Quand l'écran ne reçoit pas suffisamment d'images pour maintenir un affichage constant, le module G-Sync dit à l'écran de réafficher la dernière image disponible dans son screen frame buffer, et c'est là qu'est la force de G-Sync, c'est que même si le GPU venait subitement à fournir une image complète à l'écran avant que celui-ci ait fini d'afficher celle que le module G-Sync lui avait ordonné de réafficher, le module G-Sync dirait à l'écran de ne pas afficher tout de suite cette dernière image complète envoyée par le GPU, même si elle est stockée dans le screen frame buffer, et d'attendre de voir s'il en reçoit une autre assez rapidement. Si le nombre de fps augmente considérablement, pour pallier à ce problème et éviter du tearing, le module G-Sync va décider de supprimer du screen frame buffer quelques images qu'il va juger "inutiles" car elles sont redondantes entre elles.

Le module G-Sync n'est pas la solution à tous les problèmes du monde, mais il agit comme un modulateur d'affichage, et c'est là tout ce qu'on lui demande. Dans tous les cas, il faut quand même préciser que seules les cartes GTX séries 600 et + sont concernées.
Ben_Sen_Sizz

Le 10/12/2015 à 14h26

#23 Signaler
Yeino, je n'ai pas lu ce que tu as écrit... mais merci de tes explications :D
arthurg

Le 10/12/2015 à 15h10

#24 Signaler
Juste pour arthug, un peu d'algorithmique de base :

SI (ma carte est suffisamment puissante) ALORS
=> On exécute le code ici
SINON
=> On exécute plutôt le code ici

Des enfants de CM2 arrivent à comprendre ce concept. Le fait que tu en sois incapable ne fait que me conforter dans l'idée que le niveau culturel moyen baisse d'année en année...
D'ailleurs, la G-Sync n'a pas un comportement de V-Sync. La V-Sync continue de calculer des images qui ne seront pas affichées. La G-Sync empêche le calcul d'images inutiles. Et je te répète que la fréquence de rafraîchissement de l'écran ne varie pas. Voici un lien où les ingénieurs nVidia s'expriment à ce sujet :
http://www.geforce.com/whats-new/articles/introducing-nvidia-g-sync-revolutionary-ultra-smooth-stutter-free-gaming

Concernant le lien lesnumeriques.com, ils précisent bien "Avec le G-Sync, l'écran s'adapte donc automatiquement et va afficher une image dès qu'elle est envoyée par le GPU". Mais tu comprends de travers.
Ici aussi c'est vulgarisé :
http://www.clubic.com/technologies-d-avenir/article-616890-1-nvidia-g-sync.html

Donc les gens sont tentés de croire que le GPU fait ce qu'il veut, qu'il calcule des images à 100% de ses perf, et qu'il envoie tout à l'écran qui affiche les images dès qu'il les reçoit. Mais attends, avec un tel système, le GPU surchaufferait sans limite et pourrait rendre l'âme plus rapidement... Et ce n'est pas justement ça qui posait problème avec la technologie CRT ? Le fait que l'écran affiche une image dès qu'il la reçoit provoque du "tearing" ou "micro-tearing". Comme je l'ai déjà décrit plus haut, on pourra observer lors du tearing un découpage horizontal de l'écran, avec en haut un morceau de la dernière image reçue, et en bas un morceau de l'ancienne image. On avait du tearing lorsque le GPU envoyait plus d'images à l'écran que le nombre maximal d'images que pouvait afficher l'écran. Un écran à 60Hz ne pouvait pas afficher plus de 60fps, donc si le GPU lui en envoyait plus, ça faisait planter le moteur d'affichage de l'écran. Dans le cas où on activait la V-Sync pour corriger ce problème, le GPU ne pouvait plus envoyer plus de 60fps vers l'écran, donc le tearing maximal disparaissait. Par contre, dans le cas où le GPU envoyait moins de 60fps vers l'écran avec la V-Sync activée, l'écran réaffichait une seconde fois la même image parce qu'elle n'avait pas reçu la nouvelle à temps, et affichait la nouvelle dès qu'elle la recevait, ce qui provoquait de nouveau du tearing. D'autres problèmes étaient inhérents à la V-Sync, comme le micro-stuttering, le screen frame buffer lag, ect.
Le module G-Sync dans l'écran va forcément agir différemment selon le nombre d'images reçues par le GPU, soit augmenter le renouvellement d'affichage, soit le diminuer, selon la puissance du GPU. Comme le montrent les graphiques de mes liens précédents, sous G-Sync, le GPU calcule plusieurs images d'affilée, puis les envoie à l'écran qui les stocke autant qu'il peut dans son screen frame buffer, et dit "stop" au GPU quand son buffer est plein. Le GPU arrête alors de calculer et attend un signal de l'écran lui disant qu'il faut qu'il en recalcule. Techniquement, dès qu'une position se libère dans le screen frame buffer, le module G-Sync envoie l'information au GPU, qui relance le calcul d'une image, et ainsi de suite. Donc au final, le nombre d'images à afficher varie, selon la puissance du GPU.
Là où ça pêche, c'est que tu penses que la fréquence de rafraîchissement de l'écran varie. Admettons que ta théorie soit vraie, ça voudrait dire que si le GPU baisse en fps, le module G-Sync empêche l'écran de se rafraîchir tant qu'il n'a pas reçu de nouvelle image du GPU, c'est bien ça ? Mais ça voudrait aussi dire que si l'on descend sous la barre des 30 fps, on devrait voir à l'oeil nu des "trous noirs" entre l'affichage de 2 images. Parce que si le GPU est vraiment pas puissant, il faut quand même afficher une image à l'écran en continu, histoire d'avoir du lag, pas un scintillement. Or c'est du scintillement que tu nous proposes avec ta théorie. Certes, du scintillement sous les 30fps a été vu sur certains laptops, et même sur l'écran AOC de ce deal. Mais on a aussi pu observer du lag sur le ROG Swift à la place du scintillement... C'est donc que ce n'est pas un effet du au module G-Sync, mais bien propre à l'une des caractéristiques de la dalle de l'écran (électrons, quand tu nous tiens...).
Quand l'écran ne reçoit pas suffisamment d'images pour maintenir un affichage constant, le module G-Sync dit à l'écran de réafficher la dernière image disponible dans son screen frame buffer, et c'est là qu'est la force de G-Sync, c'est que même si le GPU venait subitement à fournir une image complète à l'écran avant que celui-ci ait fini d'afficher celle que le module G-Sync lui avait ordonné de réafficher, le module G-Sync dirait à l'écran de ne pas afficher tout de suite cette dernière image complète envoyée par le GPU, même si elle est stockée dans le screen frame buffer, et d'attendre de voir s'il en reçoit une autre assez rapidement. Si le nombre de fps augmente considérablement, pour pallier à ce problème et éviter du tearing, le module G-Sync va décider de supprimer du screen frame buffer quelques images qu'il va juger "inutiles" car elles sont redondantes entre elles.

Le module G-Sync n'est pas la solution à tous les problèmes du monde, mais il agit comme un modulateur d'affichage, et c'est là tout ce qu'on lui demande. Dans tous les cas, il faut quand même préciser que seules les cartes GTX séries 600 et + sont concernées.

Je suis en deuxième année d'école d'ingé en informatique, l'algo ça ira, je suis d'accord que le code exécuté n'est pas le même, mais il ne dépend pas de la carte mais plutôt de la situation (même si à situation égale avec une carte différente, le comportement peut changer, comme dans mon exemple du précédent post).

Au temps pour moi pour la variation de la fréquence de rafraîchissement, je pensais que la fréquence variait, mais c'est en fait fait "artificiellement" par le tampon du GSync. Pour l'exemple sous les 30 Fps la question ne se pose pas vraiment car c'est le minimum imposé par Gsync avant de switcher en V-Sync (https://forums.geforce.com/default/topic/807227/does-g-sync-have-a-minimum-refresh-rate-/).


En revanche quand tu dis " La V-Sync continue de calculer des images qui ne seront pas affichées" je ne suis pas tout à fait d'accord, sans avoir vérifié la doc, en Vsync Off j'ai ma CG qui est au max de sa puissance alors qu'en On c'est pas du tout le cas, c'est que les images ne sont pas calculés à 300FPS comme c'est le cas en Off....

Je pense qu'il y a eu quelques incompréhensions entre écran/module G-Sync lors de notre conversation, désolé ;)

Laisser un commentaire

Des champs obligatoires n’ont pas été remplis, ou l’ont été incorrectement.