CG, moniteurs

Suite à des conseils sur PdG, je me permets d’ouvrir ce petit post pour avoir des infos/avis.

Quel est lien entre la puissance de la carte graphique et le moniteur ? J’entends par là : est-il justifié de prendre une 8800GT 512Mo si on n’a pas trop de sous et qu’on opte pour un moniteur plutôt entrée de gamme 19" ou c’est peut-être moins bête d’aller vers du 330 MO voire une carte en-dessous ?

Je sais que la ram de la CG va gérer les textures etc. et que les jeux deviennent nettement plus gourmand sur ce point depuis un moment.

Je n’ai pas de modèle spécifique pour le moniteur, c’est simplement une question suite à une discussion sur une config. L’idée, c’est que si le moniteur annihile une partie des perf de la CG alors on peut voire un peu moins cher (vu qu’il est délicat d’augmenter en gamme de moniteur car ça monte vite je crois).

Je ne sais pas si je suis très clair…

ps : j’ai mis ça ici car ce n’est pas à proprement parler une info pour une config mais n’hésitez pas à déplacer.

Je pense que c’est tout simplement une question de trouver quelle CG te donne un rendu satisfaisant à une résolution donnée… :slight_smile:

Non ?

Une haute résolution demande une surtout une mémoire graphique Conséquente pour l’affichage des textures. A partir du 1680*1050 (réso classique pour des 22" wide) il est intéressant d’avoir plus de 256Mo de RAM sur la carte graphique. Après pour les perfs pures ça dépend plus du jeu en question (s’il est gourmand en ressources ou pas)

En gros, tu veux jouer sur un 19 pouces .

Pour moi, la carte graphique permet de monter en qualité, dans le paramétrage du jeu.

L’écran n’est pas concerné . Sauf peut être le temps de réponse de la dalle. Sachant après il y a les fou furieux des chiffres, et les joueurs lambda.
Il faut pas non plus prendre un ecran cheap qui fouterai en l’air le jeu : rémanence je crois, qui est du au moniteur non ?

Alors, non, un moniteur, tel quel, « n’annihile » pas une partie des perfs. Un moniteur c’est un bout de matos, tu lui demande d’afficher des trucs, et il les affiche (s’il le peut, j’y reviendrai).

Un moniteur, ça affiche des images, dans une résolution donnée. Un pc, ça calcule des images, dans un résolution donnée.

Avant, avec les CRT (ecrans cathodiques), c’etait un canon a éléctron qui viendait taper dans un masque RGB, et en fonction de l’intensité du rayon, le point etait plus ou moins allumé, ce qui faisait de la couleur. (voir ici pour plus d’infos). La résolution affichée pouvait etre tres variable, et le truc important a prendre en compte etait alors le pitch. Au plus que c’etait petit, au mieux que c’etait. De fait, tu pouvais afficher en plein ecran des résolutions variées, sans que cela ne soit trop génant (un pixel de l’image etait alors composé de un ou plusieurs des pixels de l’ecran). Certains écrans pouvaient monter tres haut en résolution. Mon vénérable 19" Iiyama est capable d’afficher du 1600 * 1200 sur toute sa dalle, en 60hz.

Maintenant avec les LCD, on a une résolution dite « native ». En gros, tu as physiquement sur l’ecran (longueur * largeur) pixels. Par exemple, la résolution native d’une dalle 19" (en 5/4) c’est 1280 * 1024. En Wide, ça sera 1440 * 900. Un 22" wide affiche 1680 * 1050 (soit 1 764 000 vrais pixels).
Seulement, si tu veux afficher une résolution inférieure, tu as 2 choix possibles :
[ul]
[li]soit tu demandes a ton écran de n’afficher que les pixels physiquement « sollicités ». Tu affiches donc une image physiquement plus petite dans une grande dalle (les autres pixels de ton écran étant éteints).[/li][li]soit tu ne dis rien a ton écran, et celui là va partir du principe que tu utilises toute la surface dispo pour projeter ton truc en résolution inférieure. Il en résulte alors un phénomene de mise a l’echelle, qui peut avoir plusieurs désagréments visuels.[/li][/ul]

La mise a l’echelle, c’est le mal. Ton ecran va étirer l’image en réso inférieure, pour l’afficher sur une zone physiquement plus grande. Résultat, un pixel de l’image va venir plus ou moins s’étaler, au petit bonheur la chance, sur 3, 4 pixels physiques, avec des effets de flou pour atténuer cette approximation. Concretement, tu vas avoir l’impression d’une image baveuse. Ensuite, si tu projettes une image dans une proportion qui n’est pas celle de ton écran, tu vas avoir un probleme « d’aspect ratio » (de proportion donc :slight_smile: ). C’est comme si tu dessinais un personnage sur un ballon. Quand il est dégonflé, ton personnage a une certaine proportion. Etire le ballon avec les doigts pour l’étaler dans une zone qui n’est pas de la meme proportion que ton ballon, et tu te retrouves avec un bonhomme qui ressemble a un nain, ou un géant (ou a rien).

Et arrivé là, tu te dis « ok, mais tout ça pour dire quoi ? ». Bah tout ça pour dire que sur un LCD, on joue en résolution native (ou alors on se retrouve a faire du picture in picture avec des bords noirs, parce que du 1280 * 1024 projetté sur du 1680 * 1050 c’est dégueulasse et on a l’impression que tous les personnages sont cousins avec Gimly ou Pippin). C’est donc cette histoire de réso native qui va faire que tu joueras « dans une résolution ». Et c’est ça qui va conditionner le choix de ta carte graphique. (apres plein d’autres trucs comme ton CPU, ta ram, et ton appréciation personnelle et ta sensibilité d’esthete).

Donc c’est pas tant la diagonale de ton moniteur qui va jouer, mais la résolution visée. Si tu es sur du widescreen, tu vas avoir environ 30% de pixels en plus a faire calculer a ta bécane.
en 16/10 (réso d’un 20/22" wide) > 1680 * 1050 = 1 764 000 pixels a calculer.
en 5/4 (réso d’un 19") > 1280 * 1024 = 1 310 720 pixels
en 4/3 (la résolution des hommes, les vrais) > 1280 * 960 = 1 228 800 pixels

en 1680 * 1050 c’est 43% de pixels en plus que dans un 1280 * 960, et 34% de plus qu’en 1280 * 1024.

Les résolutions wide demandent donc plus de ressources que des résolutions « classiques » (et inférieures, c’est assez évident non ? :crying: ). Ce qui implique alors que les recommandations de CG dans les configs prennent ce « calcul potentiel » en compte, et préconisent des CG avec plein de RAM.

Donc pour conclure : non, un moniteur ne va pas « ralentir » ta config. En revanche, c’est la résolution que tu demandes qui va conditionner tes choix de matos. Car comme expliqué plus haut, tu va vouloir jouer en réso native. Et pour ça, il va te falloir un « surplus » de puissance, qui se traduira alors par un peu plus de ram (donc 512 c’est bien). Enfin, il ne faut pas oublier que sur PC, on a plein de petites options pour faire joujou, et pour réduire le boulot du couple CG/CPU (par exemple, je joue a TF2 en 1680 * 1050 avec un 6600 GT. Ouais chuis un lowtech).

EDIT : ne pas oublier que le jeu avec les configs pc, c’est de chercher l’equilibre. C’est pas la peine d’avoir un moteur de porsche 911 si tu es sur un chassis de Ford Ka avec des pneus de Rav4. Il faut que tout le monde travaille de concert. Par exemple, il serait totalement idiot de ma part d’acheter une 7900 GT AGP pour mon Athlon 2700+, parce que la CG se tournera les pouces 80% du temps, vu que le CPU sera incapable de fournir du matos a traiter en temps et en heure.

@Ravine : C’est beau ce que t’écrit, on dirait du C_Wiz :slight_smile:

(sauf que je suis loin d’avoir sa qualité d’écriture et ses connaissances / compétences. Mais ça fait plaisir :slight_smile: merci)

Ah voila des explications bien complètes !
Je crois que je cerne mieux tout ça maintenant. Je vais continuer de me renseigner mais un grand merci à tous (avec un bonus pour Ravine :)) d’avoir éclairé ma lanterne. Cela va me permettre de mieux comprendre pas mal de truc dans le choix d’une config. J’attaque le partage de tache CPU/CG/Ram et j’aurais fais de grands pas dans la connaissance !

Je complète ce qu’a dit Ravine qui résume déjà bien :

  • La “puissance” du GPU (8800 GS vs 8800 GTS) est en gros fixe en pixel par seconde. Plus l’écran est grand (plus de pixel dans une image) et moins tu affiches d’images par secondes.
  • La quantité de RAM, à fréquence égale (les 8800 GT 256 par exemple suxxent des ours), n’a pas beaucoup d’impact sauf à être en haute résolution ET chercher a faire de l’anti aliasing. La quantité de RAM est le premier argumentdes constructeurs de cartes 3D parce que ca fait des gros chiffres sur la boite, c’est le dernier truc à influer sur les performances.

Moi, je trouve que les résolutions en 16:10 en fait c’est bien. Ha oui et selon la façon dont on calcule on peut aussi se dire que 16801050, c’est largement moins de pixels à calculer que 16001200, ce me semble résolution des 20 pouces 4:3. De toutes façons, les hommes, les vrais, tournent avec 2 écrans 30 pouces, chacun sait ça.

Bah, si 1+1 = 1, effectivement, ca change toute la donne :slight_smile:

certes (1 920 000 pixels pour du 1600 * 1200), mais en CRT, cette résolution n’etait vraiment jouable qu’a partir du 21" de vrai bourgeois (c’etait vraiment trop petit sur du 19" de faux bourgeois). Et de plus en plus de “gens” (et de joueurs) se tournent à raison vers les widescreens, qui en plus d’apporter un confort indéniable, apportent un super confort encore plus indéniable (donc 2 fois plus indéniable qu’un 4/3 classique). De toute façon, de nos jours, quelqu’un qui achete un LCD 20" en 1600 * 1200 mérite le fouet (et je dis pas ça parce que je suis vendu a la cause du widescreen a tel point que je veux faire des bébés avec mon 22". Du tout).

Par DVI ou Vga ? :slight_smile:

Je vote HDMI.

DVI & DisplayPort FTW ! Le HDMI c’est evil parce que pleins de brevets :slight_smile: