[COMPRIS] Difference entre un ecran d'ordi et une tele

Salut les gens,

Bon, j’ai une question qui me tarabuste et qui est vraisemblablement stupide mais, comme on me l’a si bien appris, il vaut mieux passer pour un con que de le rester.

Il y a 10 ans, on utilisait un ecran d’ordinateur (avec une prise VGA) pour l’ordinateur et une tele (avec une Peritel) pour les consoles et regarder Drucker (je passe sur l’ecran avec Peritel pour jouer a l’Atari et l’Amiga).

Maintenant, existe-t-il une difference autre que la presence d’un tuner entre une tele et un ecran d’ordi (a part 16/10 pour l’un et 16/9 pour l’autre) ? Est-ce qu’on peut brancher n’importe quel ordi ou console sur l’un ou l’autre ? Nan parce qu’on parle de teles 40+ pouces et les ecrans ne semblent pas depasser 30 pouces, alors je ne saisis pas ce qui empeche d’utiliser son ordi sur la tele et ainsi de beneficier d’une diagonale superieure. Y a encore une difference de connectique ? Parce qu’a diagonale egale, les teles sont moins cheres, non ?

J’avais bien dit que c’etait une question con, hein.

Ben, la différence est toujours un peu la même… la résolution. Un écran de 30pouces a une résolution 25601600, un 24 pouces est en général à 19201200. une tv ne dépasse jamais le 1920*1080 (quand elle est haut de gamme en vraie HD).

En plus, comme à l’époque, une TV n’est pas faite pour être regardée de près, alors, si c’est possible d’utiliser une TV comme écran d’ordi pour les modèles haut de gamme, je te déconseille de le faire avec un truc d’entrée de gamme sous peine de devenir aveugle.

edit: Il est cependant vrai que les différences sont moindres qu’à l’époque du cathodique. A l’époque, il y avait aussi l’entrelacement, le pitch, et surtout la fréquence de rafraichissement.

Je pense qu’on peut rajouter a la liste :
[ul]
[li]la connectique[/li][li]une partie de l’electronique[/li][li]les dalles[/li][li]le calibrage[/li][li]le prix[/li][/ul]
un écran de PC c’est du multi tache, une TV c’est de la video. Donc l’electronique interne va intégrer tout un tas de filtre de traitement (pas mal d’ecrans actuels integrent enormément d’electronique de filtrage du bruit video, alors que sur PC, c’est pas le but premier, et donc tu te touches - ou tu gardes ton bruit. Ou tu demandes a ta CG de retraiter ça).

tu peux jeter un oeil chez Ere Numerique, qui a une section TV LCD / Plasma tres fournie, et notamment je pense au guide « Bien Choisir » qui explique plein de trucs.

(edit : j’ai rippé sur le dossier)

(Re edit : et les diagonales. C’est pas les memes diagonales. Pas la meme distance d’utilisation, tout ça. Et pour revenir sur la connectique, la plupart des écrans de TV sont dépourvus de DVI, donc pour le mode PC, VGA. Ahem :confused: )

[quote=“Ravine, post:3, topic: 47586”][ul]
[li]les dalles[/li][li]le calibrage[/li][/ul][/quote]

J’ai parcouru en (grande) vitesse le dossier d’erenumerique, mais je n’ai pas vu de comparatif TV/ecran. Par exemple, pour la lecture de DVD ou Bluray, y a-t-il une difference de qualite ?

D’autre part, gring mentionne qu’une TV n’est pas faite pour etre regardee de pres ? La encore, a quoi la difference est-elle due ?

Si c’est dans l’un des deux liens que tu as files, mes excuses, je vais regarder ca plus en detail.

Merci des reponses, en tout cas.

J’ai pas trouvé de comparo TV/Pc non plus. En meme temps, on compare pas les choux et les genoux (ou les hiboux, au choix). Les TV LCD sont des écrans qu’on matte a plus de 2 metres (pour poser une limite basse). Pour les écrans de PC, on est dans des distances inférieures a 1m la plupart du temps. Et on ne matte pas une 40" de pres pour la meme raison qu’on n’aime pas etre a 3 metres de l’ecran au cinéma (entre autres). :slight_smile:

Pour la lecture de flux videos, comme je l’ai dit au dessus, pas mal d’écrans TV integrent de l’electronique qui va filtrer le signal en entrée pour virer le bruit, ou faire d’autre traitements dont je n’ai pas connaissance (celles ci etant plus que limitées sur le sujet). Ensuite tu causes DVD et Blu Ray, qui sont 2 problématiques différentes. D’un coté un flux HD (da Blu Ray), et de l’autre, un flux super pas HD du tout. Donc t’as une TV qui est equipée pour afficher des sources en réso native HD pouet, et on lui file un flux dans une résolution inférieure : hop hop, upscaling (mise a l’echelle). Donc ça integre en plus plein de petits raffinements pour gérer du signal « tout pourri » comme les chaines pas HD de la TNT et les DVD.

Pour les dalles, c’est assez « evident ». On est dans une utilisation « distante » (cf les 2m mini dont je cause plus haut), donc on tape souvent dans du 24/27" en entrée de gamme (ouais, pour le pc c’est notre haut de milieu de gamme, :crying: ) et ça monte facilement aux alentours de 37" / 40" / 42" (voire 52"). Donc « logiquement » (j’avoue ne pas avoir collé ma gueule sur un mur d’ecrans 32" pour voir ce que ça donnait) on va se retrouver à voir les pixels qui composent l’image des l’instant qu’on va venir coller notre museau sur l’ecran. (attention, je suppute fortement là. J’ai vraiment pas fait le test. Et honnetement, on ne se colle pas a un ecran de plusieurs cm de diagonale. On se recule pour apprecier l’image dans son ensemble. Non ?)

Je me posais une question pour l’upscaling: c’est la TV (ou l’ecran) qui le fait ? Ca ne pourrait pas etre le PC (ou le lecteur DVD) qui envoie un joli signal deja upscale (avec traitement intelligent) dans la resolution native de l’ecran ? Parce que mater un DVD sur ecran d’ordi, c’est propre, alors que tu dis toi-meme dans un autre thread qu’afficher quelque chose dans une resolution non native est souvent degueulasse.

Là ça dépasse mon expérience et mes compétences. Je sais juste que les écrans de TV actuels intégrent deja tout ces filtres pour le traitement des signaux pas HD. C’est pour ça que dans les tests d’ere num ils testent les sources HD et les basses defs (par définition : les dvds). Et l’avantage avec les DVD, c’est que c’est un standard, donc ils savent deja de base sur quelle résolution ils vont travailler. En informatique tu balances a peu pres ce que tu veux, et ce a partir de 320 * 240 (ouais j’exagere, mais c’est pour donner une idée. Genre, quelqu’un a deja utilisé du 1152 * 768 dans ses jeux ?). Et dans cet autre thread, je disais que c’etait moche, mais c’est parce que je sais qu’il existe la réso native, et que le scaling ça fait mal a ma sensibilité geekienne d’esthete. Je connais des gens qui pourraient jouer en 800*600 projeté sur un 22" sans que ça les choque ni que ça les dérange.

[quote=“genji, post:6, topic: 47586”]Je me posais une question[/quote]Tu te poses beaucoup de questions.

[quote=“genji, post:6, topic: 47586”]pour l’upscaling: c’est la TV (ou l’ecran) qui le fait ?[/quote]Ca dépend. Y’a un scaler dans toutes les TV par défaut (pas forcément dans tous les écrans), mais si tu as un lecteur de DVD avec une sortie HDMI ou YUV, y’a de fortes chances qu’il upscale lui même. Idem sur pc on peut faire pareil avec Dscaler.

[quote=“genji, post:6, topic: 47586”]Parce que mater un DVD sur ecran d’ordi, c’est propre, alors que tu dis toi-meme dans un autre thread qu’afficher quelque chose dans une resolution non native est souvent degueulasse.[/quote]On a des notions très relatives de la propreté, mais bien entendu, tous les PowerDVD/VLC/DirectShow intègrent un concept plus ou moins poussé de l’upscaling.

Et c’est mal ?

Pour le reste, merci des reponses, ca desembrume pas mal ma pensee.

Il y a quand même quelques écrans qui ont une entrée DVI il me semble, et sinon ils ont tous une entrée HDMI par laquelle on peut brancher le PC par un câble DVI->HDMI, ce qui est équivalent à du DVI->DVI avec juste la forme du connecteur qui change. Donc niveau connectique, ca change pas tant que ca entre TV et PC.

Par contre, comme expliqué dans les posts précédents, la diagonale augmente mais la résolution reste la même, donc les pixels sont plus gros. Donc c’est pas si intéressant que ca de monter en taille d’écran, et tu risques même de t’arracher les yeux.

Ou pas. Les DVI sur les TV sont gérées différement sur la majorité des modèles, on ne peut pas entrer des résolutions « TV » dedans. On a généralement de meilleurs résultats en VGA, ce qui est ironique. Le meilleur moyen de connecter son PC a sa TV est un cable DVI + adaptateur DVI->HDMI, là on a accès aux vrais résolutions supportéés par l’écran.

[quote=« genji, post:9, topic: 47586 »]Et c’est mal ?[/quote]Ca use nos claviers ! :slight_smile:

:slight_smile: Eh ben on en apprend tous les jours, et c’est bon à savoir…

Quand je pense que pas mal de constructeurs mettent en avant les entrées DVI, alors qu’on obtient un meilleur résultat avec les entrées HDMI qui sont montées en standard, c’est moche ! ( Donc en fait le seul avantage du DVI->DVI sur le DVI->HDMI c’est le câble qui est un peu moins cher, c’est ca ? )

Ses gens ne méritent pas d’avoir des yeux…

Sinon, la distance entre l’écran et le sujet n’est pas proportionnelle à la taille de l’écran mais à la taille de ce qui est affiché dessus.

En clair, en 576 lignes, je vais me mettre à une distance égale à 4 fois la diagonale de mon écran (576 lignes étant le nombre de ligne affichées par votre téléviseur lorsque vous regardez le décolleté de Lio dans la Nouvelle Star, ne niez pas, on a les preuves…)

Dans une résolution plus élevée, on va se rapprocher de l’écran jusqu’à se retrouver avec les résolutions informatiques à plus ou moins 1 mètre de l’écran sans voir le pitch pour les LCD dans leur résolution native (oui, 640x480 sur votre 30", ça fais saigner même des oreilles…)

Question idiote : prendre un cable hdmi et le même adaptateur revient au-même j’imagine ?

En gros, et pour simplifier à l’extrême, HDMI = DVI + Son

Après, si on veut pousser le bouchon un peu (mais pas trop loin, Maurice), il existe du HDMI type A, qui est en gros similaire à du DVI single link et du HDMI type B similaire à du DVI dual link (pour le futur et les résolutions énormes…)

HDMI c’est du signal numérique qui est véhiculé, comme sur le DVI, avec le son en plus sur le connecteur.

Donc oui, Cable HDMI plus adaptateur HDMI>DVI = Cable DVI plus adaptateur DVI>HDMI

Merci

Mais personnellement, et parce que les connecteurs de connecteurs de connecteurs et autres petites merdouilles adaptatrices sont assises à la droite de Lucifer, je te conseille plutot de prendre un cable avec d’un coté un connecteur HDMI et de l’autre un connecteur DVI

Respire un bon coup, ca ira mieux :crying:

En plus avec tout le matos qu’il reçoit avant tout le monde, il nous fera pas croire qu’il est en panne de claviers. Si ça se trouve il a écrit le post avec un prototype Optimus :slight_smile:

Oui, il utilise meme le proto a 3 touches. 1 touche pour le caractere, une pour valider, et la derniere pour faire défiler les caracteres. C’est pour ça que c’est long. Et c’est pour ça que ça l’use (le clavier comme l’utilisateur). CQFD