J’ai compris l’article exactement comme Hoaxymore.
On dit exactement la meme chose Haoxymore … La nature du cable peut jouer, et qu’un cable plus cher a plus de chance d’etre moins sensible aux perturbations. Mais qu’effectivement, ca n’apparait que pour les longues distances.
Et surtout, quelques soient le cable, l’image sera la meme si elle n’est pas perturbée.
Par contre, et c’est le but du post d’ana-l et c’est ce qui est montré dans l’article : c’est pas soit ca marche, soit ca marche pas. Tu peux avoir du bruit sur un signal perturbé.
Et la conclusion c’est « En deux mots pour l’utilisateur lambda : prends celui à 3€50. SI tu as une longueur de cable inferieur à 15m … ».
Et j’ai toujours pris le cable à 5€ C’est juste qu’ici, l’auteur explique que c’est plus fin que la simple vulgarisation « tout les cables sont les memes ». Il peut y avoir des differences sur la protection aux perturbations sur le signal, mais ca n’arrive que sur les grandes distances.
C’est bon a savoir si un jour tu dois relier deux équipements loin l’un de l’autre.
Sauf que physiquement ce n’est pas du bruit, mais un signal erroné ou absent. Le fait que cela ressemble à de la neige sur la télé n’a rien à voir. Ce qui est une erreur (et ce que, à mon humble avis, dénonce Ana-l) c’est l’interprétation de cette phrase par : en numérique, soit il y a une image parfaite, soit y’a pas d’image du tout.
Et, comme dis dans l’article, l’un des intérêts du numérique, c’est de pouvoir, sans coût supplémentaire important, envoyer des signaux en différence de phase de façon à supprimer le bruit sans nécessité de blinder les câbles lourdement.
(pour l’anecdote : c’est l’une des raisons pour laquelle dans l’instrumentation spatiale, on utilise de l’analogique entre l’instrument et son boitier électronique - qui lui peut numériser si besoin- car on est de toutes façon obliger de blinder les câbles pour la propreté électromagnétique)
oui, c’est bien ce que je voulais dire par bruit, comme je l’ai mis dans mon premier post :
Je pensais pas qu’il y avais une définition précise du terme bruit
Y’en a plein, mais toutes se rejoignent sur le fait qu’en absence de signal, y’a pas de bruit. Mais je t’accorde que pour l’utilisateur, ça change pas le fait que l’image est mauvaise.
Et histoire de ne pas être mal compris : un câble hdmi est sensible au parasite (voir très sensible), mais la norme hdmi permet de s’en débarrasser dans de nombreuses utilisations usuelles (je n’estime pas qu’avoir besoin d’un câble hdmi de 50 m passant à côté d’un transformateur HT-BT dans un bâtiment en granite soit une utilisation usuelle )
Pas tout à fait, l’image n’est pas envoyée unitairement, elle est envoyée pixel par pixel. Soit le pixel est bon et aucune différence possible entre cable, soit le pixel est mauvais et il ne ressemble en rien au pixel d’entrée. Mais une situation où 5% des pixels sont mauvais est possible, d’où la neige.
Tin mais serieusement, sortez pas les phrases hors contexte pour les contredire alors qu’en contexte elles disent la meme chose que ce que vous tentez de dire…
Surtout si c’est pour REDIRE ce qu’on dit de 12 manieres differentes depuis 12 posts quoi. Lisez un peu.
Ouais, n’extrayez pas les affirmations de leur cadre pour en dire le contraire, alors que dans leurs paragraphes, elles affirment des choses similaires à vos propos ! D’autant plus si c’est pour répéter les mêmes choses une douzaines de fois par des formulations différentes depuis une douzaine de messages. Concentrez-vous enfin sur la lecture.
Ouais, n’extrayez pas les affirmations de leur cadre pour en dire le contraire, alors que dans leurs paragraphes, elles affirment des choses similaires à vos propos ! D’autant plus si c’est pour répéter les mêmes choses une douzaines de fois par des formulations différentes depuis une douzaine de messages. Concentrez-vous enfin sur la lecture.
haha
:ninja:
@Ana-I : Oui, enfin là tu te concentres sur le cas du HDMI, mais généralement l’affirmation “le numérique ça passe ou ça passe pas” est quand même plutôt vraie d’un point de vue pratique.
Le meilleur exemple, c’est sur la télévision. En effet si la qualité du signal baisse progressivement (par exemple tu tourne ton antenne petit à petit) :
- en analogique, l’image se dégrade progressivement (il est même rare d’avoir une image parfaite à l’origine), mais même quand elle devient assez bruitée on peut continuer à regarder si on n’est pas trop exigeant (match de foot, JT, ça se voit même avec de la neige)
- en numérique (TNT), l’image est parfaite , mais quand la qualité devient trop mauvaise l’image se met à “sauter”, et ça devient irregardable très vite. Impossible de suivre une émission, par exemple.
Le HDMI est différent des codages numériques “classiques” parce qu’apparemment, l’image n’est pas codée comme un tout, mais subdivisée en tout petits groupes de pixels. Du coup, en cas de perturbation, tu ne perds que ce petit groupe, et l’image finale affiche de la “neige” et reste donc regardable comme de l’analogique.
Mais sur les systèmes comme la TNT où l’image est plutôt codée comme une seule entité, ou au moins comme des très gros blocs de pixels (ces systèmes sont à ma connaissance sont les plus répandus : Divx, MPEG4…), si la perturbation est trop forte tu perds de gros morceaux voire toute l’image d’un coup, et ça devient immédiatement inexploitable pour le spectateur. Et là, l’affirmation “le numérique ça passe ou ça passe pas” est parfaitement applicable.
Ha bah oui, forcement, si tu rajoutes de la compression sur tes données, quand tu perds un bloc, ca impacte nettement plus l’image.
Allez, parce que le fait que tout le monde dise « en numerique, ya pas d’entre deux, c’est ca marche ou ca marche pas »
Mais les gens la confonde avec « entre un cable numérique (avec un protocole numérique disons) soit l’image est bone soit elle n’est pas là » et ca c’est faux.
Car la différence entre le numérique et l’analogique, c’est que le récèpteur en analogique ne sait pas que l’image est détériorée et va afficher les erreurs qu’il recoit comme si elles étaient justes. Alors qu’en numérique il sait que la donnée est érronnée (avec un crc) et va la gérer en conséquence avec des systèmes correctifs.
Que ce soit en réseau, audio, video, etc, il aura des moyens d’agir en conséquence:
- Dans le réseau: l’emetteur recoit du recepteur un accusé reception et va donc réémettre encore le meme packet au détriment du débit, jusqu’à générer un drop si ca se répette trop
- Dans l’audio: il va émettre des fréquences moyennes avec les packets adjacents, d’ou l’effet de « clik » si le nombre de packets perdus est trop important
- Dans la vidéo: les récèpteurs sont capables d’afficher des pixels moyens pour eviter l’effet de neige (qui revient à afficher un vilain pixel blanc)
- Dans l’emission TNT: idem que pour la video, les recepteurs vont tenter de corriger au mieux en affichant des block moyens plutot que des gros blocks caca rose/bleu/jaune
- etc…
Le corrolaire étant donc que la qualité d’un cable numérique, comme en réseau ethernet, n’est interressante que dans des cas particuliers: grande longueurs et/ou pertubations sur le chemin. En dehors de ca, tu ne verras pas de différences.
pour illustrer:
j’adore aussi les tests en aveugle avec les memes cables, où les gens voit des différences