Câble DVI/HDMI

Ca y est, j’ai commandé mon projo full HD, c’est la fête mais je me pose une question : je dois relier mon PC ( qui n’a que des sorties DVI ) au projo, qui lui n’a que des entrées HDMI ( enfin si on met de côté les entrées analogiques bien sûr ). La distance entre les deux sera comprise entre 7 et 10m.

J’ai vu un câble qui correspond à ce que je recherche : http://www.ldlc.com/fiche/PB00069088.html

Seulement, il n’est marqué nulle part qu’il est certifié 1080p, contrairement à ses homologues à plusieurs centaines d’euros, genre ca : http://www.axefil.com/793-ipgv110x-profigo…e-dvi-hdmi.html

Donc je voulais savoir si à votre avis le câble générique de LDLC est suffisant pour faire transiter du 1080p sur 10m, ou si je dois sortir plus de brouzoufs. J’ai déjà vu un test de lesnumériques portant sur des câbles HDMI/HDMI qui montre qu’il n’y a pas de différence à l’image, mais les câbles génériques testés coutaient quand même 2 fois plus cher que le câble DVI/HDMI que j’ai trouvé chez LDLC :

http://www.lesnumeriques.com/article-391-2477-93.html

Des avis sur la question ?

Perso j’utilise un cable DVI + adaptateur DVI -> Hdmi avec un adaptateur a 2 balles et ca marche impec en 1080 chez ATI et NV. Les seuls cas ou j’ai vu des problèmes avec des cables HDMI (full HDMI) c’est genre avec une PS3, c’est souvent plus un problème lié au fait que le câble soit pas certifié 1.3 et n’ai pas la bande passante pleine. Pour un usage PC ca semble pas être un problème, mais ca peut être intéressant de collecter d’autres avis sur le sujet.

Théoriquement en tout cas au cul d’un PC y’a pas de souci.

Adaptateur DVI → HDMI « on a mis un emballage quand même, histoire de gagner 5 euros » au cul du Mac mini, câble HDMI du même genre.
Et j’ai du 1920x1080p. C’est pas super-pratique pour bosser, cependant. :slight_smile:

Perso j’utilise un câble Fnac (donc probablement du même tonneau que le générique LDLC) HDMI -> DVI de 10 mètres pour relier le PC à la TV et j’ai déjà fait passer du 1080p dessus sans problème.

OK, merci à tous pour vos réponses :slight_smile:

Sinon, ôtez-moi d’un doute : le HDMI 1.3, ca n’existe pas encore sur PC, non ? Et est-ce qu’il y a déjà des blu-ray qui le gèrent ( en particulier le deep color ) ?

Non et non.

Il y a plusieurs paramètres qui définissent la quantité de données qui vont transiter par le cable.

  • La résolution
  • Le progressif / entrelacé
  • Le nombre d’images par secondes
  • Le nombre de bits par pixels.

Théoriquement, le maximum d’avant les spécifications fantaisistes d’HDMI 1.3 sur du single channel (3 fils pour les images) étaient 1920*1080p @60hz, 24 bits par pixels.

Pour un film, on recherche du 1080p@24hz, ce qui fait nettement moins en terme de bande passante. Le débit n’est donc pas le même pour de la video et pour du jeu…

@C_wiz : OK impeccable, je peux donc acheter mon câble noname sans remords du style « oui mais j’aurais du investir pour l’avenir » :slight_smile:

@Gring : effectivement, j’y avais pensé aussi, et après vérification sur wikipedia il semble que le HDMI module bien sa fréquence d’émission en fonction du débit de données à transmettre. Donc moins on transmet de données et moins le câble doit tenir la charge…

D’ailleurs à propos du 1080p24, le menu de ma carte graphique propose 24Hz ou 50/60Hz ( je sais plus ) pour la deuxieme sortie DVI, que je compte relier au vidéoprojecteur. Pour un PC qui lit un blu-ray, il vaut mieux utiliser quelle fréquence d’affichage ? ( Pour un lecteur de salon, je me doute qu’il vaut mieux utiliser la fréquence « native » de 24Hz, mais sur un PC où le vidéoprojecteur est géré comme un deuxième écran j’ai un doute )

Théoriquement 24p, dans la pratique ca dépend de la TV/projecteur/carte graphique/logiciel utilisé pour décoder.