Configs Geekzone : conseils matos et bons plans

hardware

#506

Et plus une 1080 ou plus les trucs QUADRO là ?


#507

La P4000 tourne autour des 1000€ pour un résultat probant mais cher là où tu peux choper une 1080 pour la moitié et bosser proprement, et y a même de la marge en prix pour un deal sur une 1080Ti pendant les soldes.

L’arbre qui cache la forêt c’est que la P5000 reste vachement plus intéressante si tu composes en UHD / 5K / 8K mais tu doubles d’un coup le prix pour au final perdre en thunes ce que tu ne gagnes pas vraiment en temps. De plus, tu ne rentabilises jamais ton investissement global. Autant une agence peut gérer l’achat et s’en sortir en rentabilisant sur deux bécanes et du montage à la chaîne (documentaires alimentaires, montages institutionnels etc), autant un freelancer va ramasser la douille de base et jamais sortir la grosse maille qui lui fera dire “ouais j’ai bien fait vu ce que ça me rapporte”.

Du coup je reste sur l’idée 1080 ou 1080ti s’il veut vraiment partir dur du 11Go GDDR5 (la P5000 est en 16Go), les prix étant quand même très attractifs pour un résultat tout à fait probant. Note supplémentaire, il aura moins de mal à refourguer une 1080/Ti sur le marché pour se reprendre une brutasse que de revendre une Quadro, qui en dehors de quelques initiés est parfois difficile à mettre sur le marché en occasion.

J’aurais mis un proc intel vu qu’ils fonctionnent bien ensemble mais le Ryzen est bien aussi, par contre on le redit, il prend du Seasonic 650 / 750w en gold et son ventirad, je mets du Noctua dedans parce que c’est la vie. “Östereich Über Alles”


#508

L’allemand, parfois, ça m’émeut.


#509

Allez, je met les retours qu’il a eu des mecs de mat.net, parce que why the fuck not, et surtout parce que ça peut intéresser des gens. Et c’est toujours bien de confronter les avis :slight_smile:

  • Alimentation Seasonic Titanium
    La véritable question est: pourquoi une Titanium ? Dans un soucis d’économie d’énergie ? Un simple calcul permet de déterminer le retour sur investissement. Entre une alimentation bronze et une Titanium il faudra au bas mot entre 5 et 6 ans afin de compenser l’écart tarifaire présent à l’achat.
    J’en profite également, en tant qu’ancien fan de Seasonic, qu’il est TRÈS loin le temps ou leurs alimentations étaient irréprochables. Se sont même devenus les plus mauvais élèves en terme de retour SAV. Les rails Seasonic sont utilisés par LDLC pour leur alim “maison” et ils vont changé au vu des retours SAV… (voir les rapports HFR qui épluche les taux de retours des différents constructeurs). Corsair utilise des rails CWT.
    Si votre ami pense à des pics d’ampérage trop importants sur le rail 12V… n’ayez crainte (la carte graphique ne sera jamais ou que très rarement à pleine charge). Le seul avantage à passer sur du Platinium ou du Titanium (au jour d’aujourd’hui) et dans ce cas bien précis) c’est pour la qualité des roulements à billes des ventilateurs qui sont presque systématiquement meilleurs.
  • RAM de 64Go
    Pourquoi pas, vous pourrez toujours les rajouter après. Mieux vaut déjà voir en l’état à combien vous pouvez monter au maximum de charge. 128Go ? Si je peux me permettre, on ne prépare pas non plus un blockbuster hollywoodien. L’ensemble carte mère / processeur n’est pas “compatible” avec les RAM qu’il vous propose (cf ce que je vous disais sur Ryzen et ses caprices concernant la mémoire).
  • Ecran
    Encore une fois, je rame en sens COMPLÉTEMENT inverse. Nous avons eu le LG au catalogue et nous l’avons retiré. Il coute le même prix que l’écran que je vous ai proposé. En revanche je suis d’accord, le Dell est bon. Je n’ai jamais vu le BenQ tourner. Votre ami a t-il eu l’occasion de voir les trois tourner et de les tester ?
  • Dernière remarque
    Je n’ai pas choisi cet écran pour sa profondeur de couleur 10bits mais parce qu’il est bon (profil colorimétrique, angle de vision, contraste, absence de fuites de lumière sur les deux modèles testés… et même à ce prix, croyez moi, c’est rare… petit coucou au LG 31MU97 :-))

Une bonne configuration est une configuration stable, homogène et fiable. Une association de composants doit prendre en compte beaucoup de choses: compatibilité, synergie et fiabilité. Tout ceci nécessite une veille technique permanente et un suivi des sorties et des retours produits main dans la main avec les constructeurs


#510

Il a l’air vexé qu’on suive pas aveuglément son conseil le monsieur… Après il a peut-être raison sur le fond, j’ai pas d’avis sur la config car c’est une utilisation complètement à l’opposé de ce que je fais avec mon matos, mais la forme, ouch !


#511

Oui ça a aussi été ma réaction quand j’ai lu ce qu’il m’avait fwd…


#512

La question la plus importante reste:
ton pote a-t-il besoin du 10-bit ou pas parceque le benchmark j’aurais tendance à dire osef. Le mec de Materiel.net n’a pas compris la problématique en fait. On ne prend pas une Quadro pour dire “cool, je suis un pro” on la prend parcequ’on a des besoins spécifiques pas couverts par la gamme GTX.
Ou alors on économise en prenant une carte additionnelle pour faire son contrôle de couleur sur un 2eme écran et du coup ne pas avoir besoin de Quadro.

Après, pour la RAM il a raison, j’ai pas vérifié si la CM accepte 128G de RAM… My bad
J’ai pas le temps là mais je regarderais ça dans la soirée.

Quant à la remarque “on ne prépare pas non plus un blockbuster hollywoodien” … hmm… la consigne c’est du “montage vidéo pro” donc, si! Je suppose que ton pote veut faire des trucs de quali et sait ce dont-il à besoin, sinon il aurait dit “montage vidéo amateur”. Je trouve ça naze comme remarque en fait.

Pour les alims on prend du Seasonic parceque ca:
http://www.jonnyguru.com/modules.php?name=NDReviews&file=print&reid=519
et ca:


A en perf et A++ en nuisance sonore avec une garantie constructeur de 12 ans sur la gamme Prime. Je suppose qu’il en confiance du coup…
(Pour info il n’y a pas d’alim qui a la note A+ en efficacité et que 5 qui ont la note A - dont 3 Seasonic https://cybenetics.com/index.php?option=database)


#513

Thx, je fais suivre :slight_smile:


#514

Juste pour expliquer la différence entre 8-bits colors et 10-bit colors.
En 8 bits on peut stocker 256 couleurs (2^8) par nuance R, G et B.
Du coup on peut addresser 256256256 = 16.7M de couleurs.
C’est le truc classique dont vous avez deja tous entendu parler.

En 10-bits (aussi appelé 30 bits parfois si on prend les 3 composantes R, G, B ensemble) on stocke:
2^10 = 1024 nuances par couleur
102410241024=1 Milliard de couleurs

La différence est énorme et elle est d’autant plus visible si on à une chaine complète 10-bits (caméra incluse).

Sur la vidéo ci-dessous vous voyez la différence. La vidéo est enregistrée en Vlog (du RAW en vidéo en quelque sorte).
Avec un color-grading extreme (ne jugez pas le choix des couleurs c’est fait expres pour montrer l’effet) on voit qu’en 10 bits le dégradé dans le ciel reste beau.
En 8 bits, si on pousse le grading, on perd des détails. On le voit sur le coucher de soleil en 8-bits à 0:22 où le dégradé est plus haché.
Vous allez me dire: "t’es gentil Skully mais j’ai un écran classique et pourtant je vois correctement le joli dégradé du 10-bits, t’essayes de m’arnaquer là."
Avancez à 0:41 et regardez le ciel après avoir subit un color grading provenant d’une source 10-bits. Là vous voyez les limites sur votre écran. Le dégradé n’est pas joli du tout, on voit clairement les cercles de couleurs.
Sur la jetée c’est encore plus visible ensuite avec les couleurs qui scintillent.

Mais j’ai fait pas mal de HS du coup… sorry


#515

• Alim
Sur la baisse de qualité Seasonic, je veux bien ses retours SAV parce que bizarrement y a pas un mot de Teraboule sur les retours SAV seasonic nulle part, et que les derniers rapports HFR (qu’il utilise comme justificatif) datent d’il y a six mois et un an, sans mention notable de seasonic hormis sur une seule alim 750w.

↑ Tu veux appuyer ton propos, file des data garçon ça aidera tout le monde.

• Ecran
Il parle de ventes, on parle d’utilisation et de tests professionnels, là encore des data froides contre pas grand chose en contre argument.

Pour sa vexation j’ai envie de dire ¯_(ツ)_/¯.


#516

Moi je dis completement ca ! Si on fait des color grading degueulasses sur des aplats qui s’y pretent mal, ca fait des trucs degueu. Alors que si on fait tout bien, je vois pas vraiment ni le souci ni l’interet pour un peu qu’on se preocuppe de la target comme du R8G8B8 non ? C’est clairement important pour un mec qui va faire le montage, mais pour le end-user, on est d’accord qu’on s’en cogne hein ? (Pitié, c’est pas parce que l’ether a monté qu’il faut que je m’achete un nouvel ecran).


#517

Ouais mais ça n’empêche que c’est super intéressant :slight_smile:


#518

Ah mais complètement.
L’exemple à 0:41 dans la vidéo au-dessus est clairement pour le monteur qui doit gérer par exemple une source 10-bits peut-être pas enregistrée dans des conditions optimales. S’il n’a pas un écran 10-bits pour voir les défauts il risque de produire une vidéo avec des dégradés pourris.
Le color grading exagéré c’est vraiment pour mettre en évidence les symptômes.

En plus, tous les vidéastes ne veulent par exemple pas enregistrer en Vlog car ca nécessite du post-traitement assez long. Pour une vidéo de mariage par exemple ça ne se fait en général pas car les mariés veulent avoir leurs vidéos rapidement.

Du coup on retrouve encore une fois la question initiale pour le choix de matos pour quelqu’un qui fait du montage pro: 8bits ou 10bits? Parceque si on fait des clips vidéos ou du freelance pour le prochain Spiderman c’est en général du 10 bits. Si on est un photographe pro qui diversifie son activité pour proposer de la vidéo en plus, le 8 bit peut suffire.
Mais là, seul l’acheteur peut savoir…


#519

Ok, c’est bien ce que j’avais compris :slight_smile:

Et comme @KingBabylon hein, du HS comme ca, c’est quand tu veux :stuck_out_tongue:


#520

Tiens, il y a une différence entre ces 2 sticks de RAM ?

La seule différence que je vois est le sticker avec la fréquence en plus, mais, si m’en passer me permet de gagner 70€…


#521

Oui, 32Go pour le premier kit et 16Go pour le second. A part ça, ça a l’air d’être la même chose :confused:
Tu dois aussi avoir la raison dans le thread qui justifie le fait de ne jamais acheter de kit de barrette, une histoire qu’il faut tout renvoyer si t’en as une qui flanche.

Memtest & windows sont dans un bateau… Ah je l’ai déjà fait hier celle la :frowning:


#523

Hey salut,

J’ai un keupain qui souhaiterait passer au triple screen (oui, je lui ai déjà parlé des grands écrans il est pas convaincu… bref).

Il a cette config matos.net, et il a changé son ancienne CG GTX660 par une GTX1070.

Il joue essentiellement à des civ-like et énormément de X-plane (le dernier) et autres simulateurs de vol.

Sa question initiale est de savoir s’il peut mettre les deux CG dans la même tour pour brancher ses 3 écrans (qu’il n’a je crois pas encore acheté), et si son alimentation (une 500W BeQuiet) lui permettra de faire tourner tout ça.

Merci pour vos précieux conseils :slight_smile:


#524

Alors :

• Les deux CG dans la tour, non.

• Sur l’alim, je dirais que ça sera trop juste et qu’il serait un poil plus prudent de monter sur du 600/650 pour conserver un peu de marge et éviter la charge max tout le temps.


#525

Ha bon ? (Je sais pas, on le fait au taff, alors, c’est pas tout automatique, mais c’est parfois très bien géré).


#526

La 660 ne prend pas totalement en compte DX12 de mémoire, donc le seul truc qu’il peut faire avec c’est la garder pour gérer PhysX mais je ne vois pas vraiment l’intérêt de doubler la consommation pour ça quand il part sur une 1070.

Nvidia ne supporte plus non plus plusieurs générations différentes et faut fouiller les listes et les modifs constantes des drivers, mais tu as un lien ici qui est fréquemment mis à jour et prend en compte ce qui fonctionne ou pas.