[quote]Speciale dédicace lije :
Blablabla made in nokytech
Ca raconte que blabla pourquoi les deux molex, que c’est à cause des puces de ram ddr3 qui tètent 8 watts chacune…
Et surtout, et là j’invoque la toute puissance du grand C_WIZ :
« Bien entendu, il est nécessaire de brancher des molex 12V de bancs distincts d’alimentation, ceci afin d’avoir des tensions les plus stables possibles. »[/quote]Invooooooooooquation. Me voila.
Bon… Y’a beaucoup de conneries qui sont dites sur tout ca, on va essayer de faire le tri.
D’abord l’état des lieux face à ceux qui parlent beaucoup sans (rien) savoir (du tout a l’informatique et qui feraient mieux d’arreter de faire des sites webs, oh, ca balaaaaaaaaaaaaaance) :
-
Avec une alim noname 350W, une 6800 Ultra et un P4 3.2C, ca marche très bien en utilisant deux connecteurs sur la même « ligne ».
-
Avec une 320W faut impérativement utiliser 2 « lignes » différentes. Ca plantouille avec deux connecteurs de la même ligne.
Qu’est ce que ça veut dire ? Que pour une raison X ou Y tu as bel et bien un problème de stabilité en pompant sur les mêmes fils sur de très gros pompages. Et dans le fond ce n’est pas super nouveau, c’était pas très conseillé de chainer une 5950 ou une 9800XT derriere un truc qui consommait beaucoup. C’est une question de stabilité.
Maintenant, sur les 8W de consommation par puce, c’est du pure pipo et ceux qui relaient l’info devraient manger leurs cables réseaux. La DDR2 bouffe environ 4 watts par puce, et la GDDR3 ciblait sur 2 fois moins de consommation. On parle en gros de 2W. Pas 8W. Donc non contrairement a ce que ce ********* supute, 450W de marque n’est pas un minimum. Je reviendrai plus tard sur LA raison de la recommandation de nVidia qui fait tant jaser.
La GDDR3 est justement intéressante par son mode de fonctionnement. Contrairement à la GDDR2, le courrant consommé en standby est nul, tout comme en logic high (en gros le bit 1 est représenté par 0), et le logic low (bit 0) est a 18mA. Ca réduit énormement la consommation parce que le standby ne consomme que d’alle. C’est idéal pour une carte graphique dont les chips ne vont pas être mis a contribution a fond en permanence.
Pour ceux qui doutent encore, ce sont les MEMES chips mémoires (samsung) que l’on trouve sur les nVidia 6800 Ultra et sur les ATI ******. Et d’après les photos qui trainent sur le web (je deviens professionnel en couvrage de nda ), les ATI ****** n’ont qu’un seul molex
Bref, la différence est au niveau du chip graphique, a croire qu’il y’aurait (pure supputation) :
- une différence sur le nombre de transistors
- une différence sur la technologie de gravure (je n’ai pas dit la finesse, et de toute facon je suppute, non ? :P).
Maintenant. Sur LA RAISON qui fait que nVidia conseille du 450W. Tout d’abord ils conseillent une telle capacité pour du NONAME et pas pour des alims de marques. Les possesseurs d’Enermax 350W peuvent dormir tranquille. Après, comme je vous le dit avec une 350 W noname voir même une 320 W, ca marche quand même (je ne certifie pas toutes les nonames :P). Alors pourquoi cette recommandation * ** *** ?
Ca tiens en 3 lettres… P4E.