Nouvelle carte Nvidia

[quote]Speciale dédicace lije :
Blablabla made in nokytech

C’est là

Ca raconte que blabla pourquoi les deux molex, que c’est à cause des puces de ram ddr3 qui tètent 8 watts chacune…

Et surtout, et là j’invoque la toute puissance du grand C_WIZ :

« Bien entendu, il est nécessaire de brancher des molex 12V de bancs distincts d’alimentation, ceci afin d’avoir des tensions les plus stables possibles. »[/quote]Invooooooooooquation. Me voila.

Bon… Y’a beaucoup de conneries qui sont dites sur tout ca, on va essayer de faire le tri.

D’abord l’état des lieux face à ceux qui parlent beaucoup sans (rien) savoir (du tout a l’informatique et qui feraient mieux d’arreter de faire des sites webs, oh, ca balaaaaaaaaaaaaaance) : 

  • Avec une alim noname 350W, une 6800 Ultra et un P4 3.2C, ca marche très bien en utilisant deux connecteurs sur la même « ligne ».

  • Avec une 320W faut impérativement utiliser 2 « lignes » différentes. Ca plantouille avec deux connecteurs de la même ligne.

Qu’est ce que ça veut dire ? Que pour une raison X ou Y tu as bel et bien un problème de stabilité en pompant sur les mêmes fils sur de très gros pompages. Et dans le fond ce n’est pas super nouveau, c’était pas très conseillé de chainer une 5950 ou une 9800XT derriere un truc qui consommait beaucoup. C’est une question de stabilité.

Maintenant, sur les 8W de consommation par puce, c’est du pure pipo et ceux qui relaient l’info devraient manger leurs cables réseaux.  La DDR2 bouffe environ 4 watts par puce, et la GDDR3 ciblait sur 2 fois moins de consommation. On parle en gros de 2W. Pas 8W. Donc non contrairement a ce que ce ********* supute, 450W de marque n’est pas un minimum. Je reviendrai plus tard sur LA raison de la recommandation de nVidia qui fait tant jaser.

La GDDR3 est justement intéressante par son mode de fonctionnement. Contrairement à la GDDR2, le courrant consommé en standby est nul, tout comme en logic high (en gros le bit 1 est représenté par 0), et le logic low (bit 0) est a 18mA. Ca réduit énormement la consommation parce que le standby ne consomme que d’alle. C’est idéal pour une carte graphique dont les chips ne vont pas être mis a contribution a fond en permanence.

Pour ceux qui doutent encore, ce sont les MEMES chips mémoires (samsung) que l’on trouve sur les nVidia 6800 Ultra et sur les ATI ******. Et d’après les photos qui trainent sur le web (je deviens professionnel en couvrage de nda :stuck_out_tongue: ), les ATI ****** n’ont qu’un seul molex Bref, la différence est au niveau du chip graphique, a croire qu’il y’aurait (pure supputation) :

  • une différence sur le nombre de transistors
  • une différence sur la technologie de gravure (je n’ai pas dit la finesse, et de toute facon je suppute, non ? :P).
     
    Maintenant. Sur LA RAISON qui fait que nVidia conseille du 450W. Tout d’abord ils conseillent une telle capacité pour du NONAME et pas pour des alims de marques. Les possesseurs d’Enermax 350W peuvent dormir tranquille. Après, comme je vous le dit avec une 350 W noname voir même une 320 W, ca marche quand même (je ne certifie pas toutes les nonames :P). Alors pourquoi cette recommandation * ** *** ?

Ca tiens en 3 lettres… P4E.

[quote]

Mais bon, c’est soit l’union europeene qui devient protectionniste à outrance, et surtaxe les produit numerique venant des Us, ou les douaniers entre les caisses de pinard et de clope, se font une marge.[/quote]Et merde, et moi qui croyait que le made in Taiwan prédominait. Putain, je suis sur le postérieur, je viens d’apprendre que Dresde est au USA et non en Allemagne …

Pour en revenir a ce que vien de dire C_Wizard au sujet des connecteurs Mollex. C’est tout a fait logique pour ceux qui on pas trop révasser en physique .

[quote]Pour ceux qui doutent encore, ce sont les MEMES chips mémoires (samsung) que l’on trouve sur les nVidia 6800 Ultra et sur les ATI ******. Et d’après les photos qui trainent sur le web (je deviens professionnel en couvrage de nda :stuck_out_tongue: ), les ATI ****** n’ont qu’un seul molex Bref, la différence est au niveau du chip graphique, a croire qu’il y’aurait (pure supputation) :

  • une différence sur le nombre de transistors
  • une différence sur la technologie de gravure (je n’ai pas dit la finesse, et de toute facon je suppute, non ? :P).
     [/quote] pour bien couvrir le bidule, n’aurait-il point fallu ajouter
  • une différence de fréquence

il me semble qu’ATI aura du mal à trouver un meilleur fondeur que NVidia, parce qu’à moins que j’ai manqué un épisode, leur nouveaux petits gateaux sont cuits avec amour dans la nouvelle cuisine de tonton IBM, toute droite sortie d’un histoire de science fiction, même chez mobalpa ils en font pas des comme ça.

[quote]pour bien couvrir le bidule, n’aurait-il point fallu ajouter

  • une différence de fréquence
    [/quote] Si je l’avais mentionné j’aurais sous entendu que le chip de nvidia est cloqué PLUS VITE que celui d’ATI, non ?

[quote]il me semble qu’ATI aura du mal à trouver un meilleur fondeur que NVidia, parce qu’à moins que j’ai manqué un épisode, leur nouveaux petits gateaux sont cuits avec amour dans la nouvelle cuisine de tonton IBM, toute droite sortie d’un histoire de science fiction, même chez mobalpa ils en font pas des comme ça.[/quote] Comment on dit déjà ? Ah, oui, no comment :stuck_out_tongue:

Bon allez, un quand même, dixit notre ami à tous Fuad de The Inquirer (repris par Clubic), ca serait 475 MHz la fréquence du *******. Sans préciser celle du ****** qui par définition devrait être au dessus, non ?

Donc pour le côté "deux bancs de fils, je suis toujours grognon.

Attendu que les prévenus sont raccordés au même point de potentiel +12v
Attendu que les prévenus se différencient dont par la résistance ou l’impédance équivalente à un cable et un raccord électrique.
Attendu que l’oin va ramener cette impédance équivalente à une résistance parce que tout de même il faut pas charrier sur le rayon de courbure du cable, en continu en plus, non mais ho.

J’aurais tendance à dire que,  sauf si C_WIZ le Grand me dit le contraire, que la 320 watts et la 350 watts énoncées dans son explication ne se différencient dans leur aptitude à fournir une alimentation correcte à miss 6800 que par la résistance équivalente décrite ci dessus.

Je pense qu’entre ta (une seule à chaque fois, Ô grand manitou du Mégahertz ?) 350 findus et ta 320 watts madrange, il y a une différence, peut être, au niveau du diamètre des fils conducteurs. Ca ça nous fait la résistivité, genre de la bonne vieille perte régulière. Perso j’y crois pas, sauf si tu me dis que les fils étaient chauds. !summon ampéremètre.

Je pense surtou qu’entre ces deux aliemntations, la différence, Ô, Commandeur du cache L2, se situe dans la perte régulière. Où ça ? Au chainage des molex. Bah oui, c’est la seule explication valable que j’entrevois pour rencontrer une résistance capable de générer à dix ampères une chute de tension sensible. Au flair, là comme ça.
Pourquoi je dis ça ? Parce que des molex j’en ai déjà fondu, simplement aprce que les conducteurs étaient sertis ‘à la porcasse’., sur le zoli fil rouze le conducteur n’était pris que par les petit griffes et non entre les joues de serrage du connecteur métallique unitaire.

Donc il se pourrait que dans le cas de fortes intensités la résistance singulière au raccordmeent entre le premier de cordée et la molex seconde du nom présente une baisse de tension. Mais bon, je suppose également que C_WIZ le Magnifique n’a pas mis une config tranquille au cul de notre alim findus (p4 3.2, froum froum), afin de la mettre en charge bien bien et d’abaisser la tension de service 12 volts à un seul déjà faible avant mise à mort par machin nvidia.

Mais alors là, c’est réellement pour taquiner. Si 320 watts ‘sortis de redressement’ dans le boitier, l’effet ‘le noname ça déconne’ je le vois uniquement au niveau des raccord. Je pense que le test intéressant à faire (mais là je sors mon étau à diptère pour pas que la mouche elle se débatte quand on l’enclume) ça serait de tester les 320 watts madrange, cochonou, lidl, et bridel. Pour voir si c’est la puissance affichée qui met la nvidia en situation de ‘feed me, feed me, je veux deux guirlandes d’alim’ (et au passage t’as pas intérêt à avoir des disques durs trop loin, mes alimes bas de gamme ont en général deux guirlandes) ou bien si c’est le sertissage médiocre des prises métalliques dans les broches molex.

ET le top du top, Ô C_WIZ l’Incroyable, c’est de prendre le petit tournevis, de sortir les conecteurs de la molex intermédiaire (au moins le 12 volts ?), de sortir le fer à souder de son carton, et de faire une belle soudure sur la prise, afin de réduire les pertes régulières à quasi néant.

Voilà, ça vous semble peut être curieux que je tartine de la science comme ça, mais s’il y en a parmi vous qui ont fait du modélisme, 120 watts et dix ampères, c’est de la toute toute toute petite bière (j’ai arrêté, les novak et tekin mangeaient 1600 ampères en courant de pointe, et 450 en intensité continue, dans un boitier gros comme un radiateur de chipset). DOnc je ne m’explique pas très bien tout ça voyez vous.

[quote]Donc pour le côté "deux bancs de fils, je suis toujours grognon.[/quote]J’adore la théorisation mais il y’a des moments ou il faut savoir dire stop :stuck_out_tongue: C’est un fait, t’a de la perte sur les alims sur la même chaine, c’est comme ca depuis des lustres, prend ton multimetre et vérifie le toi même si t’a un doute. Dès le début des molex sur les CG on a dit de pas les chainer a autre chose. C’est comme ca.

Autre exemple, si y’avait 0 pertes, pourquoi utiliser un connecteur additionnel sur les P4 pour repasser du +12V en plus vers la CM ? Alors qu’il passe déjà par le gros connecteur. Et pourquoi est ce qu’avec les socket 775 on se REPREND 4 connecteurs de plus ?

Autre exemple, si y'avait 0 pertes, pourquoi utiliser un connecteur additionnel sur les P4 pour repasser du +12V en plus vers la CM ? Alors qu'il passe déjà par le gros connecteur. Et pourquoi est ce qu'avec les socket 775 on se REPREND 4 connecteurs de plus ? [/quote]

Troll : parce qu’intel c’est 3vil

Ma théorie à outrance c’est que l’intensité limite véhiculée par une piste de carte est atteinte, donc on recolle n sources d’alim afin d’étaler et de diviser l’intensité : une borne pour alimenter monsieur processeur, une pour alimenter le reste de la carte, une cuilklère pour tonton ram et une pour tata ventilos .

Je ne crois pas qu’il existe d’alimentation délivrant plusieurs étages de transformation pour fournir du 12v… Juste les pertes en ligne avec du 10 ampères, j’ai du mal, kôa…

/me va aller chercher son multimètre et mesurera les tensions au cul des molex en y branchant du cdrom et du doubleur avec des SCSI 7200t, en espérant que ça soit mesurable (typiquement mesurer la différence de tension entre la soirtie de la piste de l’alim et le périphérique chainé #2, en charge et avec les majorettes)

/me reconnait que tenter de retrouver maladroitement le porquoi d’après les effets, c’est pas forcément lumineux, masi la théorisation à outrance, c’est ce qui a engendré le matos qu’on a sous les mains, aussi, hein…

Allez, hop, on range le kit electricite 2000 du petit chimiste, on attend le 5 mai et la paye aussi.

Et on remercie C_Wiz l’inoubliable pour avoir partagé son savoir.

Up de fourbe pour lije :

C’est pas tous les jours mais disons que je trouve que sur ce site là ce qui est écrit est pile poil ce que je pense.

Sur CETTE PAGE (beware, site chinois, moi les polices ça me fait ramer grave)

On peut voir ça :

et ça :

(5 volts en usage 3d)

et ça aussi :

(12 volts en usage 3D, consulter la page liée plus haut pour plus d’infos)

Les ampérages sont selon ce site à 1.86 et 1.92 pour le 5 et 12 volts en 2D…

Ohm says : P=U.I
P5v=5x3
P12v=4.5x12
15+54= 69 watts.

Bon, on est pas aux 120 watts, mais je ne lis pas le cantonnais / mandarin / ptites nouilles bizarres… donc je ne connais pas les conditiuons de mesure précises. SI, le monsieur dit que c’est avec un p4 3.2 qu’il a testé le berlingot.

Prendre avec des (c’est le cas de le dire) pincettes parce que les pinces ampéremétriques ‘casto’ sur du fil à deux balles c’est très loin de valoir un bon gros ampéremètre en série…

Mais c’est toujours beaucoup mieux que se baser sur ce que monsieur Nvidia semble dire ou sur l’étiquette de ton alim. Maintenant, je suis plus transmeta que prescott, je ne sais pas ce que vaut le p4e en conso.

c’st moi ou le 2eme port PCI est pas loin d’être pris ?

From Clubic, ce dont tous le monde parle :

" Dans un email reçu il y a quelques minutes, un représentant officiel d’ATI nous renvoit vers un article publié sur le site DriverHeaven laissant croire que NVIDIA triche dans ses drivers. Le site se base sur des comparaisons d’images pour étayer ses dires. Si les comparaisons sous 3DMark 2003 ne sont pas forcément des plus valables ou des plus parlantes, la comparaison effectuée sous Max Payne 2 est plus intéressante. On constate en effet que les drivers effectuent un chagement du niveau de mipmap qui permet à la carte de changer la texture pour obtenir un rendu moins précis et donc de meilleures performances. L’article en question est consultable ici. En creusant un peu le sujet on s’aperçoit que NVIDIA n’utilise pas la même méthode de calcul des mipmaps ce qui engendre forcément des différences. Toutefois même si l’algorithme d’ATI est plus proche de celui de Microsoft, cela ne veut pas dire que celui de NVIDIA est mauvais d’autant que la méthode de la firme au caméléon est plus précise.

Pour notre part nous n’avons pas noté de différence flagrante de qualité d’images lors de nos tests. Notre point de vue quand aux défauts observés par nos confrères américains est que ceux-ci sont vraisemblablement imputables aux drivers 60.xx qui sont encore bien buggués.

Terminons en notant que The Inquirer a fait ce matin une découverte en apprenant ce que tout le monde sait déjà depuis une semaine ou presque… Les screenshots de Far Cry montrés par NVIDIA lors du lancement du NV40 n’étaient en fait qu’une comparaison entre PS1.1 et PS3.0 et non entre PS2.0 et PS 3.0."

[quote]En plus les prix ricains sont toujours annoncés HORS TAXES. Même si elles sont ridicules par rapport à chez nous (genre le max c’est 5.5% dans le maryland je crois).[/quote]8% en californie (enfin, y’a 3 ans quand j’y etais)

sont marrants clubic, ils ont pas dû regarder le test de tom’s hardware avec les jolis screens qui montrent bien les différences graphiques sur les shaders…
et le coup du “on est au courant depuis une semaine” ben ils sont bien les seuls !

10% du coté de NYC (enfin, en 1999)

[quote][quote]il me semble qu’ATI aura du mal à trouver un meilleur fondeur que NVidia, parce qu’à moins que j’ai manqué un épisode, leur nouveaux petits gateaux sont cuits avec amour dans la nouvelle cuisine de tonton IBM, toute droite sortie d’un histoire de science fiction, même chez mobalpa ils en font pas des comme ça.[/quote]http://news.com.com/2100-1006_3-5199327.html?tag=nefd.top[/quote]Je sais. Mais c’est pas clair du tout que ces problèmes impactent le process 130nm avec lequel est fabriqué le NV40. D’autant plus que c’est aussi en 130nm que sont fabriqué les processeurs qui équipent les serveurs haut de gamme d’IBM, et il parait qu’ils sont très précautionneux avec cette gamme. Il y a un taux de fiabilité avec des chiffres après la virgule qui justifie l’ajout d’autres chiffres sur la facture (pas spécialement après la virgule eux par contre), bref ils prennent surtout pas de risques.
Par contre ça veut probablement dire que NVidia va devoir attendre un moment avant de pouvoir graver plus finement ses processeurs de dernière génération ; le ppc970 avec lequel IBM étrenne dans la douleur son process 90nm est beaucoup plus petit, à peine 60 millions de transistors dont un gros bout consommé par le cache L2. Donc pour des cartes NV4x qui ne trimballent pas une hélice d’avion sur leur dos et qui soient pas hérissées de prises, il va sans doute falloir prendre son mal en patience…
Pour en revenir à l’argument de départ, malgré les difficultés d’IBM, ça serait quand même vraiment une énorme surprise si les taiwanais qui fondent les puces ATI arrivaient à faire mieux.

Ce message a été édité par ehsel le 26/04/2004

Deux liens pour “justifier” certaines de mes remarques précédentes :

http://techreport.com/etc/2004q2/tamasi/index.x?pg=4
PS 1.1 vs PS 2.0 ? ;p

http://www.hardocp.com/article.html?art=NjA5LDE=
Il se plante un peu sur le displacement mapping, ce que ca apporte, et ce en quoi les SM 3.0 peuvent aider ou pas (deux mots pour vous : normal maps). Mais la conclusion est “100% right on track” pour faire un private quote

[quote]Pour en revenir à l’argument de départ, malgré les difficultés d’IBM, ça serait quand même vraiment une énorme surprise si les taiwanais qui fondent les puces ATI arrivaient à faire mieux.[/quote]- Etant donné que c’est du 0.13 sans SOI Low-K (et sans SOI non plus au final) chez IBM

  • Etant donné que la fréquence du NV40 en ultra est de 400 MHz
  • Etant donné que les rumeurs sur le ******* d’*** parlent d’une fréquence supérieure
  • Et si je te dis que le NV40 à été samplé aussi chez TSMC ?
  • Et si je te dis que ****** est en pourparler avec *** (je sais c’est incroyable) pour graver ses futurs **** dans leur prochaine fab ?
    Ce message a été édité par C_Wizard le 26/04/2004

Et il se termine quand ce petit NDA ??? Non, c’est pas que ça m’exaspère les ******…
Non, du tout.

[quote]Et il se termine quand ce petit NDA ??? Non, c’est pas que ça m’exaspère les ******…
Non, du tout.[/quote]Tu sais que si tu comptes le nombre de * tu peux comprendre facilement ce que je dis

9 jours a patienter.

[quote]9 jours a patienter.[/quote]ARRTGHHHH! je vais me bouffer les ******** !!!