Raisons de la faiblesse du GeForce FX

Excellent article sur TT-Hardware. Je vous en cite un extrait :

[quote][i] Et enfin, une autre donnée est à prendre en compte. Celle-ci est capitale et il est d’ailleurs étonnant qu’aucun site ayant testé le GeForce FX n’ait mis le doigt dessus tant elle est flagrante au vu des résultats. Comme il est écrit en grand dans les spécifications du GeForce FX, celui-ci dispose de 8 pipelines comme le Radeon 9700, chacune disposant d’une unité de texturing. Mais ça, c’est du papier. Dans la pratique, le GeForce FX ne dispose pas de 8 pipelines. Il n’en utilise en fait que 4 disposant chacune de 2 unités de texturing, comme le GeForce 4 Ti. Tromperie sur la marchandise ? Pas du tout selon NVIDIA qui explique que le GeForce FX est très flexible et qu’ils l’ont configuré de cette manière dans les drivers car ils estiment que c’est la disposition la plus efficace actuellement avec les jeux multitexturing. Bien que ce soit possible, nous restons sceptiques. Le Radeon 9700 s’en tire très bien avec ses 8 pipelines, que ce soit dans les jeux actuels ou futurs. Dans la majorité des cas, une composition de type 8x1 est plus performante qu’une composition d type 4x2. L’avantage est encore accentué avec les Pixel Shader complexes vu que la puissance de calcul est doublée ! Pourquoi les 8 pipelines ne fonctionnent-ils pas ? Difficile à dire, mais plusieurs hypothèses nous viennent à l’esprit : la bande passante du GeForce FX est insuffisante pour alimenter 8 pipelines, désactiver 4 pipelines permet de réduire le dégagement thermique et atteindre 500 MHz, optimiser les drivers pour 8 pipelines est trop complexe…

Le GeForce FX semble très flexible, mais ceci est également son point faible. Optimiser les drivers pour ce GPU semble être un véritable casse-tête ! Il reste certainement beaucoup à en tirer en travaillant sur les drivers. Espérons que NVIDIA y arrive… et pas trop tard… En attendant, le GeForce FX semble castré pour être plus docile. Par exemple, dans le test Pixel Shader 2.0 de 3DMark03, il est 3x moins performant que le Radeon 9700… Cependant, s’il travaillait en 64 bits au lieu de 128 bits et si ses 8 pipelines étaient activés, son score pourrait quadrupler… [/i][/quote]

[Edité le 14/2/2003 par GuiX]

[quote]c quand meme facile de casser une carte qui est même pas encore sortie… :wink:
Ok des gens l’ont testées mais VOUS perso vous l’avez testée??? Vous vous basez sur des ont m’a dit que et j’ai lut que. On se croirait chez Paris Match version informatique.
ppfff[/quote]
Dis, Calimero, si tu voulais te faire remarquer après 3 messages, il y avait d’autres moyens… :casstet: :slight_smile:

Je ne pense pas que nVidia soit deja mort il ont simplement perdu la manche :cool:
Maintenant faut voir comment il vont reagir

[Edité le 2/3/2003 par vbneo]

nVidia est mort, vive ATI !
<img src=’ http://forum.hardware.fr/images/perso/belial-.gif’ border=0>

[quote]c quand meme facile de casser une carte qui est même pas encore sortie…
Ok des gens l’ont testées mais VOUS perso vous l’avez testée??? Vous vous basez sur des ont m’a dit que et j’ai lut que. On se croirait chez Paris Match version informatique.
ppfff[/quote]Comme l’a dit jeep, les benchmarks faits par des pros font souvent foi (n’y voyez aucune lèche envers caféine, hein ! :-/ ) et de plus j’ai vu (entendu ?) le film qui démontre les nuisances sonores avec la garantie que le volume d’enregistrement était le même : ça calme !!!

C’est un produit mort-né, et au vu du prix auquel ils comptaient le vendre, je ne comprends pas pourquoi tu es aussi aigri envers notre attitude Maoboy…

vu le prix probable je risque pas de la tester. et heureusement que des gens dont c’est le boulot l’ont testée. je me suis toujours fié à ces gens et j’ai jamais été trompé.
de toutes façons, lancer un benchmark chez moi ou en lire les résultats dans un article revient au meme, les notes ne seront pas magiquement augmentées du fait de la pression atmosphérique de ma maison ou du taux d’ensoleillement qui rêgne ici…

c quand meme facile de casser une carte qui est même pas encore sortie… :-/
Ok des gens l’ont testées mais VOUS perso vous l’avez testée??? Vous vous basez sur des ont m’a dit que et j’ai lut que. On se croirait chez Paris Match version informatique.
ppfff

NVidia a perdu cette manche, c’est indéniable.

C’est confirmé !

<img src=’ http://forum.hardware.fr/images/perso/zouzouz%20petals.gif’ border=0>

Sur ce point la presse spécialisée Internet , en attendant la « vieille » presse papier traditionnelle (salut Caf’ :stuck_out_tongue: ) est unanime : OUI, 128bits de DDR-2 sont moins performants que 256 de DDR…

Alors maintenant je viens de me taper un autre article concernant nVidia toujours : le CEO annonce que les perfs avec la 1ère génération de drivers sont satisfaisantes compte tenu de l’architecture radicalement différence de cette carte par rapport aux autres.

Alors si je m’en tiens toujours à la logique de Geek : pourquoi nVidia n’a t il pas développé de drivers spécifiques aux GeForce FX???
Et par extension pourquoi ATI ne fait-il pas de même ??

Néanmoins cela supposerait ajouter une contrainte : que ces nouveaux drivers spécifiques permettent quand même de faire tourner de vieilles applis.
Ils ont certainement dû y penser et analyser que de freiner les perfs avec drivers génériques, quitte à les optimiser plus tard , serait moins difficile que de développer une nvlle génération de drivers tout en restant compatible

[quote]-R9700 : bus mémoire 256bits DDR et 8 pipelines
-GF FX : bus mémoire à 128bits DDR-2[/quote] pourrai je avoir l’avis d’un pro : en utilisant une architechture 256bits DDR, est ce que Nvidia aurait gagné en perf?

En fait c’est assez bien résumer l’architecture générale des 2 cartes :

-R9700 : bus mémoire 256bits DDR et 8 pipelines
-GF FX : bus mémoire à 128bits DDR-2 et 2 fois 4 pipelines. Notons toutefois qu’en hard il semblerait bien qu’il y ait 8 pipelines , mais que les drivers ne les gèrent qu’en 4x2.

Mais dans l’ensemble ils n’ont pas tors , je crois me souvenir que le bench publié dans 3dchips hier ou avant hier donne le GF FX devant la R9700 en multi-texturing, et dans tous les 1ers benchs de jeux.

Bon maintenant nVidia accuse clairement le coup dans le domaine des drivers : s’ils ne semblent pas réellement buggés comme le furent ceux d’ATI, ils ne sont carrément pas (encore?) optimisés pour tirer la quintessence technique de la bête. On pourrait dire pour le moment qu’ils sont plutôt orientés jeux (Doom 3 ? :wink: )
Mais quand on voit qu’ATI dans ses derniers drivers propose toujours des améliorations pour ses cartes R7x00/8500, on peut légitimement se dire que la R9500/9700 a de très beaux jours devant elle et pour vachement longtemps…

Enfin, le temps que les drivers nVidia soient enfin optimisés à 100%, plusieurs chips seront déjà sortis et commercialisés à des prix abordables :stuck_out_tongue:

En achetant ATI on est gagnant sur plusieurs points : performances à court et moyen terme (là je parle en tant que vrai geek qui met à jour sa bécane régulièrement), produits dispos immédiatement, suivi technique d’ATI pour les drivers. Il n’y a que le prix comme donnée qui m’échappe: je n’y ai pas trop prêté attention, mais il est raisonnable de croire que là encore ATI fait moins cher…

Edit : pourquoi mes smileys ne fonctionnent pas :??:

[Edité le 14/2/2003 par tibo]

[quote]je commençais à en avoir marre de voir débarquer un nouveau chip tous les six mois[/quote] les constructeurs aussi il en avaient marre : ilarrivait plus à se suivre les uns les autres donc ils ont décidé de ralentir la cadence

En imaginant que ça soit « juste » un problème de drivers, je ne vois pas ce que ça change.
Les cartes geforces FX sont des sèches cheveux bruyants chers absolument pas performants (dans un premier temps tout du moins).

Ce n’est pas ce qu’on reprochait à ATI il y a quelques années (mois ? :stuck_out_tongue: ) les drivers buggués ?

Non, c’est simple, Nvidia a fait un putain de gros four et dois assumer sa boulette. Changer d’optique, accélerer la R&D pour ses futurs chipsets et prendre en compte les desideratas des consommateurs finaux.

Pour le coup je suis presque content que Nvidia se soit gauffré, malgré la qualité de ses produits je commençais à en avoir marre de voir débarquer un nouveau chip tous les six mois, sans compter les tarifs prohibitifs des hauts de gamme… Bref, un bon coup de flotte sur la tête ça peut faire du bien ! :wink:

Infos sur le NV 40 : (sic.)

[quote][i] - Fréquence GPU de 750-800 MHz

  • 300-350 Millions de transistors en 0.09µ
  • 16Mo de mémoire cache intégrée (~134 Millions de transistors)
  • 256 à 512Mo de DDR-II 700MHz 256 bits
  • 8 pipelines de rendu
  • 16 unités de vertex shading
  • 204.8 Go /s de bande passante pour les 16 Mo intégrés
  • 44.8 Go /s de bande passante mémoire
  • DirectX 10 ou 9.1 étendu
  • Sortie prévue H2 2004[/i][/quote]
    Kof kof kof… <img src=’ http://forum.hardware.fr/images/perso/vast.gif’ border=0>

Vu sur TT-Hardware.
Source : Hardware.fr.
Achtung, rumeur… Kof kof kof… Ca ne viendrais pas de The Inquirer ?

Kof kof kof…

Arretez moi si je me trompes :

les mauvaises peformances des shaders du geforce FX sont surement dues à un probleme de drivers (les resultats varient enormement d’un test shader à l’autre)

je crois qu’on a besoin de cafeine ou de un de ses clones (:P)