Sous ce titre bien racoleur (ndFask : racoleur ? ah ?) se cache en réalité un nouvel épisode de la saga concernant les performances des GeForce Fx face aux Pixel Shader 2.0, et ce particulièrement avec les nouveaux Detonator, dont nVidia nous assure qu’ils redresseront la barre.
Après Half-Life 2, le bench attendu de beaucoup était Aquamark 3. Et bien ça y est, les premiers résultats sont tombés.
Alors, quid des performances ?
Allez zou, on clique avidement sur la suite !
Et bien à première vue, ça va mieux, merci pour eux. Ainsi sur Aquamark 3, les deux cartes phares de Ati et nVidia sont au coude à coude. Mais ! Oui, il y a un mais…
La qualité de l’image ne semble pas être au rendez-vous. Et là on repense immédiatement aux craintes formulées par Gabe Newell de Valve. Effectivement il semblerait que le gain de performance se fasse au détriment de la qualité du rendu : ainsi de nombreux détails au niveau des éclairages et de la précision des textures disparaissent par rapport aux drivers précédents.
Il n’y a désormais plus qu’à espérer que la version finale de ces drivers “miracles” corrigent le tir rapidement.
Je crois avoir lu sur 3dchips une interview de Carmack qui expliquait qu’avec les GeForce FX il fallait faire un choix entre vitesse et qualité, mais qu’on aurait difficilement les deux. C’est dû à une precision des couleurs qui sur les ATI est en 32 bits et sur les NVidia en 24 bits (ou ptet 16 enfin pas 32 quoi). Les précedents drivers corrigeait le fait que ce soit pas en 32bits mais au detriment de la vitesse car il y avait des traitements à faire en plus. Si les derniers drivers n’utilisent plus ces corrections, il est evident que la vitesse est de retour mais la qualité n’est pas plus présente.
A mon avis, comme chez Nvidia, ce ne sont pas des manches, les drivers donnaient déjà le maximum de ce qu’ils pouvaient donner, et ce dès le début.
Nvidia se prenant une grosse claque en place publique esaaie par tous les moyens de remonter son frame rate, mais pas de miracle, il faut faire des concessions niveau qualité !
A noter que les résultats sont un peu meilleurs avec les fameux detonator 50.xx tellement attendus, mais pas exceptionnels non plu. Et la qualité graphique y est aussi un poil plus basse que sur ATI (on perd des éclairages par exemple).
Aquamark n’utilise d’ailleurs que 4 pixels 2.0 sur 39 utilisés au total, donc ça explique la moindre différence avec ATI que celle qu’on a vu sur HL².
c’est pas fait avec les 50.xx, mais vu les résultats, si ils redressaient
la barre au nivau de ATI sous HL², ce seraient les meilleurs drivers jamais
créé au monde…Ce qui m’étonnerais… Ce message a été édité par yaourt-nature le 16/09/2003
C’est marrant quand même de voir à quel point on peut gueuler sur Nvidia et sa gamme FX. Bon d’accord ce n’est pas le meilleur produit du monde, mais il est loin d’être mauvais. Alors outre le facteur déception, qu’est ce qui déchaine autant les passions ?
Pour ma part c’est clairement l’arrogance de Nvidia et de sa politique marketing qui me donne bien envie de leur mettre des claques en voyant les résultats d’aujourd’hui. Tout leur bassinage sur le CineFX et l’ère de la cinématique temps réel, au vu des optimisations qu’ils font sur les 50.xx, eh ben ça me fait bien rire (jaune). On assiste là à une beau revers de situation.
Et comme disait le sage: plus dur sera la chute.
Ce message a été édité par Mister_Moi le 16/09/2003
It has come to the attention of Eidos that an unreleased patch for Tomb Raider: AOD has unfortunately been used as the basis for videocard benchmarking. While Eidos and Core appreciate the need for modern benchmarking software that utilizes the advanced shading capabilities of modern graphics hardware, Tomb Raider: AOD Patch 49 was never intended for public release and is not a basis for valid benchmarking comparisons. Core and Eidos believe that Tomb Raider: AOD performs exceptionally well on nVIDIA hardware." - Paul Baldwin, Eidos
mais bien sûr
ah et on notera la dernière phrase digne des meilleures propagandes des ex pays du bloc de l’est.
Je sais pas trop mais j’ai l’impression que on joue vraiment à nawak ces temps. Il suffit d’une petite déclaration de n’importe qui et ça déchaîne les passions. Si vous compilez un jeu très attendu et une guerre de marketing entre deux maîtres de la 3d, la moindre info (sûre ou pas) est tout de suite sur-exploitée par chacun.
Sans vouloir troller, le show était bien présenté par ATI non ? Curieux qu’ils ne veuillent pas essayer avec des nouveaux drivers (fournis expressément pour la cause par Nvidia). Ca pourrait montrer des résultats moins “écrasant” voir même identiques (l’espoir fait vivre).
Avec une déclaration pareille, tout les hésitants en phase d’achat de carte graphique croient avoir un argument supplémentaire alors que quand on creuse un peu, on se rend compte que c’est du marketing de bas-étages.
La seule vrais philosophie à avoir, c’est “Wait and see” !
[quote]Sans vouloir troller, le show était bien présenté par ATI non ? Curieux qu’ils ne veuillent pas essayer avec des nouveaux drivers (fournis expressément pour la cause par Nvidia). Ca pourrait montrer des résultats moins “écrasant” voir même identiques (l’espoir fait vivre).[/quote]Tututut, c’est Nvidia qui ne voulait pas, et en plus, ces soit-disant nouveaux drivers emploient des méthodes disons douteuses (sacrifier la qualité pour la vitesse, suuuuuuper).
Moui, enfin, Valve dit que Nvidia ne voulais pas, Nvidia dit que Valve ne
voulais pas … Finalement on ne sait pas ou on en est. Ce qui est claire
c’est qu’ils sacrifient la qualité pour augmenté la vitesse…
Un jour après la présentation de Valve, NVIDIA nous a envoyé une déclaration
officielle sur la situation :
Durant la semaine dernière, une large controverse
s’est développée autour des propos tenus par Gabe Newell, de Valve, lors
du “Shader Day” d’ATI. Durant le cycle complet de développement de Half-Life
2, NVIDIA a eu des contacts techniques étroits avec Valve à propos de ce
jeu. Cependant, Valve ne nous a pas mis au courant des problèmes évoqués
par Gabe. On peut se demander pourquoi Valve a choisi d’utiliser pour ses
tests la version 45 du driver, alors que deux semaines avant le "Shader Day"
nous avions travaillé en étroite relation avec lui pour faire en sorte que
la version 50 soit la meilleure avec le matériel NVIDIA. En ce qui concerne
les scores de vitesse obtenus sur Half-Life 2 publiés sur le Web, nous les
considérons comme nuls et non avenus dès lors que des drivers de version
50 n’ont pas été utilisés. Le développement des drivers de version 45 a été
arrêté il y a des mois en prévision de l’arrivée des drivers de version 50.
Les optimisations de NVIDIA pour Half-Life 2 et les autres jeux récents sont
incluses dans les drivers de version 50, dont les journalistes ont actuellement
une version Bêta. Le driver de version 50 est le meilleur driver que nous
n’ayons jamais créé ; il contient des optimisations significatives pour l’architecture
hautement programmable GeForce FX et donne accès à des avantages fonctionnels
et des gains de performance aux plus de 100 millions de clients de NVIDIA.
En l’absence d’informations détaillées de la part de Valve, nous ne somme
au courant que d’un seul bug concernant la version 50 et la version de Half-Life
2 que nous avons actuellement : c’est le problème de brouillard auquel Gabe
faisait référence dans son exposé. Ce n’est ni une tricherie, ni une optimisation
abusive. Notre dernière mise au point sur Half-Life 2 date de plus de deux
semaines. Le driver de version 50 de NVIDIA sortira publiquement avant que
le jeu ne soit disponible. Comme nous savons que l’obtention d’une vitesse
de pixel shader la meilleure possible avec le GPU GeForce FX demande un travail
spécifique, notre équipe de développeurs travaille en étroite relation avec
les développeurs de jeux. Ceci tient compte en partie du fait que dans bien
des cas le passage de PS 1.4 (DirectX 8) à PS 2.0 (DirectX 9) n’améliore
pas la qualité de l’image. Cela implique parfois de convertir des opérations
de shader avec une précision de virgule flottante de 32 bits en shaders d’une
précision de 16 bits pour obtenir le gain de vitesse de ce mode sans dégradation
de la qualité d’image. Notre but est de donner à nos clients ce qui se fait
de mieux, ce qui signifie que les jeux doivent à la fois être visuellement
impeccables et s’exécuter rapidement. La ligne de code optimale n’est pas
la même pour les GPU ATI ou NVIDIA et les tester tous les deux avec une ligne
de code semblable désavantagera toujours l’un ou l’autre. Les réglages par
défaut de chaque jeu ont été choisis à la fois par les développeurs et par
NVIDIA de façon à fournir à nos clients des résultats optimum. En plus des
efforts des développeurs, notre équipe travaillant sur le driver a développé
un optimiseur automatique de shader de prochaine génération, qui améliore
grandement la vitesse de pixel shader du GeForce FX pour toute la carte.
Les fruits de ces efforts se verront lors de la sortie du driver de version
50. Cette version contient aussi bien d’autres améliorations et elles ont
toutes été créées en réponse ou en anticipation de la première vague de jeux
DirectX9, Half-Life 2. Nous sommes tout prêts à travailler avec Gabe, pour
pleinement comprendre ses préoccupations, et avec Valve pour faire en sorte
que plus de 100 millions de clients de NVIDIA puissent tirer le plus grand
plaisir possible du jeu Half-Life 2 sur du matériel NVIDIA. Ce message a été édité par yaourt-nature le 17/09/2003
[quote][quote]Sans vouloir troller, le show était bien présenté par ATI non ? Curieux qu’ils ne veuillent pas essayer avec des nouveaux drivers (fournis expressément pour la cause par Nvidia). Ca pourrait montrer des résultats moins “écrasant” voir même identiques (l’espoir fait vivre).[/quote]Tututut, c’est Nvidia qui ne voulait pas, et en plus, ces soit-disant nouveaux drivers emploient des méthodes disons douteuses (sacrifier la qualité pour la vitesse, suuuuuuper).[/quote]Lut ici :
Valve ne nous a pas autorisés à faire également des tests avec la nouvelle version Bêta du futur driver NVIDIA Detonator 50. Le développeur a justifié son refus par le fait qu’il ne voulait avoir que des scores obtenus avec des drivers officiels déjà sortis. Nous attendons toujours une explication plus détaillée de Valve sur ce qu’il n’aime pas dans ce driver Bêta. NVIDIA nous avait demandé de faire des tests avec ce driver car il contient de nombreuses nouvelles (et légales) optimisations pour les jeux DX9, y compris Half-Life 2, et nous étions curieux de voir ses résultats. D’un autre côté, les conditions de test en tant que telles correspondaient exactement à celles dans lesquelles avait été fait le test Doom III un peu plus tôt cette année, test pour lequel ATI n’avait pas eu l’occasion de fournir un meilleur driver.
Sorry, j’avais mal lu. En fait ce n’est ni Nvidia, ni ATI mais VALVe qui ne voulait pas utiliser ces drivers. J’y comprends plus rien.
Ceci dit, est-ce un problème hardware au niveau des 16 bits, 32 bits ou est-ce software ? Si c’est software, ça peut être corrigé par un bon driver (genre le 5X.XX). Si c’est un problème hardware, c’est que les Radeons ont un étage d’avance… Et ça, seule la future série Nvidia pourra contrer.
Malheureusement, ce n’est pas software, c’est lié à un choix de conception de Nvidia qui a voulu trop en faire sur ce coup. Résultat, pour être au même niveau qu’ATI qui respecte les normes, ils sont obligés de tricher niveau qualité.
Je crois que la norme disait 24 bits, et que Nvidia faisait 32, du coup c’est hyper-lent donc ils passent à 16, ou un truc du genre, bref ils ont été un peu présomptueux… Ce message a été édité par xentyr le 17/09/2003
Ce que je trouve aberrant, c’est ceux qui crient au complot, et s’imaginent que Valve et ATi font copain copain, et vont main dans la main. Ce n’est absolument pas dans l’intérêt de Valve de faire un jeu qui tourne volontairement beaucoup mieux sur un type de carte que sur une autre ! C’est d’autant plus évident que la majorité des cartes grands public restent des Nvidia.
Alors ceux qui ressortent sans arret l’argument du shipping de HL2 avec les dernieres cartes ATi, je leur dis “prout”. Faut réfléchir un minimum bon sang ! Bon ceci dit, je gueule ça sur cafzone alors que les geeks ici présents ont tous un minimum de jugeotte… Je ferai mieux d’aller poster ça sur 3dchips-fr tiens…
[quote]Ce
que je trouve aberrant, c’est ceux qui crient au complot, et
s’imaginent que Valve et ATi font copain copain, et vont main dans la
main. Ce n’est absolument pas dans l’intérêt de Valve de faire un jeu
qui tourne volontairement beaucoup mieux sur un type de carte que sur
une autre ! C’est d’autant plus évident que la majorité des cartes
grands public restent des Nvidia.
Alors ceux qui ressortent
sans arret l’argument du shipping de HL2 avec les dernieres
cartes ATi, je leur dis « prout ». Faut réfléchir un minimum bon sang !
Bon ceci dit, je gueule ça sur cafzone alors que les geeks ici présents
ont tous un minimum de jugeotte… Je ferai mieux d’aller poster ça sur
3dchips-fr tiens…[/quote]on ne peut nier que valve communique assez mal dans ce cas…
« on sort le jeu du futur mais il tourne pas très bien sur plein de cartes graphiques »
ou alors c’est juste de la hype pour faire mousser et tout ira bien pour tout le monde le jour de la sortie (ah oui… je les vois bien repousser hl2 en février/mars pour régler le problème des fx … ou sortir une autre carte tiens)
mais je serais nvidia ça me ferait chier d’être le point central de la pub de vavle
pour donjohn:
ATI: précision des couleurs: 24 bits (spécifications direct x 9)
NVIDIA: mix 16 et 32 bits avec le support 32 bits qui pèse sévère sur les performances…
pour plein de gens: un driver qui détecte les pressions sur la touche imprime écran je trouve a tres louche. pas de brouillard et pour sur l’image imprimé il y est !
pour un drole de bug, ce’st un drole de bug…
désolé j’ai pas la source, je sors de ma grotte, je 56k à fond et j’ai pas tro le temps de chercher ce’st sur pcinpact en tous cas…
tant qu’a foutre des brevets partout je vais breveté le fait de télécharger toutes les pages qui nous intéressent, les lires, et répondre des jours après le débat… saleté de 56k