Décidément, les deux grands rivaux du monde des cartes 3D n’ont visiblement rien de mieux à faire que de se cracher au visage lors des conférences publiques. Souvenez-vous, hormis l’affaire Half Life 2, on avait déjà eu droit à ce genre de règlement de compte avec Aquamark 3, où les faiblesses des nouveaux Detonator (désormais renommés Forceware) avaient été mises en évidence. Eh bien, c’est au tour de Nvidia de riposter.
Lors de la conférence “Editor’s day” de Nvidia, notre ami Mark Rein d’Epic Games s’est fendu d’une présentation visant à montrer que sous Unreal Tournament 2003 (qui est estampillé “The Way It’s meant To Be Played”, rappellons-le), les cartes d’ATI affichent les textures les plus proches avec un niveau de détail moins élevé que les cartes Nvidia dans le but d’améliorer les performances. Tiens ça a comme un air de déjà vu…
Hardware.fr s’est penché sur la question, et selon eux il apparait que tout cela n’est que du bon gros pipeau commercial. Alors ce n’est jamais que la réponse du berger à la bergère après le coup fumant de Gabe Newell lors du Shaders Day d’Ati, mais tout ça laisse un arrière goût bien amer.
Que retirer de cette affaire ? Eh bien que l’on a pas fini de bouffer de l’annonce commerciale bien foireuse, et que le consommateur moyen aura bien du mal à s’y retrouver. Tout simplement.
On est encore dans le marketing ou plutot dans la difamation?
Toute ces histoires commance a être bien chiante a mon avis et ne font pas avancer le bazard. On dirait un truc du genre, le premier qui dit qui y est.
Et au vus de la news paru chez Hardware.fr, je me demande ci les constructeurs (ATI et Nvidia) et les éditeurs (pas besoin de faire la liste, elle sera longue) a l’aproche de Noel cherche a faire parler d’eux gratuitement pour vendre plus.
Tsss, mon dieu. Et Mark il en pense quoi du trilinear filtering qui n’est pas activable sous UT (ni dans aucun jeu avec les derniers détonators, pardon, forceware) ?
Deux images pour exposer le problème, dans Flight Sim 2004 (from HardOCP) :
Si si, ça se voit tres nettement dans les arrieres plans. Et puis sur une image statique c’est peut etre pas si genant, mais en mouvement ce l’est beaucoup plus. On se retrouve alors avec un effet de “bandes”, où les démarcations entre les niveaux de détail sont trop visibles.
[quote]t’en as d’autres des comparatifs comme ca pour d’autres jeux ?
http://www.hardocp.com/article.html?art=NTM3 pour l’article complet. Et oui, il faut regarder dans le fond du paysage. La non présence d’un filtrage correct se fait d’autant plus sentir sur Flight Sim que d’autres vu la perspective utilisée par la caméra.
Dans d’autres jeux comme des FPS on ne voit pas forcément grand chose, c’est au cas par cas.
Bah de toutes façons, qui joue a flight simulator ? Les gens qui aiment ne rien faire pendant des plombes en regardant leur écran, merci j’appelle pas ça m’amuser. Mais bon apres tout, tous les gouts sont dans la nature
En ce qui concerne la comparaison entre les deux cartes, je voudrais dire ceci:
nVidia était tellement en avance sur tout le monde qu’ils ont fabriqué leurs cartes selon des specs trop hautes ou en tout cas dont la puissance n’est pas dirigée vers les bonnes specs par rapports aux espérance de microsoft (directx) et Ati leur principal concurrent.
Si microsoft avait sorti un directx 9 en 32bit et pas 24 (je simplifie), c ATI qui serait entrain de mordre la poussiere.
Bof on a dit également la même chose lors des premières cartes estampillées AA (AntiAliasing). M’es d’avis que les cartes actuelles sont un peu juste pour tirer toute la quintescence des outils livrés avec…
M’enfin après tout, l’essentiel c’est que les jeux tournent et que ce soit regardable… Après le reste…
[quote]Si microsoft avait sorti un directx 9 en 32bit et pas 24 (je simplifie), c ATI qui serait entrain de mordre la poussiere.
Alors camembert, messieurs les guignols !! (;)) [/quote]Oui, mais en faite ca serai plutot NON. Car même si le 32 bit était de mise dans DirectX 9. Nvidia ne respect pas d’autre point sur DirectX 9. (je fait simple aussi)
A lire Ce message a été édité par Zaxe le 25/10/2003
Pour rester poli je vais dire qu'ils sont (comme d'hab) à coté de la plaque chez PPC.
Le débat ATI/Nvidia est pas pret de finir décidément, je vais rappeler quelques trucs quand même, ca vire technique mais je me lache, c’est un forum de geek apres tout :
Microsoft et ATI ont développés DirectX 9 ensemble (comme MS avait développé le 8 avec Nvidia).
Le 24 bits dans DX9 n’a pas été fait pour favoriser ATI. Y’avait personne a favoriser, voir point précédent. Ce qu’on peut dire c’est que les specs se sont baladés plusieurs fois entre 24 et 32.
Mais tout ca on s’en tape totalement. 24/32 c’est un faux débat, le problème est ailleurs. Qu’une unité calcule du 24 ou du 32 est IDENTIQUE en temps. IDENTIQUE.
Les architectures sont parrallèles, il y’a plusieurs unités FP par pipeline. Le nombre d’unités influe directement sur les perfs.
Nvidia à moins de pipelines qu’ATI.
Les unités FP de Nvidia ne peuvent utiliser que 2 registres par opération par cycle, et c’est pour ca que ca rame. Si on leur fait traiter à ces unités du 16 bits, elles peuvent avoir 4 registres par cycle. Sur les shaders compliqués (ceux qui ont besoin de plus de 2 registres), ca va donc plus vite. LE defaut de design est là, et pas ailleurs.
Bref, 24/32 c’est du pipo marketing pour dire “oui mais nous on avait vu grand patati patata”. N’oubliez pas une chose, une carte est fait pour UNE spec DX. Les specs qui “dépassent” et qui “anticipent” ne sont jamais mises a profit (la liste est longue).
Dans cette industrie, parfois on gagne, et parfois on perd. Ca sert a rien de jouer le fanboy en disant “flight sim c’est pour les nazes” ou “mais ma carte elle est très bien, et puis meme si ca va moins vite dans un jeu elle les fait tourner quand meme”. ATI est devant Nvidia cette année, que ce soit en perfs ET en qualité d’image.
Et je ne peux pas décement conseiller une autre carte qu’une Ti4200 dans la gamme Nvidia actuelle.