Distribution de claques pour Nvidia

je viens de lire un truc interressant .

“”

Enfin, en réponse à une question sur le forum de Beyond 3D., Dave Baumann a répondu ceci :

[i]" Q : I only hope that it will not get even worse - TWIMTBP games getting some ‘optimizations’ to suddenly make them run slower on ATI hardware…

Dave Baumann : That type of thing has already happened. Have you heard of the problem with the water shader in Tiger Woods 2003? It works on NVIDIA’s boards, but not any others. Evidently there is a device ID detect in there - if you change another shader enabled board to an NVIDIA device id it runs the NVIDIA shader, not only that but it runs it fine - change the device ID of an NVIDIA board to a non-NVIDIA board and it breaks. Ask EA who wrote that shader code."[/i]

Q : J’espère seulement que cela ne va pas devenir encore pire - les jeux TWIMTBP récupèrant des ‘optimisations’ qui les feraient soudainement tourner plus lentement sur Radeon.

D. V. : Ce genre de choses est déjà arrivé. As-tu entendu parler des problèmes avec le Shader d’eau dans Tiger Woods 2003 ? Il fonctionne sur les cartes nVIDIA, mais pas sur une autre. Apparement, un il y a une détection du DeviceID ici, car sur on change le DeViceID d’une autre carte capable de faire tourner les shaders pour qu’elle réponde ‘nVIDIA’, non seulement le Shader tourne bien, mais si en plus vous changez le DeviceID d’une carte nVIDIA en un autre DeViceID, bizarrement le Shader arrête de fonctionner… Demandez à Electronic Arts qui a écrit ce Shader.

“”

la news complete c’est par ici

Génial l’anti-optimisation pour les cartes concurentes, tu parles d’un bordel… 'sont vraiment stupide chez Nvidia, ils peuvent se douter que de tels choses font plus de bien que de mal a leur image !
Ce message a été édité par Clad le 18/09/2003

[quote]Par contre, j’en profite pour pousser une gueulante sur les stratégies commerciales d’ATI. Là, c’est pas mieux. Je dirais même que l’on nage en eaux troubles. Il suffit de lire les centaines de posts comme les quelques uns que je vous mets en italique (et pas DVC). c’est bien beau de critiquer ATI sur ses maneuvres commerciales, mais en général, ce sont les fabriquants de carte graphique qui utilisent les chipsets ATI qui donnent des noms complétement tordus à leurs produits pour induire l’acheteur lambda en erreur, donc c’est pas à ATI qu’il faut s’en prendre si des gens achètent des cartes et qu’ils se retrouvent lésés.
Il suffit de prendre l’exemple d’une marque qui commercialisait une radeon genre 9600 (ou moins je ne sais plus) avec 256 mo de ram (complétement inutile) et qui lui mettait un nom bien pompeux pour faire croire que c’était du haut de gamme, avec un gros sticker qui criait “256 mo de Vram!!!”  style "mon dieu cette carte déchire ta maman les yeux fermés!"
C’est pas ATI le fautif…et si les gens se tenaient un peu informés du matos qu"ils achètent des fois au lieu de prendre le premier truc qui leur tombe sous la main, il y aurait sûrement beaucoup moins de réclam’

Quant à NVIDIA, ça me paraît normal que tout le monde leur tombe dessus,c’est pas vraiment à cause des pauvres perf’ de leur CG mais plutôt à cause du fait qu’ils ont bien pris tout le monde pour des cons. Rien que l’histoire avec 3Dmark (genre on vous attaque si vous vous rétractez pas, oh ben maintenant on est les meilleurs amis du monde dis donc, pi finallement vous avez raison, vos cheats c’est pas des cheats c’est seulement de l’optimisation hein!) est une insulte à l’intelligence des consommateurs avertis…et en plus ils remettent le couvers avec eidos et maintenant avec HL2,c’est bizarre c’est jamais de leur faute, c’est de la faute des autres.

Nvidia sais planté sur le marché grand public, mais pas sur le marché professionnel

Je crois pas me tromper en disant que les pro. préfère une précision en 32bit qu’en 24 !

Rien à voir. Les pros préfèrent quand ça va vite aussi, donc ton raisonnement est caduque. La norme choisie était le FP24 pour DX9 car on savait que le FP32 serait trop lent et le FP16 trop laid. Ben nVidia a pêché par orgueil en voulant à tout prix mettre du FP32 sans le nombre de pipelines nécessaires. Du coup, ils se retrouvent à faire du bricolage en repassant en DX8.1 pour que ça aille vite et que ce soit pas trop moche.

Vous avez le droit de lire les liens qu’on vous donne.
Ce message a été édité par xentyr le 18/09/2003

Vu sur http://www.factornews.com/seenews.php?n=6896.

Carmack en rajoute une couche :

Les pro. préfère la rapidité ? attend t’as des sources ? moi j’en ai pas () mais sa me parait logique qu’il préfère une plus grandre précision que de la rapidité !

spook, tu as oublié un mot dans ma phrase. C’est le “aussi”. Car tant qu’à faire, ils auraient sorti du FP64 si on voulait être juste précis. La précision seule ou la rapidité seule n’est rien pour les pros. Le meilleur compromis actuel est le FP24. Dans 6 mois, on sera peut-être au FP32, mais tu ne sors pas une techno quand elle n’est pas au point, sauf si le marketing fait nawak.

Bref, Doom 3, c’est normal qu’il ne soit pas trop affecté, car comme le dit Carmack, ils ont optimisé à mort sur DX7 et le DX9 ne sert que pour de l’opti ponctuelle, contrairement aux jeux vraiment DX9 dont H-L 2 est un des premiers représentants.
Ce message a été édité par xentyr le 18/09/2003

[quote]Carmack en rajoute une couche :[/quote]Je crois que Nvidia commence vraiment à en prendre plein la gueule…
En plus pour faire de la mauvaise pub ,il y a pas pire que Carmack qui reste quand même une référence dans le domaine du jeu 3D. Cette histoire est encore repartie pour un tour…

Hop j’ai trouvé une source (3dchips…j’ai pas mieux sur l’instant )

C’est pas vraiment des Quadro dont on parle niveau perf’ en ce moment.
Ce message a été édité par xentyr le 18/09/2003

Oui il est vrai mais moi je trouvais une escuse valable au fp32 !
J’aime bien faire l’avocat du diable

Spook a raison, le marché “pro” a plus plebiscité les cartes nvidia que les concurrentes grâce (à cause ???) de la précision 32bits. Les parts de marché sont là et Nvidia écrase tout sur ce segment.
Cela dit, la question est de savoir si c’est le “blabal” marketing de nvidia qui a fait son effet (encore une fois, je redis que lors d’une présentation officielle à un parterre des plus gros revendeurs français sur la gamme FX, j’ai entendu Nvidia raconter des gros pipos comme jamais) ou si c’est une réalité des besoins des utilisateurs. Perso, je connais pas assez 3DS et Cie pour me prononcer.

Spook rien avoir avec les perfs PS des cartes graphisques , ce qui se passe ds le marcher pro est du à une politique de l’époque où nvidia avait sortie la premiére quadro , à cette époque nvidia paticipais trés activement au dev d’opengl ( d’ailleurs nvidia ne veut pas partager avec l’ati bcp de ces technologies) et le tour de force de nvidia ds le marcher pro c’est d’être allié avec les les éditeurs de soft ,3ds max , xsi, etc pour l’implementation des ces techno, ce qui fais que par defaut ces softs sont trés optimisés pour les quadro en géneral , où ça position dominante ds le marcher pro

étant donné que le marcher pro s’en bat un peu des PS , mais est trés intéressé par une carte trés rapide et capable de bouffer des centaines de miliers de poly , ati à une bonne carte pour le marché pro le probléme c’est que les soft pros n’ont pas d’optimisations ATI , ce qui fait toute la difference
Ce message a été édité par ChiiBasta le 18/09/2003

Falais pas toucher au cadavre de 3dFX

maintenant il sont maudis…

Faut dire que c’est béte de tuer son adversaire et de mourir a son tour des meme probléme

Pour ce que je sais, NVidia ne fait pas ls memes erreurs que 3DFX, ils se font planter sur UN test : les pixel shader. Pour le reste leurs cartes sont largement aussi puissantes que celles d’ATI. Faut pas tout mélanger… surtout que là on parle d’une seule generation de carte. 3DFX s’est plantée sur 2 ou 3 générations…

[quote]Falais pas toucher au cadavre de 3dFX maintenant il sont maudis… Faut dire que c’est béte de tuer son adversaire et de mourir a son tour des meme probléme [/quote]Faut peut-etre pas les enterrer trop vite! Il me semble qu’a l’epoque la Riva 128 et la TNT 1ere du nom n’avaient pas connu un succes retentissant mais simplement un succes d’estime. On dira que c’est un faux pas alors gare au prochain.
Ce message a été édité par raoulito le 18/09/2003

Ce qui est quand même super marrant, c’est la manière dont tout le monde se déchaine là, en ce moment, sur Nvidia. Ca fait quelques temps qu’il y’a des suspicions, je me souviens d’une news sur The Inquirer ou le paranoiaque Fuad nous racontait qu’un developpeur se plaignait des perfs des shaders 2.0, et qu’un employé de NVidia confirmait qu’il y’avait un truc louche. Il aurait pas été un parano notoire, ca aurait peut etre pris un peu plus d’ampleur et ca aurait vraiment lancé le truc (on peut le dire, on a même un peu hésité a le passer en news sur le coup).

Ce qui se fait slaper en ce moment, ce sont les pratiques marketing et drivers de NVidia. La manière dont l’equipe drivers à réecrit les shaders des applis et benchs (souvent des benchs hein :P), voir pire (3D mark 2003, Tiger woods 2K3, etc…), pour combler le manque de perfs sur une norme a laquelle ils n’ont pas voulus participer, et se créer un avantage vis à vis du concurrent. Loin de moi l’idée de dire qu’ATi est blanc comme neige, même si c’est plutot le manque de clarté sur le découpage des modèles (les SE, LE, et compagnie, pas toujours indiquées, parfois même différentes…) qu’on reproche. D’un autre coté c’est pas un thread de bashage sur ATi :stuck_out_tongue: Et comme on dit, Nvidia avait un peu pris le melon depuis quelques temps, en imposant ses règles du jeu à tout le monde. Donc là quand ils font un faux pas, bah tout le monde vide son sac. Et ca risque de continuer. Ca serait marrant que la presse balance un peu aussi, je suis sur qu’il y’a des trucs croustillants, hein

Pourquoi Valve à lancé le truc alors ? Parce qu’ils ont pleins de thunes, qu’ils s’en foutent un peu, et que Nvidia à 0 moyen de pression sur eux. C’est pas forcément le cas de tout ceux qui se sont mis à parler au fur et a mesure, après. Regardez les déclarations de Mr Eidos qui nie son benchmark, par exemple. Vu les ventes de HL et l’influence des gars, ils peuvent toujours y aller. Et la d’un coup, ils ont crevé l’abcès, ils ont ouvert la voie, et tout le monde s’engoufre en balançant tout ce qu’il à sur le coeur. Alors c’est sur d’un coup ca fait beaucoup, et les fans de Nvidia crient au bashage. Ils n’ont peut être pas tort à 100%. Mais sur le fond, ATi est devant en terme de perfs. S’il n’y avait que ca, a la limite, ca ne serait pas la mort. Nvidia à enduit d’erreurs un tas d’acheteurs avec ses « optimisations » dans 3d mark et ailleurs, et à un peu pris les reviewers pour des loutres, dans l’histoire. C’est ca le(s) fond du problème.

Est ce que sur le long terme ca va changer le comportement et l’attitude de Nvidia envers les différents acteurs du milieu ? Va t’on voir encore des Tiger Woods 2K3, des 51.75, ou des clippings de la mort dans 3D Mark ? Une chose est sure, là, ils sont surveillés. Et si ca recommence ils ne se feront pas louper.

 

[quote]étant donné que le marcher pro s’en bat un peu des PS

Je paraphrase/traduit/raccourci un commentarie de Carmack (sur slashdot de mémoire) : grace aux pixels shaders ont est maintenant capables de faire tourner sur une carte 3D classique n’importe quel rendu RenderMan (très pro donc). Pas du tout en temps réel, mais c’est pas le fond du problème.

Donc sur le fond, oui, les améliorations et les performances des shaders ca interesse les pros, parce qu’ils peuvent simuler des choses via le GPU alors qu’avant c’etait impossible.

Euh … Temps mort non ?

Faudrait pas oublier que l’on parle d’un jeu et non de la dernière tragédie mondiale…

AMHA, Valve est plus que sponsorisé par ATI. Pour deux raisons… A part HL il n’ont rien sorti… Et si HL existe toujours c’est grace à CS (qui n’a rien à avoir avec Valve). La deuxième, c’est que brutos ils nous sortent un jeu au dernier E3 sans crier garre et tout tout. Comme si de toute façon coté pognon c’était tout cuit… Or si on regarde le reste des jeux, ils font tous des annonces au moins 1 an avant (voire 2) ne serait ce que pour maintenir leur position sur le marché… (Il n’y a qu’à voir pour Doom3 et qu’on ne me dise pas que Q3 ne s’est pas vendu).

Autre réflexion (oui je sais je devrais pas trop en abuser), le marketing c’est pas nouveau… Tous les constructeurs nous bourrent le mou avec leur effet d’annonce et leur blabla pseudo technologique. Quand on voit le nombre de merde qu’ATI a laché sur le marché OEM (Parce que j’ai subit moi le Rage Pro et merci bien la daube) sans assurer un cachou niveau driver ou perf, faudrait pas non plus effacer l’ardoise trop vite. Et puis ne soyons pas non plus trop con… Qu’est ce qui nous pousse à sortir finalement la CB ou le chèque pour s’offrir la dernière carte vidéo à la mode ? C’est pas ATI ni NVIDIA, c’est quand même nous qui validons le code ou signont d’une main un peu tremblante… Si on est suffisamment con pour prendre les arguments marketing pour argent comptant ou la moindre info pondu sur le net (sans doute la plus grande source de désinformation au monde) comme parole sacrée, c’est pas à ATI ou NVIDIA qu’il faut s’en prendre mais au gus que vous croisez chaque matin devant le miroir.

Je me fout de savoir qui a tort qui à raison, je me fout de savoir quelle carte marche le mieux sur tel ou tel jeu, je me fout de savoir quelle techno fait tourner le jeu du moment que ca marche… Ce que je sais c’est que j’ai encore le droit de choisir une carte vidéo tout seul sans qu’un gentil constructeur ou éditeur de jeu me tienne la main pour signer le chèque…

Alors siouplait, arretez un peu de polémiquer dans le vide, il y aura d’autre jeux, d’autres cartes vidéo, donc largement de quoi discuter encore sur des choses sans doute plus concrêtes…

Note à Caféine: pas très glop ton post, j’ai reluqué attentivement les deux liens et tout ce que j’ai trouvé c’est des “On dit…”  Sans doute encore un coup de la loutre…