Gordon, Ati et Nvidia sont dans un bateau

Vous vous souvenez tous du bench de Tomb Raider V (ou VI je sais plus trop ou ils en sont – on s’en cogne, c’est un jeu de daube) qui permet de réellement tester les cartes Dx9 et les fonctionnalités de Pixels shaders 2.0 ? Vous avez donc tous en mémoire la claque que s’est pris Nvidia…

Et bien un fan de Half-Life² (ah ça y est, après 5 lignes, on en viens au véritable sujet de la news) a montré quelques inquiétudes sur les forums de Halflife2.net au sujet de la compatibilité du futur hit de Valve et des cartes GeForce FX.
Et c’est un gentil monsieur de Valve (Gabe Newell) qui a répondu que oui, effectivement, ça craignait grave pour les possesseurs de GeForce Fx (surtout ceux qui avaient vendu un rein pour obtenir le joujou). En clair et en anglais dans le texte :
“The DX9 performance described by the Beyond3D article is consistnt with what we’ve been seeing”…

Je vous laisse le soin de choisir votre camp d’ici Noël, surtout toi Beethoven04… ;-p

[i]ndCaf : Hey mon gros BarracuddA, rapport à ton commentaire dans ta news originale, va te fouetter avec des orties fraîches, c’est pas du tout ce que j’ai dit. Moi je dis que Tomb Raider c’est codé avec les pieds alors jamais j’utilise cette bouse pour bencher quoi que çe soit, point barre. L’autre truc qui est « bizarre », c’est les perfs du 3DMark2003 du coup. Mais bon, pour ceux qui ne suivent pas, depuis la sortie de la R9700 Pro je dis qu’ATI rulez. Tiens, pour rire, sachez que j’ai une GF FX 5900 Ultra dans mon PC de jeu actuellement. Toutes les betas pour Joy plantent plus que sur Radeon 9700/9800, je me cogne le phénomène des Rolling lignes (sorte de fluctuation de la luminosité de l’image, super pénible et connue des utilisateurs ricains, Nvidia fait même une enquête avec les utilisateurs vivant du côté de San Francisco. Amusant…).

Bref, quand on sait maintenant qu’ATI équipera la Xbox Next et était le partenaire officiel de MS pour DX9, on comprend que chez Nvidia, on a un poil dérapé. Quant à l’histoire selon laquelle Nvidia équipera la PS3, je n’y crois pas du tout pour la simple raison que Sony est engagé sur un développement 100% interne ou avec des partenaires sous contrôle, tout en développant son propre business sur les processeurs. We’ll see…[/i]

ndBarracuddA : ouai, c’est bon, je pars m’enterrer au bout du parking… T’es suceptible en ce moment toi  
Ce message a été édité par BarracuddA le 29/08/2003

Je me suis toujours demandé lors de la présentation de la Gamme FX 5200/5600/5900 pourquoi, alors que Nvidia disait tant de bien sur ses nouvelles technologies (en parlant en plus de Half Life 2 … lol), pourquoi à la fin ils nous ont donné une Ti4200. Au début j’ai cru que c’était pas mesquinerie (ou pour liquider des vieux stocks), mais là je crois que c’est pour qu’aucun des revendeurs présents ne sache vraiment ce qu’il vende, sinon jamais il en aurait mis dans son magasin :wink:

Par contre, dans la gamme des cartes pro (quadro et autres), comment se fait il que les cartes Nvidia explosent toute la concurrence (sachant que c’est de la technologie FX dedans) ???

[quote]ndCaf :
…, je me cogne le phénomène des Rolling lignes (sorte de fluctuation de la luminosité de l’image, super pénible et connue des utilisateurs ricains, Nvidia fait même une enquête avec les utilisateurs vivant du côté de San Francisco. Amusant…).

Euh ce serait pas des lignes horizontales qui se déplacent verticalement ??? C’est connu ? (enfin reconnu par les constructeurs ?) 
Parce que, perso, j’ai ce problème avec mon ATI 9500pro, et que chez mon joyeux revendeur Taïwannais, on me dit que ce n’est pas un problème matériel; donc qu’on ne me changera pas ma carte.
http://www.cafzone.net/ipb/index.php?showtopic=6434

Maverick qui sent l’espoir revivre…

bon ben je sais quoi acheté lorsque je serais pété de thune…

Vu les prix chutant et bas des Sapphire Atlantis Radeon 9800 non Pro, c’est promis, débutant septembre, d’ici une semaine ou 2 quoi. Je l’achete ! Ha !

[quote]Je vous laisse le soin de choisir votre camp d’ici Noël, surtout toi Beethoven04… ;-p[/quote]Bah, j’attend gentillement la sortie d’HL² pour voir ce que ça raconte, et je me fierai au jugement de Cafounet pour l’achat d’une nouvelle carte graphique (comme ça au moins je saurai sur qui taper si je ne suis pas content ).

ps: la nouvelle radeon, c’est un rein ou un rein + le foie ?

Et bien disons que la 9700 pro lorsque je l’ai acheté m’a couté un rein plus le foie (480 &#8364, je regrette pas mais bon si pour HL le top c’est une 9800 ou 9900 pro ben c’est ma geekette qui va etre contente et se recuperer la 9700pro enfin j’espere ne pas avoir a vendre son rein et son foie pour en arriver la

A mon avis avec 9700 pro ca ira sans probleme vu que que la 9700 pro et la 9800 pro sont assez semblable.

Ben si ATI fonctionne mieux avec les jeux codés avec les pieds, ça veut dire qu’ils ont fait en sorte d’etre assez souple pour ne pas imposer aux developpeurs de tuner leur jeu pendant 6 mois par carte, c’est plutôt sympa pour nous autres développeurs en detresse

Quant aux benchs, ben vu que les gars qui les font n’ont QUE ça a faire, et qu’ils testent généralement les features une à une… ça n’a clairement rien à voir avec les jeux. Et ceux qui me diront que dans 3Dmark y’a des “scenes de jeux” je leur dirait que y’a en fait des realtime cinematic de jeux, et encore Ils ont, encore une fois, beaucoup plus de temps et beaucoup moins de contraintes que dans un vrai jeu

[quote]Vous vous souvenez tous du bench de Tomb Raider V (ou VI je sais plus trop ou ils en sont – on s’en cogne, c’est un jeu de daube) qui permet de réellement tester les cartes Dx9 et les fonctionnalités de Pixels shaders 2.0 ? Vous avez donc tous en mémoire la claque que s’est pris Nvidia…
Bon, alors c’est pas pour faire mon gros lourd, mais faut arreter les surgénéralisations provocatrices à 2 balles (oui, je pèse mes mots, ca me soule ce genre de news, je suis ennervé, j’ai mauvais caractère, rayez les mentions inutiles). Non seulement tu sous entend qu’il n’y a rien d’autre pour tester les shaders 2.0, mais en plus que le bench de Tomb Raider (et plus loin, les “commentaires” d’un dev de HL2, j’y reviendrait) serait le test ultime qui permettrait de dévoiler la perfidie, que dis-je le secret d’etat qui a échapé à tout les testeurs hardware du monde.

Alors je repete ce que d’autres ont déjà dits. Ce n’est pas parce qu’un jeu est programmé pour une API donnée qu’il n’est pas plus adapté à une architecture qu’a une autre. Deux drivers (et donc 2 materiels) peuvent implémenter les mêmes fonctions de bases tout en offrant des niveaux de performances différents, et des répartitions des pipeline (et donc des performances) différentes selon les cas proposés.

Rentre ensuite en compte le temps passé par les programmeurs à l’optimisation pour une architecture ou l’autre. Oui c’est nécéssaire. Non on ne peut pas faire de la programmation générique qui marche bien partout. Bah non c’est comme ca et puis c’est tout. Alors pourquoi les implémentations “de base” (tomb raider) favorisent ATI ? Pour la même raison que les implémentations “de base” directX 8 favorisaient nvidia, le sdk de DX9 à été développé avec ATI. Et ca sera pareil avec le 10. Des TAS, des GROS TAS de jeux ne sont pas correctement optimisés pour tous les materiels. Combien de jeux arrivent en beta, ne supportant qu’une seule carte (pas une famille, UNE carte) graphique et qu’une version de drivers. Le support des autres cartes étant ajoutés en dernière minute en corrigeant les bugs qui trainent, et en s’assurant que ca marche a peu pres correctement. Des très gros titres récents ont eu des problèmes de ce genre, et il faut parfois attendre des patchs pour que ca soit solutionné (nan je ne citerai meme pas de noms). Et de l’autre coté, quand on lit les .plan de Carmack entre les lignes (très instructifs sur les codepaths… encore faut il se donner la peine de les lire), on est pas forcément très inquiets sur les performances d’un coté comme de l’autre, et l’on comprend un peu mieux les choix réalisés dans le design des deux cotés.

Et pour finir sur HL2, vu ce qui se passe quand un developpeur de Valve commente dans un forum ces derniers temps (ai-je besoin de rapeller ce qui s’est passé le mois dernier ?), j’attendrais avant d’hurler au scandale. Sans compter qu’il à été dit par ces memes gens de Valve qu’ils utiliseraient peut être une partie de la bande passante des shaders 2.0 chez nvidia pour “patcher” l’anti aliasing buggé, le tout selon le même Valveur. Alors du calme, et attendons de l’avoir entre les mains avant d’aller plus loin dans les spéculations et les généralisations éhontés.

C_Wiz
(et vive Carmack :P)

Ce message a été édité par C_Wizard le 30/08/2003

Euh, c’est gentil ton coup de gueule là mais juste une question : Tomb Raider a bien été optimisé (ou programmé ) en Cg (langage Nvidia donc) ou j’ai rêvé ?
Non parce que bon, on peut dire ce qu’on veux sur le fait qu’un seul jeu c’est pas représentatif, que le jeu est mal fait ou que sais-je mais d’un point de vue marketing (et la guerre Ati Nvidia est souvent marketing), ben ça la fou super mal. Alors après, quand on s’y connait on en tire les conclusions qu’on veux (ou doit), mais quand on est du “grand public” ben là on se dit : merde, j’ai payé une carte 500€ qui est super nulle en fait et que je devrais changer dans 2 mois pour les nouveaux jeu DX9 (parce que c’est comme ça que Nvidia les vend … en tous cas les Doom3 et HL2 … j’étais à la présentation revendeur en France pour le lancement des cartes).

Alors, oui y’a parfois du grand n’importe nawak de partout (constructeurs, éditeurs, presse), mais y’a surtout quand même une grosse claque marketing pour Nvidia qui s’en prend pas mal depuis 1 an maintenant (car la radeon 9700 a déjà 1 an !!! J’ai jamais eu une carte graphique aussi longtemps, en sachant que je pourrais la garder encore quelques bons mois).

Wake Up Nvidia !!!

edit : bug du smiley
Ce message a été édité par Electric_Boogie_Back le 30/08/2003
Ce message a été édité par Electric_Boogie_Back le 30/08/2003

salut à tous !

DX9 dévelopé en partenaria avec ATI ? hum… Le but initial de directX, c’était pas de standardiser les fonctionnalités des composants multimédias si je me souvient bien ?
Dans ce cas là, pourquoi ne pas dégager directX de la partie (ou je sais) et les constructeurs de carte feraient ce qu’ils veulent (ainsi que le développeurs) , comme à l’époque des premières carte son ?

Si ca part dans ce sens, qu’on m’explique l’intérêt de DirectX pour les cartes graphiques à terme.

[quote]Euh, c’est gentil ton coup de gueule là mais juste une question : Tomb Raider a bien été optimisé (ou programmé ) en Cg (langage Nvidia donc) ou j’ai rêvé ?[/quote]Et ? Ca reste un langage de haut niveau pour utilser les shaders. Vu que chaque constructeur dispose de sa propre implémentation “étendue” de la norme de DirectX, le problème reste strictement le même. Je ne retire rien de ce que j’ai dit plus haut.

[quote][quote]Euh, c’est gentil ton coup de gueule là mais juste une question : Tomb Raider a bien été optimisé (ou programmé ) en Cg (langage Nvidia donc) ou j’ai rêvé ?[/quote]Et ? Ca reste un langage de haut niveau pour utilser les shaders. Vu que chaque constructeur dispose de sa propre implémentation “étendue” de la norme de DirectX, le problème reste strictement le même. Je ne retire rien de ce que j’ai dit plus haut.[/quote]Oui, sans doute mais ce que je te dis, c’est que la bataille se porte surtout sur un terrain marketing, à de ce fait, cette histoire nuit beaucoup à l’image commerciale de Nvidia, d’autant que - je le répète - le marketing de nvidia est clair : on a un top langage, nos cartes FX sont optimisées pour et sont les plus aptes pour les jeux DX9.
Du coup, mr X achète un FX5900 croyant que sa carte fera très bien tourner les jeux de demain, et quelques semaines après il lit partout qu’un “vieille” ati9700 fait mieux avec ces “fameux jeux de demain”, même quand c’est le langage de Nvidia qui est utilisé.
Alors Mr X ben il est pas ingénieur, ni programmeur, mais il sait qu’il a dépensé 400 ou 500€ dans une carte qui du coup, pour lui, paraît être un mauvais investissement !

[quote]

[quote]

[quote]Euh, c’est gentil ton coup de gueule là mais juste une question : Tomb Raider a bien été optimisé (ou programmé ) en Cg (langage Nvidia donc) ou j’ai rêvé ?[/quote]Et ? Ca reste un langage de haut niveau pour utilser les shaders. Vu que chaque constructeur dispose de sa propre implémentation “étendue” de la norme de DirectX, le problème reste strictement le même. Je ne retire rien de ce que j’ai dit plus haut.[/quote]Oui, sans doute mais ce que je te dis, c’est que la bataille se porte surtout sur un terrain marketing, à de ce fait, cette histoire nuit beaucoup à l’image commerciale de Nvidia, d’autant que - je le répète - le marketing de nvidia est clair : on a un top langage, nos cartes FX sont optimisées pour et sont les plus aptes pour les jeux DX9.
Du coup, mr X achète un FX5900 croyant que sa carte fera très bien tourner les jeux de demain, et quelques semaines après il lit partout qu’un “vieille” ati9700 fait mieux avec ces “fameux jeux de demain”, même quand c’est le langage de Nvidia qui est utilisé.
Alors Mr X ben il est pas ingénieur, ni programmeur, mais il sait qu’il a dépensé 400 ou 500€ dans une carte qui du coup, pour lui, paraît être un mauvais investissement !
STOP !

Bon, je crois qu’on s’est légèrement mal compris. Mon coup de gueule porte sur la NEWS, et sur le fait qu’on fasse une news d’un commentaire donné dans un forum par un dev de Valve (avec tout ce que ca implique), en rappellant “l’affaire” Tomb Raider sur laquelle je passe une bonne partie de mon post.

C’est contre ca, et CA uniquement que je pousse mon coup de gueule, et sur rien d’autre. En aucun cas je ne prend partie pour NVidia (ou d’ATI pour le coup). Et en aucun cas je ne cautionne le marketing de NVidia, qui se prend de toute facon minimum de une a deux news dans le nez chaque mois dans joy.

Le marketing, c’est le message du constructeur en vue de vendre ses produits. C’est donc souvent (aumoins un peu</mode pincettes&gt biaisé. Je conseille à Mr X. de ne pas se fier au marketing et de lire les (bonnes) revues spécialisées.

[quote]Le marketing, c’est le message du constructeur en vue de vendre ses produits. C’est donc souvent (aumoins un peu biaisé. Je conseille à Mr X. de ne pas se fier au marketing et de lire les (bonnes) revues spécialisées.[/quote]J’aime bien cette remarque  . C’est vrai que Mr X est un peu con aussi des fois de pas lire … au hasard … Joystick

Sinon, pour la NEws, ok, effectivement je comprend mieux ton commentaire maintenant. Mais bon, on peut dire ce qu’on veut, les mecs de Valve sont quand même pas des manchots (y’à qu’à voir ce qui circule sur HL2) ni les premiers venus et donc, même s’ils n’ont pas parole d’évangile, c’est quand même pas rien quand ils ouvrent leur gueule. Donc après on adhère ou pas, mais je pense que rapporter leurs propos (et ceux d’autres aussi), peut être sujet à News. Faut juste bien différencier “rapporter leurs propos” et “cautionner leurs propos”

[quote]Faut juste bien différencier “rapporter leurs propos” et “cautionner leurs propos”

La c’est carrement de l’interprétation, d’ou mon ennervement.

Quand on voit le pseudo scandal provoqué par les mecs de Valve à cause de l’anti aliasing sur les cartes NVidia… (tiens, et comment ca s’est fini cette histoire, hein ? serieux. voila, ca a la limite ca peut lancer une bonne polémique, y’a du fond). Je n’ai aucun doute que la sortie de HL2 risque d’ammener quelques surprises, voir même des grincements de dents.

Faire une news dessus, oui, faire une news comme ça, non.

Ben là c’est pas à moi de commenter donc … mais à Barra (ou Caf vu qu’il a fait un commentaire aussi dans la news)
Ce message a été édité par Electric_Boogie_Back le 30/08/2003

Bon, comme je suis à la maison (land of freedom and home of the 56k), j’ai juste lu en diagonale les posts…
Donc je réponds Lundi (en espérant ne pas avoir trop de boulot)…

Juste une question pour C_Wizard : les frais de dialise sont si élevés que ça ?

[quote]Juste une question pour C_Wizard : les frais de dialise sont si élevés que ça ? [/quote]…