Distribution de claques pour Nvidia

C’est la grosse fessée pour Nvidia qui semble visiblement en dessous de tout ces derniers temps. Plusieurs articles édifiants sur leurs manières de cacher les problèmes de GeForce FX sont disponibles. Je vous link juste deux news parues chez Anand : <a href=http://www.anandtech.com/news/shownews.html?i=20529 target="_blank">ici et <a href=http://www.anandtech.com/news/shownews.html?i=20525 target="_blank">là. A vous d’en tirer les conclusions qui s’imposent.

PS : on doit boire du petit lait chez ATI. Voir son plus gros concurrent se tirer dans le pied à ce point, c’est presque inespéré.

Bah voilà, ils ont fait une génération de puces moins performantes que leur concurrent, et on va porter une marque au tombeau.
Il sort une puce graphique tous les 6 mois, tous els 9 mois ? Et les firmes sont jeunes. ET les clients de ces firmes sont jeunes.
Et bien souvent couillons (Voire des troispommes s’exprimer sur des réalités de strategie industrielle dans les avis ou commentaires de news ou de matos (je parle des réactions des surfers, pas des newsers) ça me fait secouer la tête doucement).

Comme quoi le marketing ça marche, c’est positionner une image de marque. Enfin bon, parmi les gens qui brament qu’ati c’est les rois du monde (!), que leur cartes sont les meilleures (ce qui semble être très vrai pour le moment), combien ont une ti 4200 (excellente carte, je pense que tout le monde est d’accord, niveau bang for your bucks c’était une bonne affaire…) vissée dans leur machine ?

Et combien d’entre vous ont des geforce à turbine radiale et évent à l’arrière (le système OTES qui sert à abuser le crédule…) ou une Radeon 9800 machinchouette ?

Bref, Le marketing nous a eus, puis qu’on a un avis alors qu’on s’en bat, qu’on est pour ou contre telle ou telel marque alors qu’on aura pas l’occasion de penser à changer de carte avant noel…

ATI, Nvidia, Sis, euuuh, XGI, enfin, tous ceux là, surtout les deux plus gros, pondent à toute vitesse des cartes mieux plus plus. Tous les 6 mois. Pour de l’industrie, c’est du délire. D’autant plus que le produit est complexe. Très. Alors s’il vous plait. Please. Bitte. Ne dites pas “Nvidia c’est de la merde”, j’en ai une, vous en avez eu une, peut être, et vous en avez été content. Sinon je vais finir par croire que les mômes sont tous cons… (Note pour le lecteur : cette habile figure de style n’est en rien insultante, elle vise juste à comparer une phrase lancée dans le vide d’une rue du 12ème arrondissement à une réalité bien plus concrète).

Toujours est il que M’sieur Nvidia, c’est des ingés, des techs, et BEAUCOUP de marketing. Pas de bol, c’est le marketing qui vous entube… Comme quoi il ne faut jamais se précipiter sur un produit en se basant sur des specifications constructeurs ou des promesses de lendemains qui chantent ou de drivers qui seront optimisés (les vétérans du Rage 64 se souviennent).

Désolé, je crois que je me suis emporté.

Enfin, bref, je trouvge ça louche qu’on ne réalise que mmmhhh 6 mois après les premières annonces, 3 mois après les premiers essais ?, que cette carte est un gros veau poussif (pas grave) et couteux (là, déjà, c’est plus gênant)… Pas vous ?

Oui.

C’est TRES louche cet engouement anti-nvidia.

Je remet ici une tres bonne analyze de Arstechnica, les anglophones apprecieront. Les autres iront apprendre l’anglais Allez hop! En substance ca dit que faut depasser la hype du jour (“Nvidia sucks&#8220 et voir que ATI lache des brouzoufs comme des oufs pour faire dire aux fabricants de jeux “Nvidia c’est des mechants, ils trichent et en plus ca rame sur mon jeu“. HL2 est un tres bon exemple. Cf. Le texte… Bien sur NVIDIA a des problemes mais les proportions dans lesquelle c’est en train de devenir c’est du grand n’importe quoi… comme d’hab dans ce genre de debats religieux… Et je suis pas un pro Nvidia ou un pro ATI Pour une fois je m’en fout.

Last week Hannibal wrote up this bit analyzing what can only be called a brewing storm in the graphics world: Valve called out NVIDIA’s GeForce FX’s performance and quality. Never mind the fact that the comments were made at an ATI-sponsored event or the fact that Valve and ATI have entered into a lucrative bundling deal–NVIDIA is the new evil and scorned Alexis, ostensibly guilty of cheating on benchmarks. And we need not concern ourselves with the fact that ATI admitted to a certain kind of cheating themselves, albeit with rather smooth language. NVIDIA’s own response to Valve’s charges seemed to fall largely on deaf ears: the community has for the most part decided that NVIDIA sucks, and you can’t trust what they say.

Yet NVIDIA raised some interesting points; appealing to a number of factors, they defended their performance while questioning two things: 1) why did Valve not use the most recent drivers, and more importantly 2) why did Valve, with whom NVIDIA has a working relationship on this very game, not say nary a word to NVIDIA about these problems, instead waiting to release them in a sensational fashion? For the most part, these questions are going unanalyzed because some think it political suicide to give NVIDIA the time of day right now. Perhaps it’s a side effect of the geek lust for all things binary, but I’m wary of a situation where reports depict NVIDIA as the Debil, ATI as God, and Gabe Newell of Valve as the Revelator. Lest we forget… Half-Life 2 is not on the shelf right now, and if NVIDIA is to be believed, they’ve not had a full chance to look at the situation with Half-Life 2 (or with pixel shaders). The situation is remarkable: people are burning effigies, boiling pots of oil, and sharpening their knives over the speculation of how the GeForce FX will perform on an unreleased game. And better yet: most gamers are too broke to afford a Radeon 9800 Pro or a GeForce FX 5900 Ultra, anyway (but if you’re in the market, go with ATI .

The tone above is one of frustration. There’s a lot of sensationalism swelling around these events, and it doesn’t seem as though many people want to think about the bigger questions. It’s far easier to point fingers and laugh, or to spin stories until there’s just not interest anymore. Here’s what I’d like to hear more about. Just who is controlling the DirectX development path, and just who is saying “sure, we can call that a DX 9 part, even if it’s not”? Where is the certification process for DX 9? How did NVIDIA release a line of DX 9 parts that actually can’t run some games well at anything but DX8? Hannibal already linked this up, but I think more can be said about this technical article at 3DCenter. In particular, this is the quote I found most interesting:

A pixel shader 2.0 written according to the recommendations from ATi or created with the current DX9-SDK HLSL compiler unfortunately highlights all those problems [with NVIDIA’s architecture]. Such shaders use many temp register and have texture instructions packed in a block. A shader of version 1.4 uses the same principles. nVidia will have to tackle these problems, the earlier the better. Microsoft is working on an SDK update which will include a new version of the compiler that can produce more “NV30-friendly” code with less temp registers and paired texture ops. But if developers use PS 1.4 or generate only one PS 2.0 shader, this compiler won’t help nVidia much. They will have to solve the problem in the driver.

Pixel Shader 1.4 and 2.0 performance isn’t great because NVIDIA’s hardware isn’t designed to handle it optimally. ATI’s is. So it is Microsoft who plans on releasing an updated compiler to help NVIDIA out of this mess, since as it stands now, Microsoft’s DX compiler produces code that works great for ATI, and not so great for NVIDIA (it works great for ATI because they stayed close to spec, as far as I can tell). This is actually old news: Carmack has already said that pixel shader performance on NVIDIA’s new GPUs will be lackluster unless you code directly for it (which curiously he is, but Valve isn’t…I guess they gave up). Coding for specific hardware isn’t anything new. In fact, it’s pretty much the legacy of 3D accelerators. The difference now is that DX 9 is very mature, very complicated, and perhaps too open-ended. It’s also not a hardware spec. There’s more than one way to get anything done according to the DX specifications.

NVIDIA will continue to update their drivers (they already have, and will continue to do so), but everyone will call it “cheating.” Their silicon can’t handle PS 1.4 and 2.0 in an optimal fashion, so they have to find a solution in the driver to fix the problem. As I see it, they can only “cheat” from now on (and one person’s “cheat” is another person’s “optimization”). And if you’ve been watching the scene a few years, this should all be eerily familiar. Back when NVIDIA was the King, there would be newsposts and freakin’ articles about beta driver releases! Not that long ago, NVIDIA managed to squeeze more and more performance from its driver updates, and the world cheered.

Calvin: The one thing I’ve come to appreciate about John Carmack more than his coding skills is the level-headedness he displays when it comes to benchmarks and driver problems. He seems to have good working relationships with both ATI and Nvidia, and I haven’t seen him make a strong comment on anything before discussing it with the concerned developers. The thing that worries me, though, isn’t Gabe Newell’s seeming dislike for Nvidia, nor the much-less-than-perfect conditions people have been allowed to run benchmarks in, nor is it some of the cheating/optimizing that ATI and Nvidia have done.

My main concern is that game and console developers are cozying up with hardware developers, sales channels and review sites, and this can only hurt the average gamer. It’s rumored that ATI won a bidding war to be tied into Half-Life 2, just as Nvidia had a tie-in with UT 2003. That would be fine, except that it’s not unreasonable, given the circumstances, to suspect that maybe Nvidia and Valve can do better, if only the latest drivers were used. Gamers who are looking to buy a new video card deserve to know which card will serve them best, and having ATI’s money involved clouds the picture.

If it were just Half-Life 2 I wouldn’t be upset, but I’m bothered because it’s a trend I’m seeing. In the last couple of weeks IGN and GameSpot both got “NGage” sections. EBGames got one to, with a big flashy icon so it stands out. Do I think that these three entities all decided that the NGage was so great that gamers had to know about it, all of a sudden? No. I think Nokia’s money is involved, and I don’t think I’ll be trusting an NGage review from those three sources.


Oui c’est long. M’en fout

Perso, je ne dirais qu’une chose : Nvidia récolte plus d’un an de nonsens total en terme de com. Ils ont fait les cons à un degré que le user lambda ne peut pas imaginer, ils se sont foutus de la gueule des gens et maintenant ils le payent. La 9600 Pro est LE produit que Nvidia n’a pas, le débat n’est pas forcément qu’en haut de gamme, il ne faut pas l’oublier. Ne pas oublier non plus que Nvidia et MS ont claché pendant le dev de DX9 et les suites de la Xbox. Du coup, oui ils n’ont pas la puissance en shaders 24 bits. Bha tant pis pour eux… Car c’est la norme. Voulue par MS et suivie par ATI. Je n’aime pas tirer sur les ambulances, mais quand on a joué autant aux cons pendant presque 2 ans, on mérite son hjeadshot… Rappelez vous, l’année dernière, Nvidia lancait en octobre la GF FX 5800 Ultra. Dispo en magasin, jamais ou presque (qq exs en avril), suivit de la 5900 Ultra dispo depuis genre 2 mois. Ils ont eu besoin de personne pour prendre les gens pour des cons là… Sans parler des problèmes de qualité (oui, moi j’ai vu le prob de rolling lines, nié pendant des semaines par Nvidia, corrigé dans les drivers 45.33 et REoublié dans les 51.75 (et oui, faut quand même être con). Evidemment, ceci est un post de forum et mes articles sont plus tempérés. N’empêche que pour le moment, que ça soit une puce pour portable, de l’entrée - milieu - haut de gamme, je ne peux que recommander du ATI.

Comme d’hab chez ArsTechnica, c’est pas mal du tout. Bon, il oublie rapidement que ATI s’en est pris plein la gueule et il y a beaucoup de “si”, mais après tout, c’est la même stratégie employée chez certains détracteurs. Par contre, on ne peut pas nier que nVidia récolte quand même ce qu’il a semé, à grand coup d’FX commerciaux. Oui, c’est de la frustration, de l’amertume, pour ceux qui se sont faits “avoir” par eux. Mais c’est une réaction bien normale. En cas de coup de couteau dans le dos, tu en voudras plus à celui à qui tu as fait confiance qu’à une vague connaissance.

Sur la conclusion, par contre, il n’y a vraiment rien à redire : le rapprochement insidieux entre les sociétés qui développent des jeux, celles qui font dans le hardware, les réseaux de vente et les sites de tests se déroule finalement au détriment des utilisateurs qui deviennent de pauvres marionnettes dans ce jeu de dupes…
Ce message a été édité par xentyr le 18/09/2003

Oui voila. Sinon je suis tout a fait d’accord aujourd’hui a recommander une carte, c’est forcement ATI. NVIDIA ont graves deconne. Je m’eleveais juste contre la politique du “ouah c’est tout a chier parceque c’est a la mode en ce moment de dire que NVIDIA est tout a chier”. Et le fait que les boites de jeux sont clairement pas innocentes DU TOUT dans leur prise de poisition. Ca empeche pas objectivement qu’aujourd’hui c’est ATI qui a la meilleure offre du marche. Hier c’etait nvidia… demain? on sait pas.

[quote]demain? on sait pas.[/quote]3dfx ??

Ouais, ben moi j’ai eu une grosse suée froide. Je viens d’acheter mon
PC 2.6 ghz Radeon 9800 pro il y a tout juste 2 semaines.
J’AI PAS FAIT
EXPRES , j’ai pris la bonne config, ouff !
Je suis 100% d’accord que ca
sent un peu le piège cette histoire de benchmark Half Life2.

Mais quand meme. 30 fps pour la GFX 5900 ultra Nvidia et 60 fps pour la
radeon 9800 pro. 50 % !

C’est pas 5, 15 ou 30% de différence mais 50% !!

En admettant qu’on refasse tout les tests avec les tout derniers
drivers NVIDIA, peut on reellement espérer doubler la performance ?
Franchement, je pense pas.

Ce message a été édité par iom le 18/09/2003

mais non! comme le dit le Boss d’EIDOS  “Nous pensons que les GeforceFX fonctionnent très bien avec nos jeux” lui il est digne de confiance! c’est pas comme si Nvidia avait fait pression sur lui après la sortie de son Benchmark/patch parce que les résultats des FX étaient merdiques! c’est pas non plus Nvidia qui a fait pression pour retirer illico presto ce fameux patch/benchmark du site d’EIDOS.

On vous ment! Nvidia c’est les meilleurs! comment osez-vous dire du mal des créateurs de la TNT? de la geforce? ils ne vous ont pas pris pour des burnes pendant 1 an avec leur réthorique à la mords moi le noeud…

de toute façon, ATI c’est des canadiens donc c’est moins bien que Nvidia forcément.

[quote]Enfin, bref, je trouvge ça louche qu’on ne réalise que mmmhhh 6 mois après les premières annonces, 3 mois après les premiers essais ?, que cette carte est un gros veau poussif (pas grave) et couteux (là, déjà, c’est plus gênant)… Pas vous ?[/quote]Dis-moi, tu as vu beaucoup de jeux gérant le pixel shader 2.0 ???
Parce que c’est de ça que vient le problème sur HL2 apparament…

Nvidia ont quand même fait beaucoup de petites conneries ces derniers temps alors après c’être enfin réconcilié avec 3Dmarks (après être revenu dans le projet et avoir versé des sous à MadOnion) , une nouvelle histoire leur tombe sur le dos avec le jeu le plus attendu du moment, c’est un peu normal qu’il y ait un engouement anti-nvidia. C’est peut-être pas trés intelligent mais bon c’est logique.

Ca relève aussi un autre problème, c’est cette course à la technologie et la puissance qu’on a vu augmenter depuis la création des cartes 3D. Maintenant les cartes qui sortent toutes les 6 mois obligent les constructeurs à aller toujours plus loin dans les technologies alors que les jeux mettent de plus en plus de temps à sortir. Comment est-ce que le joueur peut dire que telle ou telle technologie est intéressante alors qu’il n’y aucun jeu qui ne la fera tourner avant 6 ou 8 mois (époque où la prochaine génération de carte n’est plus trés loin) ?? Et la , on a une technologie que les utilisateurs attendaient de voir en action et qui finalement marche mal !!
Bref c’est presque normal que l’utilisateur lambda pète un peu les plombs et qu’un lynchage médiatique finisse par en ressortir.

[quote][quote]Enfin,
bref, je trouvge ça louche qu’on ne réalise que mmmhhh 6 mois après les
premières annonces, 3 mois après les premiers essais ?, que cette carte
est un gros veau poussif (pas grave) et couteux (là, déjà, c’est plus
gênant)… Pas vous ?[/quote]Dis-moi, tu as vu beaucoup de jeux gérant le pixel shader 2.0 ???
Parce que c’est de ça que vient le problème sur HL2 apparament…
[/quote]

Je ne sais pas ce que c’est qu’un pixel shader 2.0. Et à vrai dire je m’en tape un peu. Un zorglub 27 ou un pixel pipeline 42. à la base si je pouvais les changer je serai très content de comprendre comment ça fonctionne, mais bon, vu que le peu que tu as de variable sur une carte graphique, c’est le refroidissement, les fréquences et éventuellement le tamps de réponse de la ram…

Bref.

Je vais te parler de choses industrielles. ET de suppositions. La 5900 est commercialisée depuis deux, trois mois ? Des les rayons des vendeurs, hein ? Je suis très surpris que la réaction d’étonnement face aux manques de performances sur tel out tel effet de rendu soit unanime.

“Ah, bon, c’est de la merde ?”

Un peu comme si on avait attendu un an avant de mettre 4 suédois de 120 kilos dans une classe A en donnant des coups de volant pour dire “ahhh, bah c’est dommage mais elle se retourne votre auto…”

Bref, pour des produit dispo pour le client(la 5900 et le SDK directixe neuf), ça me fait curieux. Mais curieux grave. ET j’imagine que des moteurs, des middleware ou des bouts de démos qui utilisent des bouts de pixels shaders 2.0.

Et à vrai dire, je m’en cogne un peu, que la beauté d’un jeu soit faite avec (exemple que j’ai sous la main du FSAAA tricubique pentalinéaire avec interpolation itérative sur les bords du bol de café (bon, du 8x) ou que la carte puisse faire à la même vitesse du 1600x1200. Qualité percue de moi jusque là, avantage résolution, à bas l’anticrénelage) des pixels shaders ou des machins pipeline, a m’en cogne un peu. Pourvu que ça soit joli et fluide…

Et comme c’est dit dans ars technica (tiens je suis content d’avoir dit pareil, bon article en plus) : Faire du bruit pour un jeu pas encore sorti avec des cartes que très peu d’entre nous ont les moyens d’acheter… c’est de la masturbation intellectuelle, et c’est pas votre main, vous êtes manipulés par des gourous en marketing…

Sinon pour en revenir sur la news, j’aimerais qu’on m’explique une chose. Prenons le cas précis de Valve avec HL2 par exemple. Où est leut intérêt de dénigrer autant les cartes Nvidia, sachant qu’après tout ce sont des acheteurs potentiels qu’il y a derrière ? Ou alors il aurait fallut que Ati leur sorte un GROS paquet de d’argent. Pour ma part, un partenariat avec un fabricant de carte, pour un jeu comme HL2, ça me semble un nonsens commercial

Evidemment, ce n’est pas le fait que Valve ait dit que les FX se comportent moins bien sous HL2 qui dissuadera les possesseurs de Geforce de l’acquérir quand même. Mais tout de même, je ne vois pas où est l’intérêt… Les bénéfices d’une telle association sont ils si important ? Pour une petite boite en quête de fric j’aurais compris… Mais Valve ? Qui est pleins aux as ? Qui continue à vendre des boites de HL premier du nom comme des petits pains !?

Non décidément il y a quelquechose qui m’échappe…

[quote]

Je ne sais pas ce que c’est qu’un pixel shader 2.0. Et à vrai dire je m’en tape un peu. Un zorglub 27 ou un pixel pipeline 42. à la base si je pouvais les changer je serai très content de comprendre comment ça fonctionne, mais bon, vu que le peu que tu as de variable sur une carte graphique, c’est le refroidissement, les fréquences et éventuellement le tamps de réponse de la ram…

Pour faire simple, les pixel shaders 2 permettent de faire de jolis effets,de plus jolis que les pixel shaders 1.4…c’est pas trop dur comme ça ??
De plus pour vendre une carte vidéo actuelle, on a deux choses : la vitesse de la carte et les nouvelles technologies qu’elle apportent…La dernière FX n’arrivant pas à enfoncer la dernière ATI , le coté technologique est quand même important dans le choix de la carte…
 

[quote]Bref, pour des produit dispo pour le client(la 5900 et le SDK directixe neuf), ça me fait curieux. Mais curieux grave. ET j’imagine que des moteurs, des middleware ou des bouts de démos qui utilisent des bouts de pixels shaders 2.0. [/quote]Et ben pour ce que j’en sais , HL2 est le premier jeu se servant des pixels shaders 2.0.
Après il y avait des démos mais fournies par les constructeurs de cartes , donc on peut douter des performances…Et sinon il y avait bien 3Dmarks2003, mais je pense pas que ce soit la peine de te rappeller cette affaire.

Donc voila ce n’est pas si étonnant que cette histoire de pixel shaders réaparaissent que maintenant. Comme je le disais au-dessus , les cartes évoluent vite ,et les jeux mettent de plus en plus de temps à sortir…

Je veux bien que l’effet de cette annonce soit disproportionné mais elle a été faite par l’équipe qui produit le jeu le plus attendu du moment sur une des technologies les plus mises en avant pour la FX. Il faut pas s’étonner que ça fasse des vagues quand même.

Je suis aussi assez stupefait par la mise au pilori de nvidia…
Les cartes nvidia sont elle de mauvais de qualité? les driver plantent-t-il? l’affichage est il deficient?
à ma connaissance non 
Libre à chacun de choisir la marque de la carte qu’il va s’acheter aujourd’hui, mais declamer que nvidia c’est d’la m**** me parait un tantinet démesuré.

Dans six mois aura lieu un nouveau match dont seuls les nantis suivront les rounds…
 (oui, vous savez, ceux qui voudront s’acheter une nouvelle carte pour des applications même pas disponibles )

Pour ma part je change à peu pres toutes les 3 generations, la j’ai un TI4200 qui tourne de facon tres correcte (voire plus qu’acceptable) sur tout les jeux dispos, fait tourner mes applis de developpement 3D à la perfection, et m’offre un affichage 2D ultra performant pour la PAO.
Le reste c’est du concours de bi**.

Je trouve aujourd’hui les produits ATI très homogènes. Il est clair que Nvidia a fait de grosses bêtises au niveau des choix techniques et technologiques, comme en marketing et en communication. Il est clair que ça fait beaucoup d’erreurs en même temps, et qu’ heureusement que la société a les reins solides…beaucoup ne se seraient pas remis de telles plantades.
Par contre, j’en profite pour pousser une gueulante sur les stratégies commerciales d’ATI. Là, c’est pas mieux. Je dirais même que l’on nage en eaux troubles. Il suffit de lire les centaines de posts comme les quelques uns que je vous mets en italique (et pas DVC).

Rémy Q., nous écrit :

“Je vien de recrvoir la carte graphique Radeon 9600 pro genérique que j’avais commandé sur www.grosbill.com et pour laquelle j’avai vu une pub qui donnait les frequences suivantes :
memoire : 300 Mhz
core : 400 Mhz
Or lorsque j’ai voulu regarder a quelles frequence tournait cette carte il s’est trouvé que la memoire n’était cadancée que à 200 Mhz. c’est donc bien une LE et la c’est encore pire car c’est de la publicité menssongere. Je viens d’ailleur d’envoyer un mail à Grobil leur demandant des explication et je vous dirai ce qui 'ils m’ont repondu si cela vous
interesse.”

Stéphane M., nous écrit :

“je viens de m’apercevoir que la carte que je viens de commander est une “LE”!!
J’ai commandé une carte PowerColor Radeon 9600 Pro 128MB sur le site toutpourlamicro.com (qui proposait une super promo, tu m’étonnes!).”

Plague, nous écrit :

“Je me suis fait arnaquer !!!
voila j’ai acheté une Radeon 9600pro 256mo noname (de marque MEDIAMAX) sur la rue montgallet et c’est une carte a frequence 400/200 … je l’ai payé 169 euros… J’espere pouvoir me la faire rembourser… car pour 10 euros de + j’aurai pu avoir une marque…”

Pardon pour le post un peu long, mais cela illustre bien le flou qui existe dans les fréquences, les modèles des cartes ATI. Je ne vous parle pas les modèles PRO, LE, SE, XT ou sans rien : ce qui les caractérise c’est soit le nombre de pipelines ou les fréquences, qui changent aussi souvent que moi de slip (c’est vous dire). Pour embrouiller l’utilisateur, il n’y a pas mieux. D’autant qu’un utilisateur qui se sent trompé retourne rarement vers la marque en question. Ce n’est donc pas une stratégie judicieuse… Tout cela fait des points à un éventuel challenger (la Volari ?). Il est clair que se sentir tout puissant sur le marché peut amener à prendre les acheteurs pour des gogos, puisque semble-t-il, ils n’ont pas d’alternatives…

P.S. Ce post est safe, il ne contient que peu d’humour (et il est propre !)

Ce message a été édité par bobsainclar le 18/09/2003

“Pour faire simple, les pixel shaders 2 permettent de faire de jolis effets,de plus jolis que les pixel shaders 1.4…”

(oui je quote comme ça, et si ça vous va pas c’est pareil)

Ah. Oké. Les pixels shaders 1.4 non plus je ne vois pas ce que c’est.

Si, bon, oké, j’ai une vague idée de ce qu’est un pixel shader.
C’est joli, oui. Mais disons que je n’ai pas vu une énorme différence
en qualité perçue. Pas énorme…

“Et ben pour ce que j’en sais , HL2 est le premier jeu se servant des pixels shaders 2.0.”

Half life deux n’est pas encore sorti, que je sache. Et je parlais du SDK. J’imagine que des demomakers ont fait des utilisations de cette chose. 3Dmark n’est aps forcément le seul sur le créneau. ET je parlais du SDK, surtout. SDK et 5900 qui sont en boutique depuis trois mois, donc chez Eidos et leurs copains depuis bien plus longtemps. D’où ma surprise que l’étonnement n’étonne personne, quoi. La 5900 elle est pas toute jeune et le sdk il prend la poussière. C’est peut être le “premier jeu commercial d’envergure à utiliser massivement les pixel shaders 2.0”, mais je veux bien danser en bottes de caoutchouc place de la Concorde si c’est la première appli à mouliner des pixel machins 2.0. Voici l’idée que j’en ai, hein, je ne suis pas spécialiste de la carte graphique ni décodeur du marketing, hein…

Bref, en vérité je vous le dit, ça sent la vaseline.

(Rester au top : acheter une carte mère avec un bios limité, un P4 Hyperthread qui s’overclocke pas, un disque dur SATA qui ne va pas plus vite que les autres,une carte video avec des drivers non optimisés pour faire tourner dés sa sortie un jeu buggué qui connaitra une avalanche de patches durant deux mois. Je suis pas tombé de la dernière pluie. J’attends. A se ruer sur la nouveauté on finit essuyeur de plâtres trop souvent (et c’est valable pour tant de choses…))

(Bon, j’abuse un peu)

[quote]C’est peut être le “premier jeu commercial d’envergure à utiliser massivement les pixel shaders 2.0”, mais je veux bien danser en bottes de caoutchouc place de la Concorde si c’est la première appli à mouliner des pixel machins 2.0. Voici l’idée que j’en ai, hein, je ne suis pas spécialiste de la carte graphique ni décodeur du marketing, hein…[/quote]Ben 3Dmarks2003 c’est une appli tu sais, tu prends pas beaucoup de risques…Et les applis inconnus touchent rarement le public (sans parler qu’il serait facile pour une boite comme nvidia de dire que l’aplli est en faute).
De plus eidos a bien eu le SDK , a sorti un patch gérant directX9 et l’a vite retiré du marché mais pas avant que certains bench montrent que Nvidia avait des problèmes de vitesse avec. Mais bon Eidos a dit que bon le patch était pas fini…donc bon le doute existe à ce niveau-la. C’est pareil avec 3Dmarks2003 et leurs scéances de rupture/reconcilliation…Alors que pour Valve , l’équipe de dev a direct balancé Nvidia. Difficile d’avoir des doutes après ça.
Il ne faut pas s’étonner que ça ait mis du temps à arriver aux oreilles des gens , je doute que les studios de dev aient envie de se mettre Nvidia à dos…Et inutile de faire de vagues avec , tant qu’aucun jeu directX9 n’est vraiment sur le point de sortir…

Mais si Hl2 n’est pas encore sorti, il est clairement dans sa phase finale , c’est pas non plus un jeu qui sort dans un an. Pour répondre à Mister_moi, je pense aussi que Valve préfère directement balancer Nvidia plutot que de laisser croire que c’est eux qui ont mal codé leur moteur. Si on les avait accusé des mauvaises perfs sur FX , ca aurait été de trés mauvais ton pour HL2. Et puis sans aller voir d’un point de vue commercial , personne n’aime être accusé des fautes des autres , ils ont simplement préféré être clair au lieu de laisser se répandre des rumeurs.

Au faite ou en est la revolutionnaire carte de Matrox ?
Ce message a été édité par silka le 18/09/2003

Bah, un peu d’histoire :

  • Premier Round : Riva 128 (Nvidia) vs Rage Pro (Ati). Nvidia gagnait sur le terrain des perfs mais la qualité de rendu était moindre, résultat Ati explose ses ventes.

  • Deuxième Round : Riva TNT vs Rage 128 = là, Après un retard monstrueux du rage 128 et des drivers pourri (oui, ça a été longtemps une habitude chez ati) ben Nvidia prend la tête aussi bien technologiquement que commercialement (sur les hard core gamers j’entend parce que Ati ce goinfre sur le marché oem et celui des notebooks). Depuis, Nvidia n’avait jamais laché son leadership.

  • Avant dernier Round : Bon, l’apparition de la gamme GeForce avait mis une grosse claque au marché (et à Ati). Même si ce dernier à sortis quelques produits très correctes (la radeon 8500 entre autre) et si sa politique de drivers a finalement finie par devenir sinon honnête, en tous cas potables (merci les catalyst), Nvidia continue de garder une longueur d’avance.

  • Dernier Round : la génération DX9. Ben Nvidia a fini par pêcher par orgueuil. Après au moins 5 bonnes années de leadership, ça a été le faux pas. Ils ont voulu trop en faire, on voulu trop faire les kakous (je me souviendrais toujours de cette présentation à un parre terre de revendeurs de la gamme FX … le nombre de conneries au m² que les gars du marketing pouvaient sortir … c’était effarent !!). Je ne pense pas que ça remetrra en cause leur savoir faire, mais j’espère quand même que ça les remettra bien à leur place. Un peu d’humilité ne fait pas de mal :wink:

En tous cas, ma radeon 9700pro qui tourne depuis plus d’un an maintenant, c’est du jamais vu dans cette industrie depuis … ben l’arrivée de nvidia sur ce marché
Ce message a été édité par Electric_Boogie_Back le 18/09/2003
Ce message a été édité par Electric_Boogie_Back le 18/09/2003

[quote]Mister_moi a dit:


Sinon pour en revenir sur la news, j’aimerais qu’on m’explique une chose. Prenons le cas précis de Valve avec HL2 par exemple. Où est leut intérêt de dénigrer autant les cartes Nvidia, sachant qu’après tout ce sont des acheteurs potentiels qu’il y a derrière ? Ou alors il aurait fallut que Ati leur sorte un GROS paquet de d’argent. Pour ma part, un partenariat avec un fabricant de carte, pour un jeu comme HL2, ça me semble un nonsens commercial[/quote]c’est trés simple imagine tout ce qu’on peu faire de génial avec dx9 , le moins qu’on puisse dire c’est qu’ HL² est bô , et matenain mets toi à la place d’un developpeur  qui est sur le point de faire ces choix technologiques et quand il regarde le matos de ces joueurs potentiels, il voit quoi ? 40 à 60% sont équipées de matos nvidia , donc ça conclosion sera trés rapide on limite trés vite les option dx9.

hors cette reaction des developpeurs à limiter l’intégration de dx9 , ne plait pas à microsoft ni à personne d’autre , car ça fraine l’évolution ludique (graphique), ça fais du tords aux sociétés qui sortent du matos dx9 decent , en fait le fait que nvidia posséde bcp de parts de marchés et qu’ils se soient gentiment vautrés avec leur implémentation dx9 , fait bcp de tort à l’insdustrie , car de ce fait les joueurs font évoluler moins leurs ordi en puissance , donc Intel AMD voient leurs ventes de haut de game chuter puisque les acheteurs potentiels repoussent leurs achats , d’ailleurs lors du Mojo Shader Day (ATI / Microsoft / Intel) microsoft n’a ésité à dire je cite:

“Microsoft, a aussi fait une intervention, où ils soulignaient le caractère remarquable du moteur Source de Half-Life 2, de son adéquation avec DirectX9. En revanche, ils ont exprimé, allant dans le sens de Gabe, que certaines pratiques par le fondeur de Santa Clara nuisaient à l’industrie du jeu vidéo en général !”

et pour ceux qui voudraient un résumé des 4 derniéres années du monde des cartes graphiques c’est par ici faite par le web masteur de 3dfx spirit (assez objetctif) il se contente de rapeller les faits et tout parait tellement logique .
Ce message a été édité par ChiiBasta le 18/09/2003