Distribution de claques pour Nvidia

[quote]AMHA, Valve est plus que sponsorisé par ATI. Pour deux raisons… A part HL il n’ont rien sorti… Et si HL existe toujours c’est grace à CS (qui n’a rien à avoir avec Valve). La deuxième, c’est que brutos ils nous sortent un jeu au dernier E3 sans crier garre et tout tout. Comme si de toute façon coté pognon c’était tout cuit… Or si on regarde le reste des jeux, ils font tous des annonces au moins 1 an avant (voire 2) ne serait ce que pour maintenir leur position sur le marché… (Il n’y a qu’à voir pour Doom3 et qu’on ne me dise pas que Q3 ne s’est pas vendu).

Quake 3 ne s'est pas aussi bien vendu qu'HL.... Non Valve n'est pas sponsorisé par ATI. Vu les couilles en or qu'ils se sont fait sur HL (oui pour jouer à Cs , il faut acheter HL , personne ne t'as prévenu ??), ils avaient largement le temps de paufiner leur jeu et de faire une annonce au dernier moment... Parce que je te signale qu'ils ont fait la même chose pour le premier HL , c'est leur façon de faire c'est tout (et vu comme ils se sont fait piquer leurs idées sur TF2 , on peut les comprendre)...

[quote]
Alors siouplait, arretez un peu de polémiquer dans le vide, il y aura d’autre jeux, d’autres cartes vidéo, donc largement de quoi discuter encore sur des choses sans doute plus concrêtes…

Note à Caféine: pas très glop ton post, j’ai reluqué attentivement les deux liens et tout ce que j’ai trouvé c’est des “On dit…”  Sans doute encore un coup de la loutre… [/quote]Vu les allégations que tu as balancé au-dessus , je crois que tu es mal placé pour faire la morale…

[quote]Perso, je ne dirais qu’une chose : Nvidia récolte plus d’un an de nonsens total en terme de com. Ils ont fait les cons à un degré que le user lambda ne peut pas imaginer, ils se sont foutus de la gueule des gens et maintenant ils le payent. La 9600 Pro est LE produit que Nvidia n’a pas, le débat n’est pas forcément qu’en haut de gamme, il ne faut pas l’oublier. Ne pas oublier non plus que Nvidia et MS ont claché pendant le dev de DX9 et les suites de la Xbox. Du coup, oui ils n’ont pas la puissance en shaders 24 bits. Bha tant pis pour eux… Car c’est la norme. Voulue par MS et suivie par ATI. Je n’aime pas tirer sur les ambulances, mais quand on a joué autant aux cons pendant presque 2 ans, on mérite son hjeadshot… Rappelez vous, l’année dernière, Nvidia lancait en octobre la GF FX 5800 Ultra. Dispo en magasin, jamais ou presque (qq exs en avril), suivit de la 5900 Ultra dispo depuis genre 2 mois. Ils ont eu besoin de personne pour prendre les gens pour des cons là… Sans parler des problèmes de qualité (oui, moi j’ai vu le prob de rolling lines, nié pendant des semaines par Nvidia, corrigé dans les drivers 45.33 et REoublié dans les 51.75 (et oui, faut quand même être con). Evidemment, ceci est un post de forum et mes articles sont plus tempérés. N’empêche que pour le moment, que ça soit une puce pour portable, de l’entrée - milieu - haut de gamme, je ne peux que recommander du ATI.[/quote]t’en qu’a etre objectif, les ATI ne sont pas exempt de reproche

http://www.pcinpact.com/actu/news/9853.htm

et vu en vrai aussi, et c’est pas un probleme de driver

[quote]t’en qu’a etre objectif, les ATI ne sont pas exempt de reproche

http://www.pcinpact.com/actu/news/9853.htm

et vu en vrai aussi, et c’est pas un probleme de driver[/quote]Ben ca n’a rien à voir, c’est juste lié à un probleme de conception et de choix des pièces de constructeurs peu sérieux

je mets constructeurs au pluriel car j’ai exactement les memes problemes avec ma powercolor 9100 (une 250/250) quand il fait trop chaud et que je l’overclocke à 275 pour la mémoire

[quote]

[quote]AMHA, Valve est plus que sponsorisé par ATI. Pour deux raisons… A part HL il n’ont rien sorti… Et si HL existe toujours c’est grace à CS (qui n’a rien à avoir avec Valve). La deuxième, c’est que brutos ils nous sortent un jeu au dernier E3 sans crier garre et tout tout. Comme si de toute façon coté pognon c’était tout cuit… Or si on regarde le reste des jeux, ils font tous des annonces au moins 1 an avant (voire 2) ne serait ce que pour maintenir leur position sur le marché… (Il n’y a qu’à voir pour Doom3 et qu’on ne me dise pas que Q3 ne s’est pas vendu).

Quake 3 ne s'est pas aussi bien vendu qu'HL....

Apprend à lire, j’ai jamais écris que Q3 s’était aussi bien vendu qu’HL

Non Valve n’est pas sponsorisé par ATI. Vu les couilles en or qu’ils se sont fait sur HL (oui pour jouer à Cs , il faut acheter HL , personne ne t’as prévenu ??),
 
Hum, t’inquiète et je sais même que HL ca se trouve à moins de 100 balles ? N’empêche fait le compte aussi des versions piratées (suffit de voir le nombre de neuneux à la recherche d’une cl&#233

ils avaient largement le temps de paufiner leur jeu et de faire une annonce au dernier moment…
Parce que je te signale qu’ils ont fait la même chose pour le premier HL , c’est leur façon de faire c’est tout (et vu comme ils se sont fait piquer leurs idées sur TF2 , on peut les comprendre)…

A l’époque de la sortie d’HL c’était un peu moins la course à l’armement… Et puis surtout ils utilisait le moteur 3D de Quake (1 ou 2 je ne me souvient plus honte sur moi) qu’ils ont modifiés. Donc moins de dév qu’HL² sans doute.

[quote]
Alors siouplait, arretez un peu de polémiquer dans le vide, il y aura d’autre jeux, d’autres cartes vidéo, donc largement de quoi discuter encore sur des choses sans doute plus concrêtes…

Note à Caféine: pas très glop ton post, j’ai reluqué attentivement les deux liens et tout ce que j’ai trouvé c’est des “On dit…”  Sans doute encore un coup de la loutre… [/quote]Vu les allégations que tu as balancé au-dessus , je crois que tu es mal placé pour faire la morale…[/quote]Tu connais l’abréviation de AMHA ? Non apparament, je vais perdre cinq minutes à t’expliquer la différence entre une opinion et la vérité. Une opinion c’est personnel… Apparamment tu n’a toujours pas compris que tout ce que tu lis n’est pas forcément à prendre pour argent comptant, ce en quoi tu me confirme dans le fait de dire que les consommateurs ne sont pas très finaud non plus.

Concernant mes remarques (qui n’engageaient que moi AMHA= A Mon Humble Avis, médite un peu sur le humble avant de t’attaquer aux gens), je suis persuadé qu’une grosse histoire de sous se cache derrière ce pseudo psycho drame (genre qques semaines uniquement avant la sortie), un coup de pub phénoménal avec dans le role du gentil couple développeur/constructeur Valve/ATI et du méchant pas beau du tout NVidia…

Non sérieux, pitié allez dis moi que c’était de l’humour ton post ? Non parce que là je me sens vraiment mal quoi, c’est vrai que donner son avis devrait être puni d’un chatiment exemplaire… Euh je sais pas moi… Jouer pendant une heure à HL² avec une GeFx par exemple ?

Allez sans rancune parce que franchement y’a quand même plus grave comme sujet d’engueulade  et que j’ai pas envie de me prendre la tête sur un sujet que tout le monde aura oublié d’ici la prochaine polémique…

Et puis tiens, pour éventuellement (je prend des précautions maintenant) montrer que ca n’a jamais été clair les bench et le hard:
http://www.vnunet.fr/actu/article.htm?nume…date=2003-09-10

[quote]

[quote]Par contre, j’en profite pour pousser une gueulante sur les stratégies commerciales d’ATI. Là, c’est pas mieux. Je dirais même que l’on nage en eaux troubles. Il suffit de lire les centaines de posts comme les quelques uns que je vous mets en italique (et pas DVC). c’est bien beau de critiquer ATI sur ses maneuvres commerciales, mais en général, ce sont les fabriquants de carte graphique qui utilisent les chipsets ATI qui donnent des noms complétement tordus à leurs produits pour induire l’acheteur lambda en erreur, donc c’est pas à ATI qu’il faut s’en prendre si des gens achètent des cartes et qu’ils se retrouvent lésés.
C’est pas ATI le fautif…et si les gens se tenaient un peu informés du matos qu"ils achètent des fois au lieu de prendre le premier truc qui leur tombe sous la main, il y aurait sûrement beaucoup moins de réclam’

[/quote]Bien sur que si qu’il faut s’en prendre à ATI.
Quand ATI signe un contrat de licence avec Sapphie ou Powercolor , i ldevrait y avoir dans les articles du contrats des clauses qui stipulent quels critères de qualité et de performance devraient avoir les cartes…
En tout état de cause, ATI avait vraiment besoin à une époque d’élargir sa diffusion avec des produits attractifs et a signé un peu n’importe quels contrats àtours de bras.
Ca fonctionne très bien avec Gigabyte par exemple, mais ça peut merder avec des margoulins comme Powercolor ou Sapphire…
Bref à ATI de ne pas proposer n’importe quoi comme contrat et tout le monde s’en portera mieux

Sinon je tiens à dire que de passer de 30fps pour la GF FX à 60fps pour la Radeon , ca fait une augmentation de 100% et non pas de 50%. 50 % ca aurait donné 45ftps pour la Radeon.
j’ai beau être nul en maths , y a quand même des bases…

SirAkuse, avec ton ton vindicatif, on comprend que le ATI qui t’a enculé avec le Rage ne peut pas avoir changer, et donc veut forcément t’enculer avec Valve, le tout méchant qui est parti du moteur de Quake le papy pour faire H-L un an avant Q3 mais qui n’a rien dû faire en R&D, c’est sûr ahem. Fear, la théorie du complot…

Sans déc’, mets de l’eau dans ton vin, car nVidia n’a pas trop l’attitude d’une victime non plus, donc faut pas être plus royaliste que le roi. Dans ton combat contre ATI, tu n’es pas obligé de soupçonner Valve de tous les maux.

Sinon, ouais ATI a fait de grosses boulettes, nVidia aussi, et c’est le tour de nVidia d’être sous les projecteurs de la honte, c’est tout. Comme cela tout le monde est content.
Ce message a été édité par xentyr le 18/09/2003

[quote]je suis persuadé qu’une grosse histoire de sous se cache derrière ce pseudo psycho drame (genre qques semaines uniquement avant la sortie), un coup de pub phénoménal avec dans le role du gentil couple développeur/constructeur Valve/ATI et du méchant pas beau du tout NVidia…

On reprend, parce que c'est plus compliqué que ça. Et résumer à une "simple" histoire de pognon, c'est trop facile. Pas que les histoires de pognons soient simples, mais celle que tu nous décrit est pour le moins simpliste.

Les problèmes des Pixels Shaders 2.0 tout le monde avait des doutes depuis longtemps, mais personne n’avait eu de véritables preuves fautes de jeux l’utilisant. Carmack lui même expliquait le problème dès janvier sur la génération précédente en expliquant qu’en fait les 9700 étaient plus rapide que les 5800 sur du code “DX9” (ou ARB2), mais que par contre en créant un code path différent, forçant l’utilisation d’une précision moindre, on arrivait à avoir un rendu 2 fois plus rapide.

Encore faut il prendre le temps de réecrire TOTALEMENT un codepath pour une carte donnée. Carmack l’a fait. Ca sera vraissemblablement le seul. Parce que DirectX est fait de tel manière a ce qu’en théorie, tu n’ai pas a utiliser d’extensions propriétaires pour tout. Et si on utilise le SDK de DX9, c’est plus rapide chez ATI. Voir avec Tomb Raider ou les autres demos (celle avec les bulles de savon dont j’oublie le nom tout les 2 jours). Ce qu’ont fait Valve, c’est de simplifier et reecrire les shaders, avec une perte de qualité, pour les cartes NVidia. C’est déjà gentils de leur part, ils auraient pu ne pas le faire. S’ils l’ont fait c’est qu’ils ne veulent pas pénaliser les joueurs qui ont acheté des cartes NVidia.

Si ce n’etait qu’un coup de pub, NVidia se serait défendu autrement qu’avec un communiqué de presse. Les 51.75, cherche tout les tests dans Google, tu verras que la qualité n’est pas au rendez vous. Les tests sous Aquamark 3 (nouveau bench)confirment ce que l’appli jap avec les bulles, Tomb Raider et HL2. 

Il y’a donc autre chose qu’une “simple” histoire de pognon.

[quote]Une opinion c’est personnel…

Raison de plus pour ne pas passer un jugement de valeur sur les opinions et/ou les affirmations des autres  

[quote]…ce en quoi tu me confirme dans le fait de dire que les consommateurs ne sont pas très finaud non plus.

Moins finaud que ? Tu vois ou je veux en venir.

[quote]SirAkuse, avec ton ton vindicatif, on comprend que le ATI qui t’a enculé avec le Rage ne peut pas avoir changer, et donc veut forcément t’enculer avec Valve, le tout méchant qui est parti du moteur de Quake le papy pour faire H-L un an avant Q3 mais qui n’a rien dû faire en R&D, c’est sûr ahem. Fear, la théorie du complot…

Sans déc’, mets de l’eau dans ton vin, car nVidia n’a pas trop l’attitude d’une victime non plus, donc faut pas être plus royaliste que le roi. Dans ton combat contre ATI, tu n’es pas obligé de soupçonner Valve de tous les maux.

Sinon, ouais ATI a fait de grosses boulettes, nVidia aussi, et c’est le tour de nVidia d’être sous les projecteurs de la honte, c’est tout. Comme cela tout le monde est content.
Ce message a été édité par xentyr le 18/09/2003[/quote]Euh… J’ai jamais dis que NVidia était une victime… Et je te rassure ATI ne m’a pas en… (euh en fait d’eau tu devrais aussi en mettre dans tes propos, c’est pas la foire d’empoigne ici… pas la peine d’être vulgaire pour s’exprimer)

Et j’ai jamais parlé de complot en particulier… C’est quoi cette histoire HL vs Q3 ? J’ai pas parlé de ca il me semble… Purée je vais finir par croire 1) je sais pas écrire 2) je sais pas lire 3) je suis un con 4) la comm ne passe pas (c’est ptête parce que j’ai installé un  nouveau firewall)

[quote]

[quote]je suis persuadé qu’une grosse histoire de sous se cache derrière ce pseudo psycho drame (genre qques semaines uniquement avant la sortie), un coup de pub phénoménal avec dans le role du gentil couple développeur/constructeur Valve/ATI et du méchant pas beau du tout NVidia…

On reprend, parce que c'est plus compliqué que ça. Et résumer à une "simple" histoire de pognon, c'est trop facile. Pas que les histoires de pognons soient simples, mais celle que tu nous décrit est pour le moins simpliste.

[…]

[quote]Une opinion c’est personnel…

Raison de plus pour ne pas passer un jugement de valeur sur les opinions et/ou les affirmations des autres  

[quote]…ce en quoi tu me confirme dans le fait de dire que les consommateurs ne sont pas très finaud non plus.

Moins finaud que ? Tu vois ou je veux en venir. [/quote]Je crois que [u]tu[/u] n'a pas compris... Je ne critique pas l'histoire des Pixel Shader, comme tu le dis, c'est connu depuis longtemps... Soit dit en passant en ayant fait un peu d'info, on se doute que traiter du 32bits au lieu de 24bits faut avoir de quoi assurer derrière... Or NVidia était (et est toujours) just sur ce point. Nous somme d'accord.

Maintenant, je trouve simplement curieux (excusez moi mais c’est comme ca) que tout le monde tombe sur Nvidia d’un coup, que curieusement ATI est apparamment très proche de Valve en ce qui concerne HL² (Suffit de voir que les configs fournies par ex à Tomshardware l’ont été par ATI… Si ca vous parait normal ok, seulement pourquoi ne pas avoir fait les tests sur des configs tierces et pourquoi tant de contraintes ?), que même si le hardware NVidia a du mal, ce n’est pas pour autant les bouses infames comme beaucoup semble le penser maintenant tout ca parce que ca marche moins bien que d’autre cartes…

Pour le coup des consommateurs moins finaud, vrai j’ai été méchant… M’enfin je suis désolé mais quand j’entend des ptits gars crié au scandale parce que les PixelShader2.0+ c’est pas le plus rapide contrairement à ce qu’il avait lu sur les bench tartenpion ou les communiqués de presse toto, je persiste (et c’est mon opinion) à dire qu’il ne sont pas très finaud (même si c’est salaud) et qu’il ferait mieux de réflechir un peu avant de foncer tête baissée…

Désolé si mes paroles ont choqués certains… Pour moi le sujet est clos, libre à vous de vous lancer dans une cabale…

Le vocabulaire grossier, c’était en référence avec le ton vindicatif et le texte tout en gras (qui m’horripile). Le placement historique de HL, c’était pour répondre aux sous-entendus comme quoi Valve étant partis du moteur de Quake, ils ont quasiment rien fait en R&D alors qu’ils ont tout transformé. Et le coup du complot et de la victime, c’est pour "avec dans le role du gentil couple développeur/constructeur Valve/ATI et du méchant pas beau du tout NVidia… ". Sinon, y’a rien de personnel , c’est juste que pour quelqu’un qui disait “Euh … Temps mort non ?”, JE trouvais que c’était pas vraiment neutre comme commentaire…

Edit : Regarde, tu recommences encore à insinuer que ATI et Valve… Mets-toi de l’autre côté. Imagine que tu sois Valve et que ton futur soft tourne mieux sur ATI (on se doutait depuis pas mal de temps des problèmes de nVidia sur DX9) que sur nVidia. Avec qui tu t’associes ? Ce n’est pas forcément QUE des gros sous… Je te rappelle que nVidia disait “The way it means to be played” à propos de Doom3 et HL2, donc ils ont tendu le bâton pour se faire tabasser aussi. Pour rappel, à l’époque de la sortie de UT2k3, beaucoup tapaient sur ATI et les relations entre game dev et nVidia étaient fusionnelles, donc ça va, ça vient, c’est fait de tout petits riens…
Ce message a été édité par xentyr le 19/09/2003

[quote]Je crois que tu n’a pas compris…

Juste au moment ou j'allais laisser tomber  Y'a des gens qui savent vraiment trouver les mots justes.

[quote]Je ne critique pas l’histoire des Pixel Shader, comme tu le dis, c’est connu depuis longtemps…

Non je n'ai pas dit ca. J'ai dit que certaines personnes du *MILIEU* s'en doutaient. Pour preuve, la plupart des développeurs étaient encore dans le flou il y'a 1 mois de ça. Tout le monde ne s'appelle pas Carmack, ou Valve pour avoir le prestige d'un nom ou la renommée d'une boite pour être en lien étroit avec les dévelopeurs de silicones. Et rares sont ceux qui ont tentés jusque là de pousser jusqu'au shaders 2.0 dans leurs développements.

Le consommateur, a part l’affaire 3D Mark (vite reglée), n’avait pas de quoi douter jusque là. Et encore moins sur la performance des shaders vu que rien ne pointait dessus. Et pour rappel, c’est de ça que parle le topic. Et donc ce thread.
C’est, entre autre, pour ca que l’on voit une levée de boucliers si vive en ce moment de toute part. Parce que pour 99% des gens c’est une surprise. Et maintenant beaucoup réanalysent certains “comportements”, certaines actions prises par Nvidia dans ces derniers mois. En essayant de mettre en perspective.

Question subsidiaire : Recherchez le déroulement des faits de l’affaire 3D Mark, regardez l’évolution des performances, et mettez en perspective avec ce que l’on sait sur les shaders 2.0.

[quote]Soit dit en passant en ayant fait un peu d’info, on se doute que traiter du 32bits au lieu de 24bits faut avoir de quoi assurer derrière… Or NVidia était (et est toujours) just sur ce point. Nous somme d’accord.

Oui, c'est assurément ce que quelqu'un qui aurait fait "un peu d'info" pourrait penser. De toi à moi ca sonne marketing

Traiter “32 bits” au lieu de “24 bits” ne veut pas dire que cela va prendre un tiers de temps en plus. L’info n’est pas traitée bit à bit, c’est un tout, et tout dépend de la manière dont l’unité qui va effectuer le calcul est architecturée. Petit parallèle, une unité SSE est capable d’appliquer à la volée un même traitement sur 4 opérandes 32 bits (soit 128 bits au total) d’un seul coup. Tout est question d’architecture, donc. Et pour ce qui est du shading donc, le GPU de NVidia à 32 (non, je ne pointerait pas l’ironie du nombre) unités FPUs (juste à ce niveau du pipeline). On est loin du “32 c’est plus compliqué que 24”. Il faut prendre en compte bien plus de paramètres. Les unités parralèles, par exemples. Si on voulait être exhaustif il faudrait prendre en comptes les stages précédents du pipeline et l’efficacité des dits 8 pipelines de Nvidia. Mais on ne va pas être exhaustif ce soir.

Je fais une aparté (je sais on dit un aparté mais, ca se sent surement hein, je suis ennervé alors je dirais UNE) sur ce dont on parle, mais ca a un rapport quand même avec ta quote, promis. Les 16, 24 et 32 bits, tout le monde en parle, mais personne ne dit ce que c’est. C’est la longueur du mot utilisé pour le codage de chacune des 4 composantes (Rouge, Vert, Bleu, “Alpha”). Donc en “32 bits” un pixel est représenté par 128 bits, en 24 ca donne 96, et en 16, 64. DirectX 9 spécifie 2 largeurs, 96 et 64. 128 est une norme i-trois-euh qu’a tenu à implémenter Nvidia. Et donc Nvidia implémente aussi le 64. Mais pas le 96. La plupart des développeurs DirectX 9 veulent cependant l’utiliser. Donc un 96 chez NVidia est traité par le hardware comme un 128, par 4 FPUS 32 bits.

Sauf que, et c’est la ou ca devient drôle, une précision 64 bits ne sera pas traitée par deux FPUS 32… Mais par 4. Ca peut paraitre stupide, et du gachis, mais c’est comme ça, les calculs sont indépendants sur chaque composante de couleur, et il faut séparer les opérations. Donc, en théorie, la précision 32, ou 16 c’est kif kif. Sur le papier, et “à ce niveau” du pipeline. C’est peut être d’ailleurs ce qui à poussé NVidia à implémenter le 32. Sur le papier c’est loin d’être une mauvaise idée.

Forcément ca cloche quand même quelque part. Ou ? pour l’instant on ne sait pas. Certains supputent que la bande passante mémoire interne au sein d’un pipeline handicape la précision 32 (puisqu’il faut plus de bande passante pour ammener les infos au traitement, ce à quoi beaucoup rétorquent que le chip de NVidia à largement la bande passante nécessaire), d’autres que tout serait lié au découpage assez particulier des pipelines (la cause de tout les maux du 5800, le sèche cheveux pour ceux qui suivraient encore). En fait on ne sait pas, et on ne saura vraissemblablement jamais exactement, vu que le hardware est complètement fermé.

Donc, non, on n’est vraiment pas d’accord en fait.

[quote]Maintenant, je trouve simplement curieux (excusez moi mais c’est comme ca) que tout le monde tombe sur Nvidia d’un coup

C'est ce que tout le monde se tente d'expliquer dans ce thread, avec de bonnes suggestions de toutes part jusque là. La raison principale comme évoquée plus haut c'est que de nombreux joueurs ont acheté ces cartes en se disant que ce serait ce qu'il y'a de mieux pour jouer a HL2 et Doom III. C'est ce qui était "pressentable" à l'époque de leur sortie. Les ATi étaient parfois un poil devant, mais rien de très significatif. Et les outils disponibles à la sortie des dites cartes ne permettaient pas de mettre en avant la lenteur des PS2.0. Quelqu'un de médisant dirait peut être même qu'ils ont essayé de camoufler le truc sous la seule vrai appli PS2.0 dispo a l'époque. Donc forcément on à un tas de joueurs pas très contents, et qui se sentent un peu floués qu'on leur ai laissé entendre des choses. Et ils ne sont pas plus stupides que d'autres. Ca c'est trop facile. Personne n'avait rien vu, sauf Carmack et 2 ou 3 élites.

[quote]que curieusement ATI est apparamment très proche de Valve en ce qui concerne HL² (Suffit de voir que les configs fournies par ex à Tomshardware l’ont été par ATI… Si ca vous parait normal ok, seulement pourquoi ne pas avoir fait les tests sur des configs tierces et pourquoi tant de contraintes ?)

Avant de lancer des accusations dans le vent, on check ses faits. Tom's Hardware parle du "shader day", ou ils étaient invités avec d'autres journalistes à une journée dédiée aux shaders organisée par Microsoft, et ou Valve était présent. Ce jour là, ils ont pu tester sur des configs ou ils pouvaient changer les cartes graphiques à loisir, sous le contrôle des gens de ATI présents. C'est une pratique courante pour les exclus, on aime ou on aime pas. Mais c'est pas très grave. Parce que certains sont repartis de cette journée avec le bench sous le bras, comme Anandtech, et ont réanalysé au calme le tout dès le lendemain. Donc oui on a eu des chiffres "fiables" et non controlés par ATI. Qui corroboraient ce qui avait été vu la veille, hein.

Pour le “très proche”, Xentyr à déjà bien résumé le truc, alors je ne remonte pas dessus.

[quote]que même si le hardware NVidia a du mal, ce n’est pas pour autant les bouses infames comme beaucoup semble le penser maintenant tout ca parce que ca marche moins bien que d’autre cartes…

Ce n'est NI le point dévelopé dans la news initiale, NI le point développé dans la source, NI dans 80% des commentaires. Pour la 25000eme fois, ce n'est pas le fait que ca aille (significativement, on ne parle pas de 10%) moins vite que chez ATI qui est le fond du problème. C'est tout ce qui est autour, et ce qui a ammené là aujourd'hui.

[quote]Pour le coup des consommateurs moins finaud, vrai j’ai été méchant… M’enfin je suis désolé mais quand j’entend des ptits gars crié au scandale parce que les PixelShader2.0+ c’est pas le plus rapide contrairement à ce qu’il avait lu sur les bench tartenpion ou les communiqués de presse toto, je persiste (et c’est mon opinion) à dire qu’il ne sont pas très finaud (même si c’est salaud) et qu’il ferait mieux de réflechir un peu avant de foncer tête baissée…

Par consommateur tu entends ceux qui ont acheté des Nvidia en retail lors de ces trois derniers mois donc ? Tu sais que tu te fais un paquet d'amis la, hein ? Non seulement c'est insultant vis à vis d'eux, mais en plus se distancier en disant (parce que c'est ce que tu dis), ils sont stupides, et moi je suis plus intelligent qu'eux, ca montre un "petit" manque de maturité. Ou de modestie, au choix.

Ce n’est pas la nouvelle la plus importante du monde, mais c’est suffisament important pour que toute la communauté du hardware en parle. Parce qu’on est dans une société d(e)’(sur)information, et que tout le monde à le droit à la parole. Et c’est uen bonne chose, après libre a chacun d’écouter ou pas, ou aussi de savoir quand parler et quand se taire. Cacher des trucs, de nos jours, c’est un poil plus dur. Et quand y’a un écart de performances entre les premiers tests préliminaires et les premières vrais applications, oui, ca vaut quand même le coup d’en parler.

[quote]libre à vous de vous lancer dans une cabale…
[/quote]Non, juste une mise au point amplement nécessaire.

Seigneur quel long texte ! Vala, j’ai nVidia depuis… fin 2000 et avant j’avais une Banshee de 3DFx… J’ai une 4200 64MB. Et elle fait tourner les jeux auxquels je joue (oui, si elles faisaient tourner les jeux auxquelles je ne joue pas ça serait bien bizarre et demanderait Ghostbuster)… Je m’écarte là…

Depuis que je connais le web “technique” (HFR, CafZon, Anand, 3DChips, etc) je vois des benchs, depuis que je lis Joy, je lis avec assiduité le matos (non, c’est pas de la lèche, c’est pour les pingouins!), et je vois des benchs.

J’ai un moniteur 17 pouces, pour le bureau je suis en 1280, et pour les jeux, ben ça dépend des jeux (j’ai un 1800+ sous le capot). Je n’overclocke pas. Or dans les bench, on voit de plus en plus 1600x1200 ou que sais-je encore… Ouaip, ben ça me fait une belle jambe ça… Par choix, mais aussi parce que je ne veux pas changer de moniteur (bon, il faut quoi pour du 1600? un 20 pouces), je ne m’intéresse qu’à des résolutions “humaines” et non marketing… Ca me fait rire de voir que pour la carte nViTi elle monte jusqu’en 2531.21… Je suis développeur et joueur, avec des moyens financiers “comme tout le monde”, donc je ne vais pas changer de carte car elle a 10MhZ de plus que l’autre, etc…
Je ne joue pas non plus avec l’anti-aliasing-machinbidule-chadée-de-la-mort-qui-tue-son-pingouin-de-couly-et-la-loutre, quand je joue, je veux “me croire” dans l’action, je m’en tape complétement de voir que le quarantedouzième pixel sur la droite est en pixel-mapping-shadé comme il faut… Pourquoi ? Mais j’ai pas le temps! Je joue à un jeu, je veux un framerate décent (donc suffisant pour mon oeil), je ne veux pas un framerate de 6000 fps que mon moniteur et moi ne puissons voir la différence (si, c’est important que mon moniteur voit comme moi! =) )
Je ne suis pas contre le progrés, mais je considère les GFeon comme des Formule1, c’est beau, ça va vite… Mais je vis avec ma Deux-Chevaux (non, Mimine, c’est une figure de style… Non pas dans pas dans ma figure, c’est aussi une figure de style! ;o) ), et elle me convient… Je n’ai pas les moyens de passer à la Formule1 tous les 4 mois, sous prétexte que ValID ont dit que c’est mieux… Les constructeurs de cartes, enfin surtout les marketeux devraient venir voir les users un peu…

Quant au “XS,LE,SE,XL, Ultra,Ultra+ de L’Oréal Paris”, c’est un peu le IntMD Penthlon de la carte graphique (oui,en forme ce matin), hop voici mon nouveau processeur à 3.241 Ghz tout nouveau, tout cher, et il est surpuissant par rapport à mon 3.240GHz de hier… Oui, ça veut dire qu’on l’a testé un peu plus rapide, il tient la charge, il durera 5 ans à cette vitesse… Vala, c’est tout. Les appellations XS,LE, etc… c’est du marketing, et un fondeur devrait dépenser plus d’argent en R&D qu’en marketing… à mon avis…

Regardez la console, PS2 reine, pourtant elle a pas un GFeon inside, ça n’empêche que les joueurs doivent s’éclater… Faudrait que pour DirectX 10 ou 11, tout le monde soit plus humble, et se tourne vers les vrais problèmes ou les vrais désir des joueurs.

Suis pas sûr d’être très clair! ;o)

Histoire de détendre l’atmoshpère, voilà une chtite vidéo qui a surement du trainé sur la cafzone à l’époque, mais bon je l’a remet : http://www.tweaktown.com/downloads/NVIDIAFlowFX_video.zip
Cette vidéo, qui aurait été faite par des employé de nVidia, nous donne une excellente leçon de marketting

Et sinon, pour dire mon petit mot sur le débat : nVidia a fait un choix d’architecture qu’ils vont maintenant avoir bien du mal à justifier, mais ce n’est pas surement pas un choix qui va les condamner pour la suite. Et comme toujours avec ceux qui connaisse des situation de quasi-monopole (ça été le cas pendant pas loin de 2 ans il me semble pour nVidia qui était très largement au-dessus de la concurrence, même si le mot monopole est exagér&#233, tout le monde se fait une joie de leur taper dessus.
Maintenant je pense que ceux qui teste les cartes essaieront surement de changer leur méthode afin d’éviter de tomber dans le piège
Mais bon, pour conclure : je fais bien d’avoir un 17" pas capable de monter au delà du 1024, comme ça ma Ti 4200 est encore parfaitement d’actualité

[quote]Histoire de détendre l’atmoshpère, voilà une chtite vidéo qui a surement du trainé sur la cafzone à l’époque, mais bon je l’a remet : http://www.tweaktown.com/downloads/NVIDIAFlowFX_video.zip
Cette vidéo, qui aurait été faite par des employé de nVidia, nous donne une excellente leçon de marketting [/quote]Hum… Si c’est celle que je pense, où tu vois des ingés de chez nVidia tenter d’expliquer le FlowFX, je ne considère pas cela comme du marketing, mais plutôt comme un mea-culpa.

[quote]Maintenant je pense que ceux qui teste les cartes essaieront surement de changer leur méthode afin d’éviter de tomber dans le piège [/quote]Le pb des benchs, ce sont les optimisations diverses et variées, genre détection de l’exe “quakelife.exe” ou de l’autre côté comme l’a dit je ne sais plus qui: if (DeviceID != “Ati”) {sucks();}… Enfin vous voyez l’idée… J’ai peur que plus un bench est célebre est plus il y aura d’optim/cheating…
Faudrait coder un cube directx avec tous les effets pour avoir une idée ! ;o)

[quote]Apprend à lire, j’ai jamais écris que Q3 s’était aussi bien vendu qu’HL[/quote]Apprend à lire, je n’ai jamais écrit que tu avais écrit que Q3 s’était aussi bien vendu qu’HL.
IL faut que tu comprennes que Valve ont largement les moyens de faire HL2 en sous-marin sans faire d’annonces à tout va. Ils n’ont fait qu’un jeu mais il fait probablement parti des jeux PCs les plus vendus au monde. Donc crois moi qu’ils n’ont pas besoin d’être sponsorisé par qui que ce soit…

D’ailleurs de l’avis même de Nvidia , ils ont bosser en étroite colaboration avec Valve (tu te souviens du problème avec l’antialiasing corrigé cet été ?). Ne me dis pas que ce serait le cas si ils étaient à la botte d’ATI…Franchement tu crois que ça tient la route ? Il va falloir nous sortir des arguments plus convainquant que la config de Tomshardware…

Non, il n’y avait pas d’humour dans mon post , mais que ton idée ne tienne pas la route 5 minutes ne justifie pas ton surplus d’agressivité…
Je trouve d’autant plus idiote ta supposition qu’en dessous tu reproches à Carféine de se fier à des “on dit”… Les affirmations de Carmack et de Valve ,c’est plus que des “on dit” ,tu ne crois pas ??

De plus je pense que l’histoire est simple : Valve a fait un jeu directX9, c’est rendu compte que les FX tournait mal dessus ,et ont préféré clairement dire que leur moteur n’est pas en cause… Je ne vois rien la-dedans de machiavélique , je vois juste des devellopeurs qui n’ont pas envie qu’on leur rejette la faute…
Ce message a été édité par BloodAngel le 19/09/2003

Pour la vidéo, c’est bien celle à laquelle tu pense, et c’étais bien sur ironique, d’où le

Sinon pour les benchs, on est d’accord, mais ce que je veux dire c’est que ce genre de méthode va inciter les testeur à utiliser des benchs un peu plus exotique en complément afin de justement voir des comportements incohérent qui pourrait faire penser à des optimisations louches

Voilà un thread très intéressant. Et bien écrit, sans trop de trolls.

Je connais pas assez bien le sujet pour pouvoir discuter de tout ça, mais je voudrais juste dire que j’ai plutôt envie de plaindre les gars qui ont investi beaucoup d’argent dans les cartes FX, et qui se rendent compte aujourd’hui qu’ils se sont (il faut bien le dire) fait rouler. Et pas de les enfoncer, car quand les 5900 sont apparues, je me rappelle que ce qui resortait de toute part, sur le web et dans les mags, c’était que nVidia avait repris le leadership. Donc si j’avais eu beaucoup d’argent (ce que je n’ai pas) et si j’avais changé ma carte à cette époque, j’aurais sans doute pris une FX. Qui sont quand même extrèmement chères, bien plus que les ATI (qu’on trouvait déjà très chères en valeur absolue, quand les 9700 Pro par exemple, sont sorties). D’où le probable désarroi de pas mal de monde (sans doute pas beaucoup de monde, car les marchés “Enthousiast” et “Performance” ne concernent sans doute qu’un faible nombre d’acheteurs; mais ce sont les mêmes qui visitent et s’expriment sur les sites de hardware). 

Et j’aimerais rappeler qu’à l’époque où ATI faisait des drivers foireux, ils en prenaient aussi plein la tête. A raison, tout comme nVidia aujourd’hui. Mais à l’époque ça ne choquait personne…

Pour finir, le bench jap dont parle C_Wizard, c’est probablement Real-Time High Dynamic Range Image-Based Lighting qu’on peut trouver .

Edit en lisant le post d’EBB qui suit: C_Wizard, c’est vraiment un plaisir de te lire

Ce message a été édité par JeeP le 19/09/2003

Juste pour illustrer le propos des défauts imputables aux developpeurs ou aux constructeurs de hard :

je suis un gran fan d’Operation Flashpoint. J’y avais toujours joué avec des cartes Nvidia (Geforce et puis montée en gamme progressive). Puis un jour, je suis passé chez Ati (pour avoir une all in wonder radeon) bien que je savais que leurs drivers n’étaient pas toujours top pour les jeux. Et là, bang, gros bug sur le jeu (problèmes de texturages et de polygones). Les versions de drivers passent (on en arrive même aux fameux Catalyst) mais le bug persiste. Puis je repasse chez Nvidia (Geforce 4) donc je laisse tomber cette histoire de bugs (que j’imputais aux drivers de la carte, ou à sa conception). Puis j’achète ma R9700 et là je me dit, bon, 40.000 générations de drivers ATI plus tard et de GPU, je devrais plus avoir le pb. Et bien si … Alors bon, un peu énervé, j’envoie un mail chez Ati pour signaler le bug, mais aussi chez Bohémia. Et là, surprise : un mec de bohémia me répond en me disant que ce bug est connu et identifié mais qu’il est imputable à la conception de leur moteur graphique, et non aux drivers ou GPU Ati à proprement parlé. Le mec m’avoue pourtant jouer lui même avec une ATi. Donc à priori on ne peut pas penser que c’est un bug délibéré (contre Ati au profit de Nvidia).

Bref, tout ça pour dire que parfois on se laisse tromper par des à prioris ou des évidences finalement fausses, et que si les mecs de Valve doutent de la qualité de rendu ou de la vitesse de leur jeux sur certaines architectures de CG, ben je trouve normal qu’ils mettent les choses au point le plus rapidement possible, histoire que leur travail ne soit pas injustement critiqué. Et puis, ça évitera peut être à des consommateurs d’acheter des cartes inadéquates par rapport à leurs besoins, ou obligera Nvidia à revoir sa copie et de faire plus attention sur leur prochaine génération de GPU.

P.S : C_Wizard : très bon post (clair, explicatif et argumenté !)

Ce message a été édité par Electric_Boogie_Back le 19/09/2003

[quote]Pour finir, le bench jap dont parle C_Wizard, c’est probablement Real-Time High Dynamic Range Image-Based Lighting qu’on peut trouver .

Yes !!! Merci JeeP ! Bon ce coup ci je l’ai bookmarké 2 fois, je n’oublierais plus. RTHDRIBL, c’est pourtant facile à retenir… Enfin bon le mec est talentueux alors je ne vanerai pas

Pour ceux qui ont une carte DX 9 et qui n’auraient pas testés, essayez vite, c’est beau et impressionnant. Les autres regardez les screens, ca vous donnera peut être envie d’acheter une carte DX9…

Ce message a été édité par C_Wizard le 19/09/2003

Une petite couche de plus en ce qui concerne notre grand ami NVidia. Il s’agit d’une analyse tout a fait sérieuse sur les raisons qui expliquent pourquoi ATI a une meilleure architecture directx 9, et surtout pourquoi NVidia a fait autant d’erreurs. C’est bien écrit et informatif, à consommer sans modération :

http://www.presence-pc.com/news/n1603.html