[quote]Je crois que tu n’a pas compris…
Juste au moment ou j'allais laisser tomber
Y'a des gens qui savent vraiment trouver les mots justes.
[quote]Je ne critique pas l’histoire des Pixel Shader, comme tu le dis, c’est connu depuis longtemps…
Non je n'ai pas dit ca. J'ai dit que certaines personnes du *MILIEU* s'en doutaient. Pour preuve, la plupart des développeurs étaient encore dans le flou il y'a 1 mois de ça. Tout le monde ne s'appelle pas Carmack, ou Valve pour avoir le prestige d'un nom ou la renommée d'une boite pour être en lien étroit avec les dévelopeurs de silicones. Et rares sont ceux qui ont tentés jusque là de pousser jusqu'au shaders 2.0 dans leurs développements.
Le consommateur, a part l’affaire 3D Mark (vite reglée), n’avait pas de quoi douter jusque là. Et encore moins sur la performance des shaders vu que rien ne pointait dessus. Et pour rappel, c’est de ça que parle le topic. Et donc ce thread.
C’est, entre autre, pour ca que l’on voit une levée de boucliers si vive en ce moment de toute part. Parce que pour 99% des gens c’est une surprise. Et maintenant beaucoup réanalysent certains “comportements”, certaines actions prises par Nvidia dans ces derniers mois. En essayant de mettre en perspective.
Question subsidiaire : Recherchez le déroulement des faits de l’affaire 3D Mark, regardez l’évolution des performances, et mettez en perspective avec ce que l’on sait sur les shaders 2.0.
[quote]Soit dit en passant en ayant fait un peu d’info, on se doute que traiter du 32bits au lieu de 24bits faut avoir de quoi assurer derrière… Or NVidia était (et est toujours) just sur ce point. Nous somme d’accord.
Oui, c'est assurément ce que quelqu'un qui aurait fait "un peu d'info" pourrait penser. De toi à moi ca sonne marketing
Traiter “32 bits” au lieu de “24 bits” ne veut pas dire que cela va prendre un tiers de temps en plus. L’info n’est pas traitée bit à bit, c’est un tout, et tout dépend de la manière dont l’unité qui va effectuer le calcul est architecturée. Petit parallèle, une unité SSE est capable d’appliquer à la volée un même traitement sur 4 opérandes 32 bits (soit 128 bits au total) d’un seul coup. Tout est question d’architecture, donc. Et pour ce qui est du shading donc, le GPU de NVidia à 32 (non, je ne pointerait pas l’ironie du nombre) unités FPUs (juste à ce niveau du pipeline). On est loin du “32 c’est plus compliqué que 24”. Il faut prendre en compte bien plus de paramètres. Les unités parralèles, par exemples. Si on voulait être exhaustif il faudrait prendre en comptes les stages précédents du pipeline et l’efficacité des dits 8 pipelines de Nvidia. Mais on ne va pas être exhaustif ce soir.
Je fais une aparté (je sais on dit un aparté mais, ca se sent surement hein, je suis ennervé alors je dirais UNE) sur ce dont on parle, mais ca a un rapport quand même avec ta quote, promis. Les 16, 24 et 32 bits, tout le monde en parle, mais personne ne dit ce que c’est. C’est la longueur du mot utilisé pour le codage de chacune des 4 composantes (Rouge, Vert, Bleu, “Alpha”). Donc en “32 bits” un pixel est représenté par 128 bits, en 24 ca donne 96, et en 16, 64. DirectX 9 spécifie 2 largeurs, 96 et 64. 128 est une norme i-trois-euh qu’a tenu à implémenter Nvidia. Et donc Nvidia implémente aussi le 64. Mais pas le 96. La plupart des développeurs DirectX 9 veulent cependant l’utiliser. Donc un 96 chez NVidia est traité par le hardware comme un 128, par 4 FPUS 32 bits.
Sauf que, et c’est la ou ca devient drôle, une précision 64 bits ne sera pas traitée par deux FPUS 32… Mais par 4. Ca peut paraitre stupide, et du gachis, mais c’est comme ça, les calculs sont indépendants sur chaque composante de couleur, et il faut séparer les opérations. Donc, en théorie, la précision 32, ou 16 c’est kif kif. Sur le papier, et “à ce niveau” du pipeline. C’est peut être d’ailleurs ce qui à poussé NVidia à implémenter le 32. Sur le papier c’est loin d’être une mauvaise idée.
Forcément ca cloche quand même quelque part. Ou ? pour l’instant on ne sait pas. Certains supputent que la bande passante mémoire interne au sein d’un pipeline handicape la précision 32 (puisqu’il faut plus de bande passante pour ammener les infos au traitement, ce à quoi beaucoup rétorquent que le chip de NVidia à largement la bande passante nécessaire), d’autres que tout serait lié au découpage assez particulier des pipelines (la cause de tout les maux du 5800, le sèche cheveux pour ceux qui suivraient encore). En fait on ne sait pas, et on ne saura vraissemblablement jamais exactement, vu que le hardware est complètement fermé.
Donc, non, on n’est vraiment pas d’accord en fait.
[quote]Maintenant, je trouve simplement curieux (excusez moi mais c’est comme ca) que tout le monde tombe sur Nvidia d’un coup
C'est ce que tout le monde se tente d'expliquer dans ce thread, avec de bonnes suggestions de toutes part jusque là. La raison principale comme évoquée plus haut c'est que de nombreux joueurs ont acheté ces cartes en se disant que ce serait ce qu'il y'a de mieux pour jouer a HL2 et Doom III. C'est ce qui était "pressentable" à l'époque de leur sortie. Les ATi étaient parfois un poil devant, mais rien de très significatif. Et les outils disponibles à la sortie des dites cartes ne permettaient pas de mettre en avant la lenteur des PS2.0. Quelqu'un de médisant dirait peut être même qu'ils ont essayé de camoufler le truc sous la seule vrai appli PS2.0 dispo a l'époque. Donc forcément on à un tas de joueurs pas très contents, et qui se sentent un peu floués qu'on leur ai laissé entendre des choses. Et ils ne sont pas plus stupides que d'autres. Ca c'est trop facile. Personne n'avait rien vu, sauf Carmack et 2 ou 3 élites.
[quote]que curieusement ATI est apparamment très proche de Valve en ce qui concerne HL² (Suffit de voir que les configs fournies par ex à Tomshardware l’ont été par ATI… Si ca vous parait normal ok, seulement pourquoi ne pas avoir fait les tests sur des configs tierces et pourquoi tant de contraintes ?)
Avant de lancer des accusations dans le vent, on check ses faits. Tom's Hardware parle du "shader day", ou ils étaient invités avec d'autres journalistes à une journée dédiée aux shaders organisée par Microsoft, et ou Valve était présent. Ce jour là, ils ont pu tester sur des configs ou ils pouvaient changer les cartes graphiques à loisir, sous le contrôle des gens de ATI présents. C'est une pratique courante pour les exclus, on aime ou on aime pas. Mais c'est pas très grave. Parce que certains sont repartis de cette journée avec le bench sous le bras, comme Anandtech, et ont réanalysé au calme le tout dès le lendemain. Donc oui on a eu des chiffres "fiables" et non controlés par ATI. Qui corroboraient ce qui avait été vu la veille, hein.
Pour le “très proche”, Xentyr à déjà bien résumé le truc, alors je ne remonte pas dessus.
[quote]que même si le hardware NVidia a du mal, ce n’est pas pour autant les bouses infames comme beaucoup semble le penser maintenant tout ca parce que ca marche moins bien que d’autre cartes…
Ce n'est NI le point dévelopé dans la news initiale, NI le point développé dans la source, NI dans 80% des commentaires. Pour la 25000eme fois, ce n'est pas le fait que ca aille (significativement, on ne parle pas de 10%) moins vite que chez ATI qui est le fond du problème. C'est tout ce qui est autour, et ce qui a ammené là aujourd'hui.
[quote]Pour le coup des consommateurs moins finaud, vrai j’ai été méchant… M’enfin je suis désolé mais quand j’entend des ptits gars crié au scandale parce que les PixelShader2.0+ c’est pas le plus rapide contrairement à ce qu’il avait lu sur les bench tartenpion ou les communiqués de presse toto, je persiste (et c’est mon opinion) à dire qu’il ne sont pas très finaud (même si c’est salaud) et qu’il ferait mieux de réflechir un peu avant de foncer tête baissée…
Par consommateur tu entends ceux qui ont acheté des Nvidia en retail lors de ces trois derniers mois donc ? Tu sais que tu te fais un paquet d'amis la, hein ? Non seulement c'est insultant vis à vis d'eux, mais en plus se distancier en disant (parce que c'est ce que tu dis), ils sont stupides, et moi je suis plus intelligent qu'eux, ca montre un "petit" manque de maturité. Ou de modestie, au choix.
Ce n’est pas la nouvelle la plus importante du monde, mais c’est suffisament important pour que toute la communauté du hardware en parle. Parce qu’on est dans une société d(e)’(sur)information, et que tout le monde à le droit à la parole. Et c’est uen bonne chose, après libre a chacun d’écouter ou pas, ou aussi de savoir quand parler et quand se taire. Cacher des trucs, de nos jours, c’est un poil plus dur. Et quand y’a un écart de performances entre les premiers tests préliminaires et les premières vrais applications, oui, ca vaut quand même le coup d’en parler.
[quote]libre à vous de vous lancer dans une cabale…
[/quote]Non, juste une mise au point amplement nécessaire.