[quote]Je profite de la présence de C-Wiz pour te demander plus d’infos sur le « NdCaf » mystérieux en début de niouse ?[/quote] C’est C_Wiz. T’aurait pas fait la faute j’aurai peut être parlé
ah ya que toms’hardware qui a vu ces defaut pourtant tres tres visible ??
[quote][quote]Ah ben ça va, ils prennent pas trop de risque dans leurs prognostics…[/quote]Huhu. Y’a 2 trucs à savoir : le premier c’est que l’architecture de nVidia est très nouvelle, et qu’il va y avoir des gains via les drivers (de manière honete ou non, c’est pas la question).
Donc même quelqu’un qui aurait vu (ou fait) des benchs avec une hypothétique carte non annoncée de chez ATI (ca va je couvre bien mon nda ? c’est pas le cas de the inq bien entendu) serait bien malin de pouvoir dire qui gagne aujourd’hui lundi 19 avril. [/quote]Et il court jusque quand ton NDA ?
vivement le 5 mai donc, et plus tard je presume pour la sortie des ATI X800 XT. Meme si on peux penser que les drivers vont apporter des optimisations (pas de doute), le resultat est la : on a deux cartes avec deux nouveaux GPU et les premiers driver. Et il semblerait qu’ATI remporte la palme a nouveau avec la X800 Pro. Il ne faut cependant pas oublier qu’ATI est reste en 96bits alors que la 6800ULTRA est en 128 bits. Enfin, les fonctionnalites de la Geforce semblent d’apres les premieres rumeurs bien au dessus de celle de la futur ATI. Cependant, gros paradoxe, malgres une precision de 128 bits (et des pixel shaders 3.0 non exploites ), la qualite graphique des 6800 ULTRA est inferieure a celle des ATI 9800 XT. La politique d’ATI pour l’instant semble etre d’offrir moins de fonctionnalites, mais promet les performances (ils ont d’ailleurs interet a avoir les performances si ils n’ont pas les fonctionnalites de la 6800).
On ne sait pas encore si la qualite graphique sur les X800 Pro/XT sera egale/superieure/inferieur a celle des 9800XT, mais si elle est egale ou superieur et que les performances sont au rendez-vous, alors NVIDIA devra reagir …
Beaucoup de personne se sont emballees a la sortie des Geforce 6800, ce qui est quand meme un bon signe. Mais l’avenir pourrait etre beaucoup moins rose que prevu si ATI apporte les performances promises.
Sinon, pour le reste des nouvelles, il semblerait qu’ATI envisage de sortir les versions gerant 128bits+PS3.0 Q4 2004.
Vivement le 5 mai, qui est pas si loin que ca…
J’attend de voir, comme d’habitude, mais je lis aussi pas mal de trucs comme quoi Ati préférerait parler des R5xx plutôt que des cartes à venir prochainnement, comme s’ils avaient le sentiment d’avoir été largués par nVIDIA. Wait’n’see, et rendez-vous dans deux trois mois pour voir qui s’en tire le mieux.
Avant de parler d’éventuel larguage vis à vis du SM3.0, savez vous quel est l’intérêt principal de la chose ?
Deuxiemement, pensez vous qu’avec une limite de 10 instructions par shaders pour la génération précédente, on avait fait le tour des shaders 2.0/A ?
je serais très interessé de savoir ce qu’apportent les shaders 3.0 par rapport aux 2.0 !
[quote]je serais très interessé de savoir ce qu’apportent les shaders 3.0 par rapport aux 2.0 ![/quote]Ca
En passant je ne vois pas en quoi c’est moins beau ! (cf “Il triche”).
Franchement ce genre d’annonce ça fait très cours d’école/troll, ça fait très "merde merde j’ai conseillé des ATI pendant des années comme le top du top, sagirais pas que ce soit le contraire maintenant, vite trouvont un truc!"
Je sais pas moi, je vois marqué : “Il triche” en 1ere page, je me dis: quoi ? Je me rue sur le lien en me disant :
C’est pas vrai les enfoirés, les tests ont du être fait en fait avec 4 cartes nvidia linkées entre elles et cachées dans un PC normal, ou alors en fait c’est un silicon graphics qui a fait les benchs, enfin un gros truc important quoi, et je tombe sur 3 pauv’ petites images de rien du tout ! Mais c’est une blaque ? C’est ça l’annonce fracassante “il triche” ? “sur pleins de détails” ?
Il me semble que l’on était contre le flood/troll sur la cafzone, ça fait tellement pas sérieux tout ça que même les codeurs de farcry en personne n’en ont même pas fait mention, si ce n’est une optimisation de drivers possible, vu sur tomshardware eux même !
Enfin s’il suffisait de tricher comme ça pour ganger 6000 points de plus à 3Dmark, si c’était aussi simple, je me poserais plutot des questions sur : Pourquoi Ati ne peuvent ils pas tricher comme ça si c’est aussi simple de multiplier la puissance des cartes par 2 ?
Bon allez je vais voir si je peu tricher avec ma carte pour que mes jeux tournent 2 fois plus vite en haute résolution
[quote][quote]je serais très interessé de savoir ce qu’apportent les shaders 3.0 par rapport aux 2.0 ![/quote][url=“http://forums.guru3d.com/showthread.php?s=&threadid=85378&highlight=far+cry”]Ca
[/url]mouhaha !!
ces images comparent les ps1.0 et ps3.0, normal que la différence soit flagrante !
source
En passant je ne vois pas en quoi c’est moins beau ! (cf “Il triche”).
Franchement ce genre d’annonce ça fait très cours d’école/troll, ça fait très "merde merde j’ai conseillé des ATI pendant des années comme le top du top, sagirais pas que ce soit le contraire maintenant, vite trouvont un truc!"
Je sais pas moi, je vois marqué : “Il triche” en 1ere page, je me dis: quoi ? Je me rue sur le lien en me disant :
C’est pas vrai les enfoirés, les tests ont du être fait en fait avec 4 cartes nvidia linkées entre elles et cachées dans un PC normal, ou alors en fait c’est un silicon graphics qui a fait les benchs, enfin un gros truc important quoi, et je tombe sur 3 pauv’ petites images de rien du tout ! Mais c’est une blaque ? C’est ça l’annonce fracassante “il triche” ? “sur pleins de détails” ?
Il me semble que l’on était contre le flood/troll sur la cafzone, ça fait tellement pas sérieux tout ça que même les codeurs de farcry en personne n’en ont même pas fait mention, si ce n’est une optimisation de drivers possible, vu sur tomshardware eux même !
on en fait que remarquer que le test sur farcry n’est pas à prendre tel quel vu que les drivers manifestement utilisnet le fastpath de la génération précédente… et ce serait vraiment bien que ca change à la prochaine révision du driver car sinon oui, ca trichera toujours autant qu’avant. j’ai pas eu trop l’impression de troller, désolé.
Enfin s’il suffisait de tricher comme ça pour ganger 6000 points de plus à 3Dmark, si c’était aussi simple, je me poserais plutot des questions sur : Pourquoi Ati ne peuvent ils pas tricher comme ça si c’est aussi simple de multiplier la puissance des cartes par 2 ?
peut-être (sûrement ) trichent ils mais en tout cas ce’st beraucoup plus discret, ca fait moins foutage de gueule que la gruge ouverte qu’on a vu avec la génération FX.
tricher ok, intelligemment c’est mieux
et ce n’est tou simplement pas le but d’ATI de perdre sa crédibilité.
Bon allez je vais voir si je peu tricher avec ma carte pour que mes jeux tournent 2 fois plus vite en haute résolution
si tu trouve la recette fais moi signe
[/quote]
Ce message a été édité par titibgosse le 21/04/2004
Comme dit plus haut, l’intéret n’est pas dans des screenshots de Far Cry qui comparent tout sauf des pixels shaders 3.0.
L’intérêt principal du SM 3.0, c’est qu’il gère les branchements. Des “if”, donc, chose impossible à faire jusque là. La question c’est de savoir si ces “if” seront utilisables sur le NV40.
L’autre point, c’est que vu que l’on était limité à des shaders de 8 a 10 instructions sur les générations précédentes (limité par les performances s’entend), maintenant qu’on peut en mettre aumoins 10 fois plus sans perte de perfs, le SM 2.0B/3.0 va donner autre chose que ce à quoi on était habitué d’appeller “pixels shaders 2.0”.
[quote]On peut en mettre aumoins 10 fois plus sans perte de perfs, le SM 2.0B/3.0 va donner autre chose que ce à quoi on était habitué d’appeller “pixels shaders 2.0”.[/quote]donc si je suis bien ton approche, cela veut dire qu’il faut attendre des applis /jeux qui gerent le sm 3.0
mais on ne parle pas de demo technologiques la, et de programmes et jeux repandu…donc le temsp que des titres sortent, il y aura probablement eu une nouvelle génération de carte graphique sortie entre temps…
psss…c’est galere et ruinant l’informatique…
Voila. Les jeux/tests synthétiques/whatever actuels ne permettront pas de se faire un avis définitif sur les architectures lorsqu’elles seront repoussées dans leurs derniers retranchements.
ok
A titre perso, je commencais à franchement penché pour nvidia et l’exclus qu’ils ont avec les ps3., mais si ca sert à rien (en très gros; je résume le fond de ma pensee là), autant avoir une x800 aussi (voir plus) performante mais qui en gere malheureusement aps les ps3.0…
C’est la que je fais mon teasing : réponse très bientôt dans Joy
[quote] [quote] [quote]je serais très interessé de savoir ce qu’apportent les shaders 3.0 par rapport aux 2.0 ![/quote][url=“http://forums.guru3d.com/showthread.php?s=&threadid=85378&highlight=far+cry”]Ca
[/url]mouhaha !!
ces images comparent les ps1.0 et ps3.0, normal que la différence soit flagrante !
source
En passant je ne vois pas en quoi c’est moins beau ! (cf “Il triche”).
Franchement ce genre d’annonce ça fait très cours d’école/troll, ça fait très "merde merde j’ai conseillé des ATI pendant des années comme le top du top, sagirais pas que ce soit le contraire maintenant, vite trouvont un truc!"
Je sais pas moi, je vois marqué : “Il triche” en 1ere page, je me dis: quoi ? Je me rue sur le lien en me disant :
C’est pas vrai les enfoirés, les tests ont du être fait en fait avec 4 cartes nvidia linkées entre elles et cachées dans un PC normal, ou alors en fait c’est un silicon graphics qui a fait les benchs, enfin un gros truc important quoi, et je tombe sur 3 pauv’ petites images de rien du tout ! Mais c’est une blaque ? C’est ça l’annonce fracassante “il triche” ? “sur pleins de détails” ?
Il me semble que l’on était contre le flood/troll sur la cafzone, ça fait tellement pas sérieux tout ça que même les codeurs de farcry en personne n’en ont même pas fait mention, si ce n’est une optimisation de drivers possible, vu sur tomshardware eux même !
on en fait que remarquer que le test sur farcry n’est pas à prendre tel quel vu que les drivers manifestement utilisnet le fastpath de la génération précédente… et ce serait vraiment bien que ca change à la prochaine révision du driver car sinon oui, ca trichera toujours autant qu’avant. j’ai pas eu trop l’impression de troller, désolé.
Enfin s’il suffisait de tricher comme ça pour ganger 6000 points de plus à 3Dmark, si c’était aussi simple, je me poserais plutot des questions sur : Pourquoi Ati ne peuvent ils pas tricher comme ça si c’est aussi simple de multiplier la puissance des cartes par 2 ?
peut-être (sûrement ) trichent ils mais en tout cas ce’st beraucoup plus discret, ca fait moins foutage de gueule que la gruge ouverte qu’on a vu avec la génération FX.
tricher ok, intelligemment c’est mieux
et ce n’est tou simplement pas le but d’ATI de perdre sa crédibilité.
Bon allez je vais voir si je peu tricher avec ma carte pour que mes jeux tournent 2 fois plus vite en haute résolution
si tu trouve la recette fais moi signe
En tout cas c’est sur que l’annonce de cette carte fait parler d’elle, la dessus, c’est réussi, après effectivement, vivement le concret quoi.
Enfin la carte elle est concrete j’en doute pas, mais vivement les jeux qui utiliseront ce support. Peut-être dans 3 ans, ou plus, ou jamais tiens, ca va tellement vite.
En passant vite fait je rajoute un truc : Je disais plus haut que ça faisait tres cours d’école ce genre de commentaire… Je m’aperçois que ma réponse aussi en fait, et du coup je m’aperçois aussi qu’en 15 ans j’en suis toujours au même stade du combat atari/amiga de mon enfance…
Je crois qu’on en est tous la… passionné je veux dire…
Enfin putain 15 ans après je sort preque les même discours… argh, mais qu’est ce que les jeux vidéos ont fait de moi…
Bon je m’casse je vais me pendre.
Ce message a été édité par titibgosse le 21/04/2004[/quote]
Ce message a été édité par Madval le 21/04/2004
Même les devs semblent faire des optimisations douteuses, enfin d’après l’article…
http://www.3dchips-fr.com/News/actualites/200404219.html
Malheureusement, je ne connais pas la validité de l’outil. Bon, ça concerne la génération actuelle de cartes aussi.
j’en suis toujours au même stade du combat atari/amiga de mon enfance…
Voilà bien un debat qui n’a pas lieu d’être, tant la superiorité de l’amiga en tout point est evidnte face à cette grosse bouse au desk verdatre qu’est l’immonde ST
tiens je me demandes…
les geforce 6800 font toujours leurs calculs en 32 bits ou aussi en 24 bits désormais ?
EDIT
tiens ! pour mettre de l’eau au moulin nvidia se rachète une conduite: drivers 60.72 approuvés par futuremark (qui va redevenir un bench en odeur de sainteté du coup (oui je putise )
ayant un nouvel écran, je peut enfin perdre du temps devant ma machine et je suis tombé sur qques commentaires qui disent que la vidéo d’unreal 3 est remplie de… ps2.0 ! 8) pour s’en rendre compte il suffit (parait il) d’écouter les commentaires des présentateurs sur les features du moteur…
de plus, je suis tombé sur ca qui montre que les effets appliqués à la vidéo d’unreal 3 sont tout a fait faisables sur une geforce fx/radeon 9xxx
C_wiz !!! help !!
on dirait que rien n’est fait pour qu’on comprenne qque chose
RE EDIT
j’ai choppé des images en low medium et high ! (ps2.0)
c quand meme uber beau comme jeu
[url=“http://membres.lycos.fr/bakuradegk10/FarCry0154.jpg”] ) ou si ce sont seulement des images low vs very higt détails ?
source: forum de clubic [/url](personne n’est parfait )
Ce message a été édité par titibgosse le 22/04/2004
Ca devient interessant
Bon déjà Clad tu sors, l’Atari était devant, un point c’est tout. Non mais.
Pour les 60.72, je ne reviendrai pas sur ce que veut dire la certification FutureMark. Quand on voit qu’il n’ont pas enlevé les optimisations d’autres jeux comme FarCry on à le droit d’avoir le doute.
Donc oui l’unreal engine 3.0 c’est du PS 2.0, et pas du PS 3.0 contrairement à ce que certains ont suputés. Pour info la démo tournait au GDC sur une 6800 Ultra et une *******. C’est par contre du PS 2.0 “complexe”, parce que les cartes actuels ne peuvent faire fonctionner que des petits shaders (une dizaine d’instruction) avant que les perfs ne partent en sucette et qu’il faillle ouat milles cycles pour executer les shaders.
Pour ce qui est des shaders 3.0 dans Far Cry, ils ne marchent pas dans les versions disponibles publiquement, les “optimisations” prennent le dessus contrairement à ce que dit le moteur, ce qu’a mis en avant Tom’s Hardware. De plus, le support des Shaders 3.0 est limite annecdotique dans les drivers (limite du nombre d’instruction, etc…), donc non ces images ne comparent rien du tout, et surtout pas des shaders 3.0.