Déjà des nouvelles GeForce

Voilà, les premiers tests de la GeForce 6800 sont apparus sur le net. Les rumeurs au sujet du nombre fort élevé de pipelines sont apparemment vraies tout autant que les performances de la bestiole.

Outre une tétrachiée de termes cabalistiques pour nous décrire tout ce dont l’engin est capable, il semble que le NV40 soit aussi prévu pour les amateurs de vidéo avec encodage matériel de Divx ;-), MPEG-4 et WMV9. Question 3D tous les nouveaux effets de de demain en matière de Direct X 9 et d’OpenGL 1.5 sont au rendez-vous.

Question performances c’est aussi le cas et notamment en très haute résolution où la carte domine largement la concurrence. En “basse” résolution style 1024768, c’est un peu plus partagé avec la Radeon 9800XT mais dès qu’on monte et/ou pousse l’antialiasing et filtrage anisotrope les écarts se creusent à nouveau en faveur du nv40, avec un FarCry à 30 images secondes en 16001200 AA4x et AniIso 8x.

Histoire de redescendre sur terre, la GeForce 6800 Ultra pompe pas moins de 100 Watts à pleine puissance, nécessite deux prises molex et nVIDIA recommande une alimentation de 450 Watts dans votre machine pour faire tourner la carte sans encombre. Sans compter que le système de refroidissement est plutôt imposant et risque de condamner un port PCI et toute tentative de mettre ce truc dans un barebone.

Quant au prix, il semble être dans les 550€ selon Hardware.fr et 700€ selon Clubic.

Il semble donc que nVIDIA ait repris la main en terme de performances, reste à voir celle des R400 d’Ati avant de savoir qui aura gagné cette nouvelle bataille des cartes 3D.

Sources : Clubic.
Hardware.fr.

Pioufff !!! Vraiment impressionnant les tests !!! La 9800xt ce fait completement étaler !!! On dirait que nVidia recommence à prendre du poil de la bête !!! 11000 pts à 3dmark 2003 contre 6000 pour une 9800xt, la différence est flagrante !!!
Par contre, nVidia a encore installer un refroidissement enorme … Tsss. Bon, par contre, le prix est vraiment très execif !!

Ouais mais je prère voir ce qu’une carte a dans le ventre dans les jeux, pas dans des benchs potentiellement “optimisés”…

Histoire de redescendre sur terre, la GeForce 6800 Ultra pompe pas moins de 100 Watts à pleine puissance, nécessite deux prises molex et nVIDIA recommande une alimentation de 450 Watts dans votre machine pour faire tourner la carte sans encombre. Sans compter que le système de refroidissement est plutôt imposant et risque de condamner un port PCI et toute tentative de mettre ce truc dans un barebone.
[/quote]Haha, ca va encore être une belle usine a gaz je sens leur truc…

(et puis bon, ATi powa d’abord :P)

Ce message a été édité par flupke126 le 14/04/2004

[quote]un FarCry à 30 images secondes en 1600*1200 AA4x et AniIso 8x.[/quote]C’est tout ?!?
30 fps seulement ? 30 fps c’est bien le plancher de la fluidité, ou j’hallucine ?

Attention, je ne doute pas de la carte en particulier, y a pas de troll nVIDIA ni rien. Je trouve que ce chiffre censé faire rêver est étonnament faible… 
Je dis ça parce que j’ai fait tourner Far Cry toutes options, de façon bien fluide en 1280*1024 AA4x et Aniso 8x sur une 9800 XT… Alors pour une carte de nouvelle génération je trouve le progrès assez maigre.
Dites-moi ce qui ne va pas ! 

Essaie en 1600X1200 deja.

 Ensuite il faut voir que ts les jeux n’utilise pas les ressources des composants de la meme maniere, certains c’ests la  CG  d’autres le proco (SF2 par ex, oui scuse c’est  le seul que j’ai testé).Farcry pompe ptet sur le proco.

  Ca n’enleve rien au fait que ma 9700 pro se prend 100% ds la teuté. 

 Monde de merde

Le test de Clubic semble le confirmer : l’écart entre cette nouvelle nVIDIA (dite de “nouvelle génération”) et la 9800 XT est relativement maigre…
Je suis très désappointé. 

Ce message a été édité par Oor-tael le 14/04/2004

Attendez, je ne suis plus là.

La nouvelle Geforce, c’est censé être une concurrente de la Radeon 9800XT, ou une nouvelle génération ? Parce que sinon la nouvelle dénomination est trompeuse, je m’attendais à des perfs d’un autre monde par rapport aux solutions existantes.

Nan là pour l’instant je reste sur ma faim. Parce que perso le 1600x1200 avec antialising, moi j’appelle ça de la frime. Pour l’aniso je dis pas… Et encore faut il avoir un écran qui n’affiche pas des petites chiures de mouche en guise de texte à cette résolution.

c’est la nouvelle génération.

Même avis que MMoi. C’est franchement pas super impressionnant : 12 000 sur 3D Mark, super ça sert à quoi ?
 1600*1200 options au taquet : super, ça sert à quoi ? (On m’dira que si on se paie une carte à 700 €, on se paie le 22 pouces mais j’en suis pas convaincu).
Alors après on te sort un pavet de machins termes techniques de la mort auxquels j’entrave rien (ouais j’fais pas de prog), c’est sensé me faire ban… heu pardon me faire triper ? Bof c’est râté.
Ah tiens, décomp MPEG 2…ah ben non tiens perf de merde (10% de charge proc en moins j’appelle pas ça un truc génial surtout avec les procos actuels.).
Mouais reste peut être l’encodage MPEG2.
Reste qu’à côté de ça, ça semble faire un super boucan, ça demande un changement d’alim (ben vi j’ai pas d’alim 450 W), ça m’prend un port PCI (déjà que j’en ai tout juste assez) et 2 connecteurs d’alim.

Mouais, perso j’suis pas convaincu du tout et je trouve que des restrictions comme l’alim et autre sont particulierement honteuses (ouais c’est p’tre con mais perso plutôt que des machins qui bourrinent de la mort, et encore j’suis convaincu là dessus, super pas pratiques, je préférerais des bidules qui bourrinent un peu moins mais qui sont bien pratiques.)

Bon allez, un truc pas mal au final : les drivers sont pas du tout optimisés encore…

Totalement d’accord avec Khin.
Même en ayant le budget je me vois très mal mettre 550€ dans une carte graphique qui n’a pas grand chose de revolutionnaire pour qui a déjà une carte d’acquisition vidéo, un bon proc et une CG récente.
De plus à l’heure du mini PC, le fait qu’il faille une alim de bourrin et que la carte soit une fois de plus énorme va en pénaliser plus d’un…

Ouais, en même temps, j’suis pas sur que cette carte soit faite pour les jeux d’aujourd’hui… Donc forcément la différence n’est pas flagrante, puisque qu’une 9800 XT suffit largement.

Mais svp ne dites pas que les tests 1600*1200 - AA 4X - aniso 8X servent à rien… C’est justement sur ces tests là qu’on voit les perfs qu’on aura sur les jeux de demain.

HFR précise quand même que la carte fonctionne parfaitement sur une alim 350W Enermax, avec une config apparemment plutôt couillue. NVidia préconise sans doute 450W pour se couvrir au cas où il y aurait des ratés sur l’alim 300W livrée avec votre config “Genghis Kahn” achetée chez Oulan-Bator Informatique…

[quote]Ouais, en même temps, j’suis pas sur que cette carte soit faite pour les jeux d’aujourd’hui… Donc forcément la différence n’est pas flagrante, puisque qu’une 9800 XT suffit largement.

Mais svp ne dites pas que les tests 1600*1200 - AA 4X - aniso 8X servent à rien… C’est justement sur ces tests là qu’on voit les perfs qu’on aura sur les jeux de demain.[/quote] On s’est mal compris, je n’ai jamais dis que les tests avec ces paramètres étaient inutiles. Oui c’est bien pour tester.

Mais tu as subtilement pointé du doigt le problème : on je joue pas aux jeux de demain, mais à ceux d’aujourd’hui.

[quote][quote]Ouais, en même temps, j’suis pas sur que cette carte soit faite pour les jeux d’aujourd’hui… Donc forcément la différence n’est pas flagrante, puisque qu’une 9800 XT suffit largement.

Mais svp ne dites pas que les tests 1600*1200 - AA 4X - aniso 8X servent à rien… C’est justement sur ces tests là qu’on voit les perfs qu’on aura sur les jeux de demain.[/quote]On s’est mal compris, je n’ai jamais dis que les tests avec ces paramètres étaient inutiles. Oui c’est bien pour tester.

Mais tu as subtilement pointé du doigt le problème : on je joue pas aux jeux de demain, mais à ceux d’aujourd’hui.
[/quote]Et cette carte est une carte de demain, puisque qu’elle sortira pas avant juin (ok c’est pas tout à fait demain, mais bon…)

[quote]Mais tu as subtilement pointé du doigt le problème : on je joue pas aux jeux de demain, mais à ceux d’aujourd’hui.[/quote]certes oui. mais en général que on se paye une carte de ce prix là on la garde longtemps, très longtemps…
(à moins bien sur d’être un gros pourri pété de tunes mais là c’est une autre histoire)

[quote][quote]
Mais tu as subtilement pointé du doigt le problème : on je joue pas aux jeux de demain, mais à ceux d’aujourd’hui.[/quote]certes oui. mais en général que on se paye une carte de ce prix là on la garde longtemps, très longtemps…
(à moins bien sur d’être un gros pourri pété de tunes mais là c’est une autre histoire)[/quote] Là aussi on est d’accord. Mais je trouve un peu casanier de se payer ce genre de carte quand les solutions actuelles permettent encore de jouer confortablement. D’autant plus qu’on a aucune assurance de comment la 6800 se comportera vraiment dans les jeux de demain. Rappelez vous la Fx…

[quote]Rappelez vous la Fx…[/quote]Oui, mais elle on avait de bonnes raisons de pas la prendre…
Ok, c’est vrai que c’est pas bien de tirer sur les ambulances, j’arrête. Jusqu’à la prochaine fois, promis.

exactement,
je sens que ma 9700 pro a encore de beaux jours devant elle avant que je me decide a la filer a ma geekette pour qu’elle puisse jouer a globulos pepere

j’attendrai la carte video pour les jeux d’apres demain

elle à l’air pas mal c’est clair…
Mais je viens de foutre 500 euros dans une 9800xt hercule (c’est pour la collec… mon cul oui) bon aller ça fait au moins …pfuiou euh… 4 mois que je l’ai…
c’est un vrai bouf pognion , j’avais pourtant jurer depuis l’achat d’une ge3 hercule aussi tient d’ailleur. à 3200 balles à lépoque elle venait de sortir et j’en avait marre de ma voodoo3000…
Je ferai mieux de me trouver une bonne femme ça coute moins chere tient…
(rupture difficile oblige)