Déjà des nouvelles GeForce

doubidou

http://3dchips-fr.com/News/actualites/200404151.html

En résumé :

  • carte réellement utilisable maintenant (pixel shader 3.0 de Far Cry par exemple)
  • impossible de passer de 12 à 16 pipelines (soft ou hard) selon Nvidia (on verra bien mais si ils font comme Intel ils y arriveront)
  • polygone à la seconde de ouf malade (pas de chiffre mes les photos d’écran me parraissent probantes)
  • alimentation de 480w nécessaire si c’est du noname, 350/380 si c’est de la marque qui poutre (donc avec des tensions stables)

En gros le résumé
Ce message a été édité par spook le 15/04/2004

[quote]- alimentation de 480w nécessaire si c’est du noname, 350/380 si c’est de la marque qui poutre (donc avec des tensions stables)[/quote]Nan mais j’y crois pas.
Faut qu’ils arrêtent de fumer le bignou chez Nvidia.

Une alim de 480W pour une CG !
Et pourquoi pas une alimentation dédiée tiens tant qu’on y est.
Franchement, ils nous prennent pour des truffes.
Déjà leur CG coûte la peau des roupettes et en plus faudrait changer d’alim parce que les nôtres seraient un peu justes.

Conclusion : chez Nvidia, c’est le client qui s’adapte au constructeur et pas l’inverse.
Risible.

Ceci était mon post coup de gueule du jour. Merci de l’avoir lu.

[quote]Nan mais j’y crois pas.
Faut qu’ils arrêtent de fumer le bignou chez Nvidia.

Une alim de 480W pour une CG !
Et pourquoi pas une alimentation dédiée tiens tant qu’on y est.
Franchement, ils nous prennent pour des truffes.
Déjà leur CG coûte la peau des roupettes et en plus faudrait changer d’alim parce que les nôtres seraient un peu justes.

Conclusion : chez Nvidia, c’est le client qui s’adapte au constructeur et pas l’inverse.
Risible.

Ceci était mon post coup de gueule du jour. Merci de l’avoir lu.[/quote]Ces chiffres je les trouves normal. 350/380w (ttgi, enermax, etc…) est déjà plus ou moins obligatoire avec une radeon 9800 (ou son équivalent chez nvidia).

Donc c’est pareil pour la 6800 Mais comme ils sont pas idiot chez nvidia ils conseillent direct des watt pour une alimentation NONAME.

Bah moi une ou deux prise molex, ca me fait ni chaud ni froid, et si nvidia nous dit que il en faut deux pour “que ca soit le plus stable possible”, ben je veux bien les croire. Nvidia n’a pas envie que monsieur x ou y utilise une alim noname avec voltage daubique qui se plains que ca crash et que ca marche pas etc.

J’ai une fx5900 actuellement, et la 6800 en l’etat actuel me donne bien envie j’avoue. Mais j’attend de voir les autre versions et les nouvelles cartes d’ATI.  

[quote]Ces chiffres je les trouves normal. 350/380w (ttgi, enermax, etc…) est déjà plus ou moins obligatoire avec une radeon 9800 (ou son équivalent chez nvidia).[/quote]Ah ben ca doit venir de chez moi alors.
Car j’ai une 350W NoName qui fait tourner correctement une 5900XT.

Voilà pourquoi cela me paraissait bizarre en fait.
Pour correction donc.

Edit : j’avais oublié 50W au passage
Ce message a été édité par Elbutor le 15/04/2004

c’est comme pour la ram, ya des noname de merde, et des nonmae qui dechire

genre mon colloc avec ca ram noname il passe en 200mhz (133 a la base) et moi avec ma rame de marque 166 ben elle tiens meme pas 180

[quote]Mais on va mettre les choses au clair nighty mon poussin : de mon point de vue claquer 500 € dans une carte graphique ça ne sert strictement à rien.[/quote]Fais comme moi, achète une radeon 9800 pro 128 à 230 €…

faut arrêter les conneries la carte consomme pas beaucoup plus que l’actuel haut de gamme Nvidia, dixit Hardware.fr
En fait, une configuration dotée d’un P4 3.2 C GHz et d’une 6800 Ultra consomme selon nos mesures à la sortie de la prise jusqu’à 269W en charge, et l’on monte à 323W en passant à un processeur plus gourmand, en l’occurrence un P4E 3.2 overclocké à 3.7 GHz en 1.5V,

ca commence mal :] http://www.tomshardware.com/graphic/200404…ce_6800-46.html

[quote]http://www.tomshardware.com/graphic/200404…ce_6800-46.html[/quote]alors la je susi sur le cul…
[je parle pour le matos actuel]
je savais que les drivers nvidia utilisaient une formule magique pour améliorer les performances… mais je ne pensais pas que ca pouvait détériorer l’image autant ! ca vire des effets et des points lumineux… carrément !
[pour la 6800]
ce qui m’étonne c’est que cette carte utilise encore ces subterfuges… espérons que ceci soit du aux drivers betas !
sur ce je vais lire les tests francais… enfin le test car bon… clubic… enfin voila quoi en espérant qu’hardware.fr ne soit quand me^me pas passé à côté de ça.

ce serait tout de même dommage que nvidia reparte dans ses travers. je n’ai pas l’itention d’acheter leur carte (9700pro inside et 1024*768 addicted) mais si ils se torpillent ENCORE leur réputations…

EDIT
y’a que tom’s hardware qui a vu ca on dirait…
mais sinon, si on veut jouer en 1024*768 on a le droit ? (vois test de hardware.fr)
Ce message a été édité par titibgosse le 18/04/2004

Bon, ok, autant l’avouer tout de suite, dans le fond du coeur, je suis pro-nvidia (oui, la GeForce3 m’avait bien marquée).

Pour ce qui est du test de Far-Cry, il faut lire l’article en français (ici) et voir que cette carte à été complètement remodelée et que sur tous (ou presque) les benchmarks, la carte étale la concurente Radeon 9800xt. On le sait tous, une génération les sépare alors c’est normal. Mais faut quand même avouer qu’ils se sont bien ressaisis chez le caméléon !

Donc, pour en revenir à Far-Cry, c’est le seul qui fait défaut et moi, je mets ça sur le compte des drivers pas finis.

Ah, oui, au fait, j’ai encore un argument pour garder mon CRT. Comme on peut le constater, pour gamer en 1024x768 ou en 1280x1024 (un peu moins quand même), une 9800xt arrive “quasiment” aux même résultats qu’un 6800. Les dernière GeForce (on peut le voir depuis quelques temps) ne démontrent leur puissance que dans les hautes résolutions. Alors moi je garde mon 17’’ CRT et mon prochain écran, quand je serais riche et reconnu, sera un 24’’ CRT aussi !

Pymtis

j’ai survolé les tests…
ca a l’air de pas mal envoyé mais c’est juste con que les processeurs / jeux (ou les prix des moniteurs 22" au choix) soient clairment à la bourre pour le coup…
les jeux qui bénéficieraient de la puissance de cette carte en 1024*768 n’existent pas encore… attendons la sortie de doom3 et half life 2 !

Moi je dis, y a pas de quoi s’emballer
Nvidia a encore sorti un jolie seche cheveux a nous balancer 2 tonnes de bouillie de pixel. oui mais voila, d’apres l’article de tomshardware, c’est du pixel de mauvaise qualité, sale pas propre. A quoi ca sert d’avoir un carte surpuissante, si c’est pour dans quelque temps nous sortir des drivers tweakers mangeur de perf afin de palier au lacune du hardware pour avoir un rendu correcte par rapport a la concurrence.
J’ai comme l’impression que le double effet kiss-3dfx-cool infecte toujours les ingenieurs de nvidia ( c’est moi qui va sortir la plus grosse avant tout le monde ).
J’espere qu’ATI n’a pas glissé dans ce petit jeux, et qu ils vont nous sortir une CG dans la continuité de ce qu’ils faisaient precedement (histoire de compenser leur drivers de daube )

Reste quand meme le faite que , ati comme nvidia, va nous sortir des systemes de chauffage central plus performante que mon chauffe-eau au gaz de ville :confused:

Allez, soyons fous, ma contribution inutile du mois:
moi j’ai une geforce 2 MX 400 et ça me suffit ^^

se fait toute petite dans un coin, en espérant qu’un passant lui jette une “vieille” geforce 3

T’es vraiment fou. J’espère que tu ne comptes pas jouer à un jeu trop récent.

Apparemment, ATI semblerait etre au rendez-vous car, d’apres une source de “The Inquirer”, la version PRO (12 pipelines) de du R420 (ou X800 pro) est deja plus rapide que la 6800 ULTRA. Sans oublier la version XT (X800 XT) qui devrait avoir ses 16 pipelines, donc des performances en progres, sur le papier du moins.
Pour moi, le choix va etre vite fait, surtout si les prix sont identiques. Mais c’est vrai que pour les personnes qui sont interessees par les autres fonctionnalites des GeForce 6800, pourquoi pas.
ATI va peut-etre reussir encore une fois a remporter la palm de la vitesse, meme si NVIDIA devrait avoir plus d’un tour dans son sac ( montee en frequence du GPU notemment).

Moui, m’enfin en même temps des “infos” de The Inquirer… Hum hum quoi.

Edit: mouahahaha, je suis allé voir l’article de The Inquirer en question. Ca c’est de l’info, y a pas à chier : “il semblerait que les ATi soient plus rapides, mais c’est possible que Nvidia ait encore plus rapide en réserve”.

Ah ben ça va, ils prennent pas trop de risque dans leurs prognostics…
Ce message a été édité par Mister_Moi le 19/04/2004

Les infos de “The inquirer”, elle se sont averees vraies a 90% en ce qui concerne la 6800, et tout aussi vrai jusqu’a maintenant en ce qui concerne le R420. J’ai remarque qu’ils ont ete bien plus serieux et ont pris beaucoup plus de precautions apres certaines critiques qui leur ont ete faites. D’ailleurs, ils ne sont pas les premiers a avoir publie une telle nouvelle (performance 6800ULTRA vs. R420 PRO). Je me rappelle avoir lu la meme chose sur un autre site hardware anglophone peu de temps avant la sortie de la 6800 ULTRA.
Mais l’avenir repondra a nos questions/attente.

Ce message a été édité par matthieu_fr le 19/04/2004

[quote]Ah ben ça va, ils prennent pas trop de risque dans leurs prognostics…[/quote]Huhu. Y’a 2 trucs à savoir : le premier c’est que l’architecture de nVidia est très nouvelle, et qu’il va y avoir des gains via les drivers (de manière honete ou non, c’est pas la question).

Donc même quelqu’un qui aurait vu (ou fait) des benchs avec une hypothétique carte non annoncée de chez ATI (ca va je couvre bien mon nda ? :stuck_out_tongue: c’est pas le cas de the inq bien entendu) serait bien malin de pouvoir dire qui gagne aujourd’hui lundi 19 avril.

Je profite de la présence de C-Wiz pour te demander plus d’infos sur le “NdCaf” mystérieux en début de niouse ?

Les cariboux, ça broute toujours là-bas ??? Et en passant, si t’as une petite précision, toi qui es/étais sur place ??? Alleeeeez, please ! De toute façon je suis abonné alors je l’aurais quand même le Joy du mois prochain !

Pymtis