ATI X800 - le retour ?

Petage de NDA en règle, un site espagnol a testé les derniers rejetons d’ATI.

C’est par ici le test

Edit:NDA n’a plus cour.

Test chez :
Clubic
Hardware.fr
Thom’s Harware

Ce message a été édité par Zaxe le 04/05/2004

Il y a vraiment des journalistes qui n’ont pas peur de se faire griller auprès des fabricants !

Mais le NDA courait jusqu’à quand ? Demain ou après demain, non ? C’est p’tet pas si grave en fait.

Le test à l’air super complet, dommage que ce soit en spanish. Par contre vous serez sûrement content de cliquer ici pour accéder directement à la série de benchs, elle aussi très très complète…

Tu t’es fait griller par clams (rendons à César…):

http://www.cafzone.net/ipb/index.php?showtopic=17479

Ce message a été édité par Ghanja le 04/05/2004

[quote]Il y a vraiment des journalistes qui n’ont pas peur de se faire griller auprès des fabricants !

Mais le NDA courait jusqu’à quand ? Demain ou après demain, non ? C’est p’tet pas si grave en fait.[/quote]Jusqu’à cet après-midi.

Pour halifax: "Le test à l’air super complet"
Pas tant que ça, puisqu’il ne parle même pas des Forceware 61.11 , sensés allègrement améliorer les perfs de la 6800.

Ce message a été édité par Ghanja le 04/05/2004

J’ai survolé rapidement les diagrammes. Ca me parait Kif Kif niveau performances. Sauf dans certains jeu où soit la nVidia, soit l’ATI prend le dessus.

A noter que Toms Hardware a rendu public son test pendant quelques minutes, des petits malins en ont profité pour les sauvegarder et nous en font profiter : la version classée ici ou la version bordélique ici.

C’est vrai que c’est sérré au niveau des performances. D’après vous qu’est ce qui pourrait faire pencher la balance en faveur d’ati ou de nvidia? 

D’après vous qu’est ce qui pourrait faire pencher la balance en faveur d’ati ou de nvidia?
Le prix :stuck_out_tongue:

[quote]C’est vrai que c’est sérré au niveau des performances. D’après vous qu’est ce qui pourrait faire pencher la balance en faveur d’ati ou de nvidia? [/quote]Les drivers pour nVidia, la qualité d’image pour Ati, le prix pour l’un des deux…

En tous cas au niveau des performances, c’est l’accélération du siècle. On en a vécu 3 comme ça précédemment. La première à eu lieu lors du passage de la Voodoo 1 à la Voodoo 2. Là, c’était hallucinant. La seconde, c’était à l’apparition de la Geforce 256. La troisième, à l’apparition de la 9700 pro d’ATI. A chaque fois, ça a été la claque magistrale. La Geforce 6800 a déjà créé un véritable groufre au niveau des perfs. Il n’y a qu’à comparer avec les Radeon 9800 XT. Si les résultats se confirment, ATI aurait fait encore plus fort. Car il n’y a pas à dire, même si ça fait un peu pinaillage, les Geforce comme la précédente série aménagent le rendu graphique à leur sauce au profit des perfs. Concernant l’ATI X800 XT, le rendu graphique est associé à des performances monstrueuses. YAPUKAPAYERCHERE

kineox > Concernant les pilotes, ce n’est clairement plus un critère. Les Catalysts sont très bons.
Ce message a été édité par bobsainclar le 04/05/2004

a y est: ca bench dans la langue de moliere
http://www.hardware.fr/articles/494/page1.html

Non seulement la X800 XT remporte la palme des performances mais en plus elle est au meme prix que la 6800 Ultra. On pourra aussi remarquer que la version standard et la version platinium ont exactement le meme PCB, que d’apres certains articles, il est laisse sous-entendre qu’il y a de la marge en terme de MHz pour les version platinium (et donc standard): ca va faire le plaisir des overclockeurs. Enfin, elle consomme peu et rentre dans un mini-pc, ce qui est enorme plus. Au passage, la X800 Pro est tres proche/legerement superieures des 6800 Ultra quand toutes les options graqphiques sont activees. Et pour un prix bien inferieur…
Par contre, la GeForce fait beaucoup mieux au niveau des fonctionnalites. Mais il semblerait de toute facon que la R420 ne soit que de passage. Apperemment, le R5xx devrait suivre tres bientot. En l’attendant, les X800 (et 6800 pour les pro NVIDIA ;-)) feront l’affaire.
Ce message a été édité par matthieu_fr le 04/05/2004

J’ai fait un niouze à ce sujet là à 15h30. Sinon, je pense que l’archi de nVIDIA est tout de même nettement plus évolutive et que sur le long terme, ils pourraient bien être gagnants.

Pour ce qui est de la propension a l’overclocking, les cartes d’ATI sont au taquet. Le PCB est prévu pour 500 MHz, ca ne montera donc pas beaucoup plus haut avec celui là. Les cartes plantent assez vite même quand elle montent haut. Ce n’est pas forcément mieux chez nVidia, mais ce n’est pas la faute du PCB.

Pour ce qui est d’un avantage d’un coté ou de l’autre face aux applis futures (pour peu qu’on puisse prédire ce que les développeurs ont en tête), y’a moyen de savoir, mais 99% des testeurs ne se donnent pas la peine.

[quote]J’ai fait un niouze à ce sujet là à 15h30. Sinon, je pense que l’archi de nVIDIA est tout de même nettement plus évolutive et que sur le long terme, ils pourraient bien être gagnants.[/quote]Tout a fait d’accord, ils seront probablement gagnant sur le long terme. Cependant, il est clair que les X800 sont des solutions relativement provisoire (pas de support des PS3.0, precision 24bits,…). Si ATI maintient ses objectifs, le R420 sera dans six mois un GPU du passe. Et le 6800 seras toujours la. Ce qui est logique, etant donne la nouveaute de l’architecture.
A propos d’evolution et de drivers, le test d’AnandTech (http://www.anandtech.com/video/showdoc.html?i=2044&p=1) est tres interessant. On voit que les X800 xxx sont testees avec une version beta, et que les 6800 sont testees notemment avec la xieme version de leur driver. On notera l’impressionnante evolution des performances dans certains tests, qui ouvre la porte aux premieres polemiques : les benchmarks sont-ils optimises? Ce qui semble, dans le cas tres precis de la sortie des nouvelles cartes ATI, tout a fait realiste. Comme on dit, c’est la premiere impression qui compte, optimisation ou pas.

Ce message a été édité par matthieu_fr le 04/05/2004

[quote]Cependant, il est clair que les X800 sont des solutions relativement provisoire (pas de support des PS3.0, precision 24bits,…).[/quote]Avant de tirer des plans sur la comete :

  • qu’apportent les SM 3.0 par rapport au 2.0B d’ati ?
  • qu’apporte le 32 bits face au 24 ?

EDIT : Les drivers de nVidia sont beta aussi. Enfin le premier à été certifié par FutureMark mais bon ;p
Ce message a été édité par C_Wizard le 04/05/2004

[quote]Enfin, elle consomme peu et rentre dans un mini-pc, ce qui est enorme plus.
Ce message a été édité par matthieu_fr le 04/05/2004[/quote] euh … oui a un detail pres …

http://www.hardware.fr/medias/photos_news/…/IMG0007737.gif

plus de 250 Watts en pleine charge ca m etonerai que beaucoup d alim de shuttle (& co) apprecie beaucoup …

la config de test etant:
P4C800/P4 3.2C / 2x512 Mo / 1 DVD / 1 DD

[quote]euh … oui a un detail pres …

http://www.hardware.fr/medias/photos_news/…/IMG0007737.gif

plus de 250 Watts en pleine charge ca m etonerai que beaucoup d alim de shuttle (& co) apprecie beaucoup …

la config de test etant:
P4C800/P4 3.2C / 2x512 Mo / 1 DVD / 1 DD[/quote]Juste pour rappeler que selon ces tests belges il y’a :

  • y’a 7w de différence entre une 5950 Ultra et une 6800 Ultra
  • y’a 12w de différence entre une 9800XT et une X800XT

Donc la paranoia concernant le besoin d’alims 480w est un peu usurpée. Ensuite, ces tests faits chez ceux qui croient avoir inventé les frites sont mesurés au cul de l’alim. On parle de puissance consommée par l’alim et pas de puissance fournie au système (c’est TRES différent, y’a de la perte).

Bon c’est bien beau toutes ces cartes qui sont super chères et super performantes mais est ce qu’elles sont vraiment nécessaire? je veux dire pour un joueur moyen sont elles vraiment utiles?
Par exemple moi j’ai acheté une radéon 9600XT à noël (surtout pour le support du pixel shader) mais avant je n’avais qu’une radeon 7500 et ce depuis deux ans. Et pourtant cela ne m’a pas empeché de jouer à tous les jeux que je voulais. peut être que ce n’était pas aussi beau mais ca tournait correctement ( max payne 2 tournait très bien).
Regardez on parle déjà de pixel et vertex shader 3.0 alors qu’une toute petite minorité de jeux utilisent les 2.0. Ne vaudrait il mieux pas se pencher sur l’optimisation et l’utilisation intensive de toutes les capacités des cartes de cette génération? à quoi cela sert de sortir une nouvelle technologie tous les 6 mois si celle-ci est remplacée 6 mois plus tard sans avoir été utilisée?
De plus c’est bien beau des superbes graphismes mais cela ne suffit pas à faire un jeux.
Voilà voilà.