Ati Radeon X1800

Quatre mois après nVIDIA, Ati annonce sa nouvelle génération de cartes 3D. Comme d’habitude, on nous promet monts et merveilles avec des résolutions stratosphériques et un niveau de détails jamais atteint. Largement de quoi vous jeter du haut d’un pont si vous venez de vous payer une jolie X850 XT PE.

Les nouvelles Radeon se nomment X1800 XL, puis XT 256 Mo et XT 512 Mo. Elles seront vendues respectivement au prix de 450, 500 et 550$. Les milieu et bas de gamme suivront assez rapidement et se nommeront X1600 et X1300. Sans compter les différentes variations de lettres et de chiffres pour l’instant assez limitées, mais appelées à augmenter si Ati respecte ses traditions. A priori, les X1800 XL sont disponibles dès maintenant et il faudra attendre un mois pour voir arriver les X1800 XT.

Contrairement à son concurrent, Ati a revu en profondeur l’architecture de son GPU. Parmi les nouveaux termes techniques en vogue, on notera l’apparition de l’Ultra Threading, d’Adaptive Antialiasing et de plein de trucs supposés augmenter l’efficacité du GPU. Sans oublier une nouvelle architecture mémoire assez innovante et un mode de filtrage anisotrope donnant un bien meilleur rendu. Les Shaders Model 3 sont enfin gérés. Comme c’est la mode depuis quelques mois, des fonctionnalités visant à accélérer le décodage de vidéos MPEG4 comme le H.264 ou le WMV-HD sont aussi présentes.

Sur le papier et selon les tests théoriques, tout cela serait réellement très efficace par rapport au GeForce 7. Dans les faits et les jeux, ça sent surtout le driver mal finalisé : l’affichage du WMV HD est buggé, certains jeux comme Far Cry refusent d’activer le HDR. D’une manière générale, les nouvelles cartes d’Ati sont dans un mouchoir de poche avec celles de nVIDIA dans des résolutions classiques. Dans le mode “ahaha tu peux toujours rêver” (1920*1440 avec Antialiasing 4x et filtrage anisotrope 8x), les Ati parviennent à se distinguer à condition de ne pas leur parler d’OpenGL.

Bref, ça semble plutôt réussi pour la nouvelle génération d’Ati qui tient très bien tête aux GeForce 7. A condition que les drivers suivent et que les dates de sorties annoncées soient respectées.

Source : Hardware.fr

(ndyavin : les images sont offertes par C_Wiz)

Les photos qui illustrent ta news sont pour le moins jolies en tout cas, et originales…

Bon, en tout cas ça y est, on peut dire que les fabuleuses Geforce 6 sont déjà à la masse !

Bon ben comme je me suis payé une jolie X850XT PE ya 2 semaines, je vais me jeter d’un pont, adieu… :stuck_out_tongue:

Ati…
ahahahah

Pas de shaders 4.0 ? Va falloir y penser, y’a déjà du monde qui bosse sur DirectX 10 (CryTek pour ne citer qu’eux), et les shaders 4.0 sont vraiment une monstueuse avancée…

Ouais mais c’est rien à côté des 7.52 qui seront…

Faudrait voir à pas trop dire de conneries Drealmer. :stuck_out_tongue: Les 3.0 sont déjà pas exploités, laissons du temps à nos braves codeurs.

Madval : la rédac a que du ATI depuis un moment (merci Dell), ça marche très bien merci (je crois que nous voyons passer « quelques » jeux -pas terminés en plus- tous les mois.) On a une 5900 qui traine dans un AMD 3200+ pour les trucs buggés de chez buggés (2 par an, soit autant que des trucs qui fonctionnent pas chez Nv).

Musachi : vire ton avatar animé avant de sauter merci. Sinon je le remplace par un truc de mon choix. :stuck_out_tongue:

:stuck_out_tongue: voila voila, crime corrigé, ne me foudroyez pas !

[quote name=‘M.musachi’ date=’ 6 Oct 2005, 11:01’]:P  voila voila, crime corrigé, ne me foudroyez pas !
[right][post=“404890”]<{POST_SNAPBACK}>[/post][/right][/quote]

(ce serait pourtant plus rapide que de te noyer :P" )

J’ai une question qui va paraître totalement stupide mais faut que je la pose : dans les benchs que je vois c’est toujours carte testée contre carte du concurrent de la même gamme, ou comparaison par rapport au moyen/haut-de-gamme, c’est selon.

Bref, j’ai une radeon 9700, et ce serait donc juste pour savoir dans quelle mesure (à quelques dizaines de mesures près :P) elle se fait éclater par cette nouveauté. Je n’ai vraiment pas d’échelle en tête, sachant que les jeux que j’achète, même récents, tournent encore très bien.

Bon en tous cas, la dispo des cartes est effective. Il y a même plus l’embarra que le choix. Un pitit lien pour aider à faire un choix

Non non, ne me remerciez pas, c’est tout naturel. Et puis c’est d’origine belge donc…

[quote name=‘EvilGuinness’ date=’ 6 Oct 2005, 11:06’](ce serait pourtant plus rapide que de te noyer  :P" )

J’ai une question qui va paraître totalement stupide mais faut que je la pose : dans les benchs que je vois c’est toujours carte testée contre carte du concurrent de la même gamme, ou comparaison par rapport au moyen/haut-de-gamme, c’est selon.

Bref, j’ai une radeon 9700, et ce serait donc juste pour savoir dans quelle mesure (à quelques dizaines de mesures près :P) elle se fait éclater par cette nouveauté. Je n’ai vraiment pas d’échelle en tête, sachant que les jeux que j’achète, même récents, tournent encore très bien.
[right][post=“404893”]<{POST_SNAPBACK}>[/post][/right][/quote]
Hop , et tu peux toujours ajouter les benchs des nouvelles cartes si tu tiens vraiment à sentir combien ta carte est dépassée.

[quote name=‹ Caféine › date=’ 6 Oct 2005, 09:33’]Faudrait voir à pas trop dire de conneries Drealmer. :P  Les 3.0 sont déjà pas exploités, laissons du temps à nos braves codeurs.
[right][post=« 404872 »]<{POST_SNAPBACK}>[/post][/right][/quote]
Bah justement les braves codeurs ils aimeraient bien avoir des cartes DX10 pour s’essayer aux geometry shaders (qui vont normalement déchirer sévère) :stuck_out_tongue: Tout ça pour dire que ça me semble un peu bizarre de sortir une toute nouvelle architecture uniquement basée sur DX9… D’un autre côté, rien ne dit que le chipset ne met pas déjà en place les éléments requis par le support DX10 et que ça sera rajouté lorsque les drivers seront prêts. Wait & see.

[quote name=‘Ghanja’ date=’ 6 Oct 2005, 11:16’]Hop , et tu peux toujours ajouter les benchs des nouvelles cartes si tu tiens vraiment à sentir combien ta carte est dépassée.
[right][post=“404901”]<{POST_SNAPBACK}>[/post][/right][/quote]

Eh eh merci c’est vraiment ça que je voulais.

[Après lecture]
Bon…de toute façon je le savais que ça allait être une journée de merde…je sens que je vais passer au kit d’upgrade et à l’achat d’une CG prochainement.

C’est vrai qu’au debut, j’etais un peu pessimiste au vu des resultats des nouvelles cartes d’ATI. Mais je pense qu’il faut serieusement relativise!
Elles ont 4 mois de retard sur NVDIA, oui c’est vrai. Mais on parle du R520 soit disant finalise (taped out) depuis octobre dernier, avant meme que NVIDIA ait finallise le 7800. Quand on regarde d’un peu plus loin, qu’est ce qui a fait le succes des 6800? Les performances, oui, mais le X850 est quand meme le GPU le plus performant de la gamme. En fait, ca serait plutot toutes les nouvelles options apportees par NVIDIA qui etaient absente chez ATI, une nouvelle architectures, de nouveaux effets, bref, du nouveau et du beau. Et les X1000? C’est une nouvelle architecture, avec beaucoup de nouvelle idee tres bien, des pipelines enfin efficace (j’ai toujours pense qu’avoir un V8 de 290ch, ca servait a rien si tu peux avoir un V6 de la meme puissance, a part gaspiller un peu plus peut etre).
Alors il est vrai que la 1800XL laisse un peu a desirer niveau performance. Mais les nouveautes qu’il apporte compense largement les 5fps manquante pour surpasser le 7800GT, qui n’est rien d’autre finallement qu’un 6800 ameliore…
J’allais conclure hier a une entree ratee pour ATI, mais finallement, apres avoir etudie leur architecture de plus pres, et regarde les benchmark de maniere globale, ils ont vraiment fait du bon boulot. Avec “16 pipelines”, ils font mieux que 24!!! Avec la flexibilite qu’ils ont introduite, il sera interessant de voir des cartes avec 20, 24, 28, 32 pipelines, pour voir ce que l’on obtient niveau performance. Car il semble d’apres les premiers tests que la monte en fps dans les jeux est presque proportionnel a la monte en frequence sur la lignee des X1800 (et le nombre de pipelines X1800 vs X1600 vs X1300), ce qui est aussi un bon signe en ce qui concerne les gains en overclocking. Au passage, quand les premieres rumeurs sont apparues sur la difference en terme de performance entre la 1800XT et la 1800XL, personne ne voulait y croire: meme architecture, juste une difference de frequence. Certaines personnes ont d’ailleurs remarque que la montee en performance etait plus importante que la montee en frequence, du jamais vu au paravant, ce qui avait d’ailleurs fait dire que ces premiers benchmark etaient faux :P. Quoi de mieux qu’un overclocking de 10% qui augmenterait les performance de 15%?!
Enfin, comme beaucoup de test l’ont montre, TOUS les resultats obtenus l’ont ete avec des drivers non finalises. Une chose importante quand l’on sait que l’evolution dans ce domaine la est constante, et que NVIDIA a aux contraire des drivers finalises, qui petit a petit atteignent logiquement leur limite d’optimisation.
D’un autre cote, la disponibilite laisse a desirer. C’est ce qui, je pense, va faire la difference entre NVDIA et ATI. On verra ce qui se passe d’ici le 5 novembre.

Comme j’ai cru en NVIDIA lors de la sortie des 6800, je pense qu’ATI a sortit ici un produit neuf qui est, globalement, meilleur que celui de sa concurrence. En attendant le prochain GPU de NVIDIA (et je ne parle pas d’une version 90nm avec les frequences elevees -et quelques pipelines en plus, ce qui est plus qu’improbable au passage), ATI menera surement la danse. Chacun son tour apres tout!

Mais c’est énorme, comme truc !! :stuck_out_tongue:

nawak les images ! :stuck_out_tongue:
la diva s’est fait attendre, il est vrai…

jolies photos ! y en a qui se prélassent au bord de piscines pendant que d’autres bossent.

c’est vraiment trop injuste ! :stuck_out_tongue: (Caliméro, a ne pas confondre avec Calojéro )

[quote name=‘Drealmer’ date=’ 6 Oct 2005, 08:58’]Pas de shaders 4.0 ? Va falloir y penser, y’a déjà du monde qui bosse sur DirectX 10 (CryTek pour ne citer qu’eux), et les shaders 4.0 sont vraiment une monstueuse avancée…
[right][post=“404858”]<{POST_SNAPBACK}>[/post][/right][/quote]
Supaiiiir. Alors avant d’avoir le droit de reposter ici, tu me trouves la spec finale des shaders 4.0 qu’a validé Microsoft pour l’intégration non pas dans DirectX 10, mais dans une update intérmédiaire qui sera aussi dispo pour XP.

Comment ça tu trouves pas ? Damn… J’aurai bien voulu avoir une discussion productive sur les choses (non annoncées) que cette puce fait DEJA et qui seront très surement dans SM 4.0 mais je crois que c’est mal parti.

Dites, c’est moi ou la X1800 XT,n’est qu’un overclocking monstruuueux pour essayer de pas être trop con face à la concurence ?

(Ce message contient un gros troll, saurez vous le retrouver :P" )

C’est exactement ce que je pensais sans oser le dire… Elle donne l’impression d’avoir été boostée juste ce qui faut pour être au moins au niveau de la concurrence.
Après faut pas se leurrer non plus nVidia attendait certainement les résultats de la X1800XT pour sortir de derrière les fagots un modèle boosté.

C’est l’éternelle guéguerre à 2 balles de celui qui aura la plus grosse.

[quote name=‘Iron_Momo’ date=’ 6 Oct 2005, 15:06’]Dites, c’est moi ou la  X1800 XT,n’est qu’un overclocking monstruuueux pour essayer de pas être trop con face à la concurence ?

(Ce message contient un gros troll, saurez vous le retrouver :P" )
[right][post=“405029”]<{POST_SNAPBACK}>[/post][/right][/quote]
Oui le troll est gros. Non, ce n’est pas ca. Réponse ? Dans le prochain Joy.