GeForcé sur le nombre de transistors, là !

Ce qu’il y a de bien en informatique, c’est que c’est l’un des rares domaines où l’on peut encore croire à une croissance infinie et démesurée des possibilités du matériel. Il y a 20 mois de cela, nVIDIA sortait les GeForce 8 et on trouvait que les 680 millions de transistors dissipant bien 100 à 150 Watts de chaleur à eux tout seuls, c’était (et c’est d’ailleurs toujours) assez monstrueux dans le genre. Foin de toute considération environnementale prônant la décroissance et la sobriété énergétique, c’est aujourd’hui que la véritable relève aux GeForce 8800 arrive.

[center]
La nouvelle gamme de radiateurs nVIDIA
[/center]
Comme d’habitude, nVIDIA s’est plutôt déchainé. Plutôt que de se contenter d’aller au milliard ou même de doubler le nombre de transistors, c’est pas moins de 1,4 milliard de transistors qui équipent la dernière-née. C’est juste 2 fois plus que ce qu’il y aura dans le futur Nehalem d’Intel. Certains gros geeks de mon genre pourront me dire “Ouais mais les Itaniums d’Intel, ils en ont 1,7 de milliard de transistors”. Certes, mais il semble bel et bel que sur ce chiffre absolument effrayant en 2008, il y en ait 1,5 milliard pour les 24 Mo de mémoire cache. Ici, on a 1,4 milliard de transistors servant principalement à faire des gros calculs massivement parallélisés. Et même pas peur, le tout est gravé en 65 nm alors qu’Intel vient d’inaugurer le 45 nm.

Pour vous donner une première idée, selon AnandTech et mon pifomètre intégré, le die (à savoir le processeur) fait environ 6 fois la taille d’un Core 2 Duo moderne. L’architecture reprend les grandes lignes de son illustre ainée. Il s’agit d’un truc ultra modulaire regroupant des tonnes de petits processeurs de flux pompeusement nommés cores d’exécution par nVIDIA histoire de faire croire qu’il s’agit d’un processeur avec 240 cores. Ils tournent tous à seulement 1,3 GHz. Le tout est bien évidemment largement amélioré du point de vue interne afin d’augmenter un peu les performances dans les jeux mais potentiellement pas mal d’autre chose. Comme à leur habitude, les ingénieurs se sont échinés à faire un truc encore plus surpuissant. Pour faire bonne mesure, on passe d’environ 500 à 600 MHz pour le reste de la puce. La traditionnelle inflation de la mémoire est là puisqu’on a cette fois-ci droit au gigaoctet de mémoire cadencé à 1,1 GHz épaulé par un bus Berliet de 512 CV. Ha pardon, un bus mémoire de 512 bits.

Si vous voulez des détails il vous faudra lire les vrais tests sur internet, n’étant pas C_Wizard, je me garderais bien de tenter ici une explication ou une vulgarisation.

[center]


Ça, c’est pas du die de tapette, hein ?
[/center]
Son nom ? La GeForce GTX280. Oui, je sais, c’est absolument incroyable, le nom est presque prononçable, inutile de dire qu’il s’agit certainement là de l’un des progrès les plus remarquables et d’un apport majeur de nVIDIA au monde des cartes graphiques.

Je dis ça, parce que contrairement à un contact prolongé avec la carte en fonctionnement, le prix de 550 € en refroidira plus d’un. Plus abordable, on notera aussi une petite sœur nommée GTX260 avec un peu moins de mémoire vidéo, 892 Mo et quelques trucs en moins dans le GPU, un peu comme la 8800 GTS à l’époque. Le prix devrait se situer à environ 400 €. Dans la grande tradition de nVIDA, le monstre est disponible dès maintenant et il faudra encore attendre quelques jours pour la 260.

Bon comme vous n’y tenez plus, parlons maintenant des choses sérieuses, à savoir les performances dans les jeux. Je vous préviens, c’est une carte d’homme, certainement pas faite pour ceux dont la taille de l’écran est en dessous des 24 pouces et aucunement pour ceux qui ne voient pas la différence entre 4 et 8x d’anticrénelage.

Les performances sont finalement un peu curieuses… Globalement, la 9800GX2 est quand même pas forcément larguée du tout dans des résolutions plus faibles et communes parmi le commun des mortels. Il est même assez courant qu’elle soit devant. En fait, en basse résolution, comme le 1680×1050 (je vous avais bien dit que c’était une carte d’homme) ou même en montant en 1920×1200 on se retrouve finalement à faire quasiment jeu égal avec la 9800GX2. Ce n’est guère qu’en poussant dans une vraie résolution, comme le 2560×1600 d’un bon petit écran de 30 pouces et en forçant lourdement sur l’anti-crénelage et tous les autres filtrages que l’on commencera à sentir la différence dans les jeux et à ne pas regretter d’avoir mis autant de sous dans une carte graphique. Il faut dire que le gigot de mémoire vidéo commencera à se faire sentir.

Véritable hymne à l’énergie nucléaire, la carte est aussi la plus consommatrice de courant à pleine charge, demandant avec la machine qui va avec ses 310 W soit 60 de plus qu’une 8800 GTX. Une nouvelle performance qui permet enfin à nVIDIA de dépasser les Radeon. Elle devient plus sage lorsque l’on ne joue pas en demandant près de 40 W de moins que son ancêtre grâce à une baisse sérieuse des fréquences une fois sorti des tâches intensives. Par pudeur, j’éviterai ici de parler du SLI, réservé aux plus riches des agents EDF.

[center]
La même pour les scientifiques.
[/center]
Histoire de montrer qu’il n’y a pas que le jeu dans la vie, les dernières puces de nVIDIA commencent aussi à pouvoir faire des trucs moins graphiques. Grâce au CUDA, l’espèce d’interface langage C/C++ carte graphique, on commence à voir apparaître des possibilités intéressantes, genre encoder de la vidéo sur le GPU, de façon potentiellement bien plus rapide que sur un CPU classique. Ou faire du Folding@Home. Fruit du rachat d’Ageia, le moteur PhysX sera bientôt géré par les cartes graphiques grâce à un beau driver magique.

De nombreuses applications dans le domaine du High Performance Computing sont prévues par nVIDIA sous la forme de machines nommées Tesla, parfois même disponible en rack comme un serveur classique. La firme au caméléon encourage le développement d’applications utilisant ses cartes graphiques grâce à quelques sites vitrines. En bon exhibitionnistes à l’égo surdimensionné qu’ils sont, ils n’hésitent pas à annoncer des gains fabuleux par rapport au même traitement sur un CPU Intel, en général entre 10 et 270x.

Au final, selon le site, les conclusions diffèrent pas mal. Selon Clubic, c’est absolument génial et indispensable tandis que MatBe reste un peu moins débordant. Quand à AnandTech (de loin le test le plus détaillé que j’ai vu), ils estiment qu’à ce prix-là, c’est bien cher payé pour ne presque pas voir de différence sur les écrans du commun des mortels avec la 9800GX2 largement moins chère aux USA. Bref, on ne se jettera pas forcément dessus avec autant d’avidité qu’on aurait pu le penser.

De tout cela, on ressort tout de même avec la nette impression de voir nVIDIA dessiner un gros collimateur sur le futur Larabee d’Intel et les volontés de ce dernier de se mettre à faire des cartes graphiques compétitives.

Alors, à votre avis, quand est-ce qu’ils sortiront un truc pour faire du raytracing en temps réel ?

c’est absolument monstrueux. je need.

je pense qu’avec CUDA on peut faire du raytracing, mais ce n’est que mon avis :slight_smile:

Monstre de consommation, prix imprononçable, taille démesurée…aucun doute, c’est bien une nouvelle génération de carte :slight_smile:

Blague à part, c’est typiquement le porte étendard d’une nouvelle architecture qui ravira ceux qui se fichent des désagréments sus-cités et qui inspirera les autres en l’attente du milieu de gamme dans un an tapant quasi les même perfs mais avec une conso et un prix autrement plus agréable (cf : 8800 GT vs 8800 GTX).

Reste à voir ce que AMD a de son côté.

Si j’ai bien compris les news à droite et à gauche cette nouvelle carte est plutôt nulle et pas innovante. Ils ont “juste” doublé le nb de transistor sans améliorer ni la techno de gravure ni l’optimisation. Du coup le rapport conso/perf est pas très bon…

Au niveau de la conso la 280 est au niveau de la 8800 GTX en charge et est 40w en dessous au repos …
Sinon un autre test en francais bien complet (32 pages …) chez Tom’s Hardware
Bon, maintenant il faut que je trouve un moyen de la faire rentrer dans mon shuttle :crying: (pour les avoir un peu tripoté c’est quand même des gros bébés :slight_smile: )

Et un autre test chez Ere Numérique, by C_wiz

A propos, sur le test de Cwiz il y a une erreur sur les graphes DX10 de World in Conflict :slight_smile:

Sinon, je trouve pas forcément la comparaison avec la 9800GX2 très judicieuse : entre une carte mono-gpu qui fonctionne « normalement » et une carte multi-gpu qui nécessite des drivers pour chaque jeu et dont le développement à moyen terme est incertain, je trouve qu’il n’y a pas photo, même pour la différence de tarif…

Moi j’attends surtout de voir ce que vont donner les 260 par rapport aux 8800 qui étaient les cartes meilleurs rapport performance/prix y a pas longtemps. J’ai aussi lu que ces cartes faisaient hélas un sacré boucan…

Et quid effectivement d’Ati/Amd ?

Tom’s hardware a testé les 260, sinon pour le bruit c’est bizarre, ce que j’ai compris c’est qu’elles chauffent pas des masses mais que le ventilo tourne trop vite … On sait pas trop si c’est voulu ou si c’est un bug…
Si C-Wiz pouvait nous éclairer :slight_smile:

Il me semble qu’a terme, c’est plus ou moins l’objectif d’intel, quand larabee daignera montrer le bout de son nez. J’imagine que nvidia ce prepare a cet eventualité si ce n’est pas deja un peu le cas avec cette carte.

C’est ta carte graphique qui a pas assez de RAM pour charger tous les benchs :cry:

(sinon j’ai un peu tout détaillé sur la question dans l’article, mais)

  • « le raytracing avec CUDA ». On peut faire du raytracing sur calculatrice aussi, c’est pas pour ça que c’est une bonne idée ou une idée qu’a Nvidia
  • on écrit Nvidia en France
  • côté bruit les miennes en faisaient moins qu’une GX2, tout le monde n’a pas eu la même expérience. Certains ont eu des gros problèmes de chauffe dans un boitier fermé
  • les 260, seul hfr en a fait un test pertinent. la dispo c’est pour plus tard

Intel ne compte pas utiliser Cuda :crying:
Et Nvidia ne compte pas utiliser Cuda pour contrer le raytracing de Larrabee. Vous mélangez tout.

En fait CUDA ça permet de transformer ta carte graphique en gigantesque corprocesseur arithmétique. Tout ce qui est parallélisable et utilise les flottants voit ses performances grandir énormément avec CUDA.

Ouais, ca va, j’ai pas été clair, mais quand meme… Donc, ce que je tentais d’exprimer, c’est que larabee, ca serait du raytracing, et que nvidia, avec cuda, meme sans forcement l’utiliser pour le raytracing, apporte une pierre a l’edifice du massivement parrallele pluridisciplinaires. Hors, comme a terme, c’est ce qui va arriver (que le raytracing prenne le pas sur le reste), nvidia a un peu d’avance vis a vis de larabee. Splu clair la ?

Face au CUDA dans l’Actualité informatique de 2006 : AMD lance le Stream Processor et son interface CTM.

Bon je lance une OPA sur le cerveau de C_Wizard

Le grand ou le petit? (attention il y a peut etre un piege… ou pas…)

Rien de vraiment fabuleux. A peu près 50% de perf en plus pour deux ans d’attente et un prix de fou, je dirais même que c’est le minimum syndical… Bref, ce n’est en tout cas pas moi qui craquerai pour cette carte.

J’attendrai une carte qui sera capable de faire tourner un Crysis en 1680 avec AA à un bon 60fps.

Je vais concevoir et vendre des kits de “Testostérone cooling”

Tiens du cote de chez AMD les premiers retours des ATI 47XX montre que le ration Prix/Performance est nettement en faveur des ATI ( 160e pour le 4750 ) et en Xfire c’est plus cousteau que les 280 (toujours d’apres les benchs).

Mais j aimerais une petite confirmation de Cwiz :slight_smile: (j ai une 1950 xt a changer et j’hesite)