La Nouvelle Nvidia ou l'ATI x800 XT ?

Je sens que à long terme nVIDIA arrivera à imposer sa carte graàce à son support des Shaders en 3.0. Mais pour l’instant la X800 règne.

[quote]Je sens que à long terme nVIDIA arrivera à imposer sa carte graàce à son support des Shaders en 3.0. Mais pour l’instant la X800 règne.[/quote]Tout a fait d’accord. La seule question est de savoir si ATI sortira en fin d’annee comme promis son nouveau GPU gerant les shaders 3.0 ou pas (R5xx). Et dans ce cas, ca sera jeu egale avec NVIDIA sauf pour les performances, ou un petit (ou gros) ecart est encore possible.
Mais en attendant, faudra se faire les dents sur les X800 et 6800 …

Ah oui, et au passage j’ajouterai que le discours de NVIDIA a propos d’ATI est lamentable (cf l’article de 3dchip). Ma reaction : NVIDIA se sent VRAIMENT menace, ce qui me laisse penser que je n’ai aucun interet a acheter leur marque (si j’avais des doutes il y a quelques jours, c’est fini maintenant). Les derniers sondages montrent que presque 70% des interroges acheteront une X800 pro ou XT. La voie est toute tracee!

Ce message a été édité par matthieu_fr le 27/05/2004

Oui bien sur et cela ne m’étonne pas : Voici ma façon de voir les choses :

Nvidia se vante d’avoir sur sa carte la gérance du Pixel Shader 3 mais bon … les jeux qui l’utilisent ne sortent pas avant 2006 et au train où vont les choses on est tous d’accord pour dire qu’il y aura encore une nouvelle carte plus puissante d’Nvidia et d’ATI d’ici la :confused: donc … le pixel shader 3 c’est peut-etre « plus beau » mais maintenant sa sert à rien … d’ou acte désespéré de la part de … Nvidia tsatsaaannn

lol

Ce message a été édité par Hereticus le 27/05/2004
Ce message a été édité par Hereticus le 27/05/2004

[quote][quote]Je sens que à long terme nVIDIA arrivera à imposer sa carte graàce à son support des Shaders en 3.0. Mais pour l’instant la X800 règne.[/quote]Tout a fait d’accord. La seule question est de savoir si ATI sortira en fin d’annee comme promis son nouveau GPU gerant les shaders 3.0 ou pas (R5xx). Et dans ce cas, ca sera jeu egale avec NVIDIA sauf pour les performances, ou un petit (ou gros) ecart est encore possible.
Mais en attendant, faudra se faire les dents sur les X800 et 6800 …

Ah oui, et au passage j’ajouterai que le discours de NVIDIA a propos d’ATI est lamentable (cf l’article de 3dchip). Ma reaction : NVIDIA se sent VRAIMENT menace, ce qui me laisse penser que je n’ai aucun interet a acheter leur marque (si j’avais des doutes il y a quelques jours, c’est fini maintenant). Les derniers sondages montrent que presque 70% des interroges acheteront une X800 pro ou XT. La voie est toute tracee!

Ce message a été édité par matthieu_fr le 27/05/2004[/quote]
Je parlerai pas trop vite contre ATI. Même si ce dernier n’a pas encore pris en charge les shader 3.0, il a néanmoin montrer un concept qui ne peut etre très révolutionnaire probablement plus tard. Je parle ici, des Normal maps, qui permet de réduire les polygones sans pour autant sacrifier sur l’aspect physique de la chose.
De plus, c’est normal maps utilise des instruction bien plus poussé que le simple shader 2.0 existant, en fait les normal maps utilise les shader 2.0c. Qui en plus de réduire la taille mémoire nécessaire pour stocker tout un tas de texture et d’information à propos d’une scene 3D, il permet en plus de montrer de très très beau graph.

Suffit de voir la démo technologique Ruby disponible depuis un certain temps. Et cette démo est bien plus impressionnante que la sirene de Nvidia. ou Nvidiot du fait que ce dernier, d’après un communiqué des site hardware, Nvidia aurai fait un powerpoint montrant que les X800 serai des daubes.
Est ce fake ou pas, c là, où est la question.

Sinon, quand à comparer 6800 ou X800. Ces 2 cartes graphique se valent toutes les 2.

Cependant j’ai deux questions qui ont tendance à quitter le sujet mais qui n’en sont pas moins , je trouve , pertinante :

Admettons qu’Unreal 3 sorte à la date prévue ( j’ai bien dis suposons ) et que j’aie tjrs la X800 XT , vu qu’Unreal 3 sera destiné a la technologie du pixel shader 3 , il ne sera pas possible d’y jouer avec la x800 ?

C’est quoi le GPU Pixel Shader 3 ? Un driver ? Un ajout Hardware pour la carte X800 ? Un nouvelle carte ? Prière de m’escuser mais sa reste assez flou pour moi ^^.

Merci d’avance 

[quote]Cependant j’ai deux questions qui ont tendance à quitter le sujet mais qui n’en sont pas moins , je trouve , pertinante :

Admettons qu’Unreal 3 sorte à la date prévue ( j’ai bien dis suposons ) et que j’aie tjrs la X800 XT , vu qu’Unreal 3 sera destiné a la technologie du pixel shader 3 , il ne sera pas possible d’y jouer avec la x800 ?

C’est quoi le GPU Pixel Shader 3 ? Un driver ? Un ajout Hardware pour la carte X800 ? Un nouvelle carte ? Prière de m’escuser mais sa reste assez flou pour moi ^^.

Merci d’avance [/quote]
Le pixel shader 3 n’est juste une composante Hardware. il intervient de même au niveau software si on veux réellement prendre partie.
Quant à parler du Unreal Engine 3.0, il faut voir, que les développeur ne vont pas laissé de coté les utilisateurs de Carte graphique ayant des shader d’ancienne génération. Cependant, il se peux bien que le Unreal engine 3.0 sera mieux optimiser pour les pixel shader 3.0 que pour les 2.0 et 2.0c.

Quant à ta X800 , je pense qu’elle a encore du chemin, et je pense surtout qu’Epic n’est pas encore près à sortir le Unreal Engine 3.0 dans les 2 prochaines années car bien trop gourmand.

[quote]Cependant j’ai deux questions qui ont tendance à quitter le sujet mais qui n’en sont pas moins , je trouve , pertinante :

Admettons qu’Unreal 3 sorte à la date prévue ( j’ai bien dis suposons ) et que j’aie tjrs la X800 XT , vu qu’Unreal 3 sera destiné a la technologie du pixel shader 3 , il ne sera pas possible d’y jouer avec la x800 ?

C’est quoi le GPU Pixel Shader 3 ? Un driver ? Un ajout Hardware pour la carte X800 ? Un nouvelle carte ? Prière de m’escuser mais sa reste assez flou pour moi ^^.

Merci d’avance [/quote]unreal3engine --> pixelshaders 2 compliant
les vidéos que tous le monde a vu pouvaient tout à fait tourner sur des radeon 9xxx ou des geforce 5…
peut etre (surement) plus lentement mais dans le même niveau de qualité

Merci d’avoir répondu à mes question quand au Pixel Shader 3 mais le GPU ? c’est quoi ?

Merci encore

Ouais, le GPU c’est un gros ajout hardware à ta carte graphique. Il a le rôle super important de contrôler le radiateur de la carte graphique. La preuve: quand il n’y a pas de GPU, il n’y a pas de radiateur.
Trop fort un GPU. Et trop vital. Sauf si ton boitier est bien ventilé.

Edit: allez, comme je suis pas trop un salaud, voilà la réponse: un GPU, c’est le Graphic Processing Unit, l’équivalent du CPU dans le PC. C’est le coeur de la carte graphique, c’est LA puce graphique. Il s’appelle aussi VPU parfois (Visual blablabla).
Ce message a été édité par JeeP le 28/05/2004

[quote]Merci d’avoir répondu à mes question quand au Pixel Shader 3 mais le GPU ? c’est quoi ?

Merci encore[/quote]Le GPU (Graphic Processor Unit) en gros, c’est le processeur Graphique qui est ,comme tu le doute bien, sur la carte graphique. Qui permet de traiter tous les effets graphiques (2D/3D) ainsi que la vidéo (Mpeg 1, Mpeg2).

Et lorseque ATI vas sortir son GPU pour Pixel Shader 3 il suffira de le “clipser” sur la carte x800 à la place de son GPU d’origine ? Comme on change le processeur d’une carte mère ?

Merci pour tout.

[quote]Ouais, le GPU c’est un gros ajout hardware à ta carte graphique. Il a le rôle super important de contrôler le radiateur de la carte graphique. La preuve: quand il n’y a pas de GPU, il n’y a pas de radiateur.
Trop fort un GPU. Et trop vital. Sauf si ton boitier est bien ventilé.

Edit: allez, comme je suis pas trop un salaud, voilà la réponse: un GPU, c’est le Graphic Processing Unit, l’équivalent du CPU dans le PC. C’est le coeur de la carte graphique, c’est LA puce graphique. Il s’appelle aussi VPU parfois (Visual blablabla).
Ce message a été édité par JeeP le 28/05/2004[/quote] Hmm, tu ne confond pas avec sonde thermique ??
Quant au radiateur, ce n’est pas une obligation qu’il soit présent. Bon, maintenant, c’est obligatoire vu la température que dégage les GPU (appelé autrefois VPU = video Processing Unit).
Si tu prend l’époque des Geforce 2 Mx, sur certain model, tu ne trouvera pas de radiateur, ni de ventilo. juste une puce nue.

[quote]Et lorseque ATI vas sortir son GPU pour Pixel Shader 3 il suffira de le “clipser” sur la carte x800 à la place de son GPU d’origine ? Comme on change le processeur d’une carte mère ?

Merci pour tout.[/quote] Non, Le GPU est fixé à la carte graphique. Ici, il n’ya pas de jeu de socket comme ceux des Processeur standard (Intel, AMD).
Et puis, si l’architecture du GPU change, la conception de la carte qui l’accompagne doit aussi suivre cet évolution pour enfin mieux se dévoilé.

[quote]Et lorseque ATI vas sortir son GPU pour Pixel Shader 3 il suffira de le “clipser” sur la carte x800 à la place de son GPU d’origine ? Comme on change le processeur d’une carte mère ?

Merci pour tout.[/quote]“I had a dream”…

Trop pas. Si c’était le cas, tu crois qu’on s’emmerderait à racheter un carte graphique entière à chaque nouvelle génération?
Remarque, tu tiens peut-être un concept.
Quoique… actuellement je change ma carte mêre à chaque changement de processeur. Donc en fait nan, c’est un concept mort.

MetalDestroyer: bloque ta respiration. Voilà. Maintenant souffle sans débloquer. Bien. Essaie de faire le bruit “ah” en soufflant. Ok. Recommence plusieurs fois d’affilée. Ouais. Ca fait “Ahahah”. Je viens de t’apprendre à rire. C’est cool non?
Et pour info, VPU est postérieur à GPU. C’est Nvidia qui a utilisé GPU, et à l’époque des premières Radeon 9xxx et Parhellia, ATI et Matrox ont voulu se démarquer en utilisant VPU. Je crois que le prétexte était que les capacités étaient plus globales (vidéo?). Mais au final, c’est la même chose.

J’espere que dans les jeux qui sortirons ont pourra choisir le numéro du pixel shader que l’on pourra utiliser comme la résolutrion de l’écrant … 2 ou 3 … soupir …

Donc comme ATI a prévu de sortir son GPU en fin d’année sa signifie qu’il va y avoir une nouvelle carte ATI d’ici la fin de l’année ?

Merci

[quote][quote]Et lorseque ATI vas sortir son GPU pour Pixel Shader 3 il suffira de le « clipser » sur la carte x800 à la place de son GPU d’origine ? Comme on change le processeur d’une carte mère ?

Merci pour tout.[/quote]« I had a dream »…

Trop pas. Si c’était le cas, tu crois qu’on s’emmerderait à racheter un carte graphique entière à chaque nouvelle génération?
Remarque, tu tiens peut-être un concept.
Quoique… actuellement je change ma carte mêre à chaque changement de processeur. Donc en fait nan, c’est un concept mort.

MetalDestroyer: bloque ta respiration. Voilà. Maintenant souffle sans débloquer. Bien. Essaie de faire le bruit « ah » en soufflant. Ok. Recommence plusieurs fois d’affilée. Ouais. Ca fait « Ahahah ». Je viens de t’apprendre à rire. C’est cool non?
Et pour info, VPU est postérieur à GPU. C’est Nvidia qui a utilisé GPU, et à l’époque des premières Radeon 9xxx et Parhellia, ATI et Matrox ont voulu se démarquer en utilisant VPU. Je crois que le prétexte était que les capacités étaient plus globales (vidéo?). Mais au final, c’est la même chose.[/quote]

Hmm :confused: Je suis censé comprendre quoi ? je ne vois pas du tout.
Pour le VPU, je suis bien d’accord avec toi. Disons que le passage de VPU a GPU vient du fait qu’on nous faisait croire que la carte graphique ne dépendait plus du processeur centrale.
Alors qu’en fait, le GPU est toujours aussi dépendant.
C’est bien dommage. J’attendais ce moment pour ne plus à avoir à changer de processeur tout les 2ans.

Le R500 à la fin de l’année? J’ai du mal à y croire, et je me souviens pas d’avoir lu ça quelque part.
Ceci dit si c’était vrai, je pense que ça achèverait Nvidia.

Mais à mon avis, c’est plutôt une nouvelle version des chips R4xx qui pourrait sortir, et ça donnerait un changement du style du passage de la Radeon 9700 à la 9800. Mais même ça, après seulement 6 mois de vie des X800, ça m’étonne…
 
Quant à choisir la version des shaders models, c’est pas à toi de le faire, c’est aux développeurs. Soit le programme marche sur une machine qui gère les SM 3.0 et ils sont utilisés, soit la machine ne les gère pas et ils sont désactivés. Et remplacés par des 2.0.
Là où c’est con, c’est que les 3.0 apportent principalement de la facilité de programmation. Or, si les développeurs doivent se taper les shaders en 2.0 parceque de toutes façons c’est ce qui sera encore pendant longtemps la seule version utilisable sur la plupart des PC, je ne vois pas pourquoi ils se taperaient en plus les 3.0 pour faire la même chose ou presque.
Enfin on verra bien, Far Cry 1.3 doit intéger leur gestion ainsi qu’une map qui les exploite, ça permettra de juger sur pièce de leur intérêt.

MetalDestroyer: nan, c’était pour dire que mon laïus sur le GPU, c’était juste une grosse blague. Mais bon… Je mettrai des smileys la prochaine fois!

Ce message a été édité par JeeP le 28/05/2004

[quote]

[…]

Hmm :confused: Je suis censé comprendre quoi ? je ne vois pas du tout.
Pour le VPU, je suis bien d’accord avec toi. Disons que le passage de VPU a GPU vient du fait qu’on nous faisait croire que la carte graphique ne dépendait plus du processeur centrale.
Alors qu’en fait, le GPU est toujours aussi dépendant.
C’est bien dommage. J’attendais ce moment pour ne plus à avoir à changer de processeur tout les 2ans.

[/quote]Historiquement le terme GPU est antérieur à VPU. (Pour completer il me semble que c'était Matrox avec son concept de Visual Processing Unit, Ah Ah la Parhelia cte bonne blague de caribou !!)

Le GPU est toujours dépendant du volume des informations qui lui sont envoyées. Donc si le programme est fait avec des pieds ou si le processeur du PC est vraiment trop lent effectivement le GPU peut être sous exploité.

Maintenant, le GPU décharge une grosse partie des calculs du CPU (PC) en prenant à sa charge les calculs géométrique (la génération d’avant ne s’occupait grosso modo que des textures), puis en offrant de nombreuses fonctionnalités en plus (les pixel shader sont un exemple).

Pour te convaincre de l’interêt du GPU, prend une vieille carte vidéo sans GPU (Genre une TNT) et met là sur un PC récent. Tu verras la différence (qualité et vitesse).

Par contre il y a toujours plus ou moins une dépendance (selon les logiciels) avec le CPU du PC. C’est inévitable.

[quote][quote]

[…]

Hmm :confused: Je suis censé comprendre quoi ? je ne vois pas du tout.
Pour le VPU, je suis bien d’accord avec toi. Disons que le passage de VPU a GPU vient du fait qu’on nous faisait croire que la carte graphique ne dépendait plus du processeur centrale.
Alors qu’en fait, le GPU est toujours aussi dépendant.
C’est bien dommage. J’attendais ce moment pour ne plus à avoir à changer de processeur tout les 2ans.

[/quote]Historiquement le terme GPU est antérieur à VPU. (Pour completer il me semble que c'était Matrox avec son concept de Visual Processing Unit, Ah Ah la Parhelia cte bonne blague de caribou !!)

Le GPU est toujours dépendant du volume des informations qui lui sont envoyées. Donc si le programme est fait avec des pieds ou si le processeur du PC est vraiment trop lent effectivement le GPU peut être sous exploité.

Maintenant, le GPU décharge une grosse partie des calculs du CPU (PC) en prenant à sa charge les calculs géométrique (la génération d’avant ne s’occupait grosso modo que des textures), puis en offrant de nombreuses fonctionnalités en plus (les pixel shader sont un exemple).

Pour te convaincre de l’interêt du GPU, prend une vieille carte vidéo sans GPU (Genre une TNT) et met là sur un PC récent. Tu verras la différence (qualité et vitesse).

Par contre il y a toujours plus ou moins une dépendance (selon les logiciels) avec le CPU du PC. C’est inévitable.

[/quote]
En fait, j’ai vu le terme VPU à l’époque des Voodoo 3,4 et 5.
Donc voilà, pourquoi je dis VPU est antérieur à GPU.
Quant à la Parphelia, je ne me souviens plus que son proc était appelé VPU. Bref.

Sinon, je vois bien la net différence entre une CG sans GPU et avec GPU. Mais ce n’est pas exactement sa que je voulais faire le point.
A l’époque des Geforce 256, on nous avez promis une indépendance pure de la carte graphique.
Malheureusement, les dév, continue d’exploiter plus le CPU que le GPU, ce qui est largement dommage.

Ce message a été édité par MetalDestroyer le 28/05/2004

[quote]Le R500 à la fin de l’année? J’ai du mal à y croire, et je me souviens pas d’avoir lu ça quelque part.
Ceci dit si c’était vrai, je pense que ça achèverait Nvidia.

Mais à mon avis, c’est plutôt une nouvelle version des chips R4xx qui pourrait sortir, et ça donnerait un changement du style du passage de la Radeon 9700 à la 9800. Mais même ça, après seulement 6 mois de vie des X800, ça m’étonne…
 
Quant à choisir la version des shaders models, c’est pas à toi de le faire, c’est aux développeurs. Soit le programme marche sur une machine qui gère les SM 3.0 et ils sont utilisés, soit la machine ne les gère pas et ils sont désactivés. Et remplacés par des 2.0.
Là où c’est con, c’est que les 3.0 apportent principalement de la facilité de programmation. Or, si les développeurs doivent se taper les shaders en 2.0 parceque de toutes façons c’est ce qui sera encore pendant longtemps la seule version utilisable sur la plupart des PC, je ne vois pas pourquoi ils se taperaient en plus les 3.0 pour faire la même chose ou presque.
Enfin on verra bien, Far Cry 1.3 doit intéger leur gestion ainsi qu’une map qui les exploite, ça permettra de juger sur pièce de leur intérêt.

MetalDestroyer: nan, c’était pour dire que mon laïus sur le GPU, c’était juste une grosse blague. Mais bon… Je mettrai des smileys la prochaine fois!

Ce message a été édité par JeeP le 28/05/2004[/quote]

Jeep : Ok, je n’av pas fais gaffe que ct du genre ironique. Oups. Et puis bon, pour mon 2e jours sur Cafzone en tant que membre, je voulais pas trop casser l’ambiance.