Test GeForce FX

[quote]sur inpact aussi

GeForce FX 7db Gainward ? Les prix… [/quote]
J’ai déjà mis ce lien au dessus :pleure: :

ok, j’avais pas vu, j’ai viré mon post

[Edité le 31/1/2003 par nighthunter]

[quote][quote] mais euh tout le monde a écouté les mp3 de la geforce FX sauf moi
ou c’est qu’ils sont ???[/quote]
Ici.[/quote]Oh putain l’usine à gaz. :pleure:
Et là, il comprit toutes les blagues sur la GeForce FX…

[quote]GeForce FX 7db Gainward ? Les prix…[/quote]Ah ouais, 650 euros…
Ben je reste sur ma Ti4200, elle tiendra bien 3 ans.
(650 euros, putain… le double et c’est le prix de ma caisse. :slight_smile: )

Bon, je suis partie à la recherche de news sur les 7db, perso j’y croi pas temps que je n’ai rien vu de concret.

Une GeForce FX silencieuse selon Gainward
, ça pu le servi marketing quand on voit l’annonce complète de Gainward. Attendont avant tous
A quoi ressemble une carte Quadro FX ?

[quote]mais euh tout le monde a écouté les mp3 de la geforce FX sauf moi :wink:
ou c’est qu’ils sont ???[/quote]
Ici.

[quote]Trop fort 7 dB… Ca existe pas sur terre … même dans le desert y’a plus de bruit[/quote]Je suis assez d’accord, 7dB c’est abusivement bas, mais c’est du marketing !

Pour le désert, c’est assez souvent un mauvais exemple à cause du vent :wink:

C’est quand meme une annonce officielle, voir http://www.gainward.de.

mais euh tout le monde a écouté les mp3 de la geforce FX sauf moi :wink:
ou c’est qu’ils sont ???

Oui peut être 7db, mais je demande une confirmation réel pas une espèce de rummeur.

Trop fort 7 dB… Ca existe pas sur terre … même dans le desert y’a plus de bruit

Gainward a l’intention de sortir une geforce fx SILENCIEUSE! Et, vraiment silencieuse. Jugez plutot : ils annoncent un niveau de bruit de 7dB !! :wink: Autant dire que l’on ne l’entendra pas du tout. On ne sait pas le type de refroidissement qu’ils utilisent (watercooling ?? ou refroidissement passif ?!). Pour plus de renseignements, vous pouvez aller voir ici.

Justement je pence que si Tibo. Bon ça ne sera pas 100 FPS de plus certe. MAis je reste persuader que les GPU FX ont de la puisance mal ou pas utilisé du tous.

Comme je le signalai plus haut, attendont un bench en DirectX 9. 3DMark 2003 tu te magnes à débouler.

Tibo, toi le spéciamiste des puce ATI 8500 et 9100. Te souvient tu des premier bench des 8500 face au GeForce 3 Ti 500?
J’ai regarder dans de vieux Joystick (preuve irréfutable ça :)). La 8500 avait du mal à égaler une GeForce 3 Ti 500. Maintenant tu regarde les bench et tu constate que les perf sont largement au dessus d’une GeForce 3 Ti 500. Tous ça rien quavec de nouveau drivers.

EDIT:

News de 3Dchips-fr
NVidia aurai menti a l’insu des son plein gré :slight_smile:

[i] HardOCP un des heureux élus ayant eu la carte en sa possession pendant deux jours explique maintenant que sa review était faussée.

NVIDIA lui a expliqué après coup, que la technologie du GeForce FX applique des filtres pour l’antialiasing et le filtrage anisotropique une fois que l’image a quitté le frame buffer.

De ce fait les captures d’écrans réalisées à partir du frame buffer (partie de la mémoire stockant les images à afficher) ne sont pas représentatives de la qualité visuelle que produit une GeForce FX. [/i]

[Edité le 29/1/2003 par Zaxe]

oui mais comme dit un peu plus haut la R9700 pro accuse quand même pas mal de MHz en moins que la GF FX poru des perfs somem toutes identiques.

Et puis pour des drivers mieux optimisés nVidia faut pas s’attendre à un miracle et à une envolée des perfs…cf Parthelia

euh egard au nivellement par le bas, j’attend toujours que tu me payes une carte graphique en remplacement de ma GF 4 Ti. mais si j’étais en GF 2 et pas pété de thunes ou au crochet de mes vieux, je serais bien content de pouvoir jouer quant meme … et puis l’interet des jeux est ailleurs … oui comme la vérité.

Ils sont ou les 100 dinos de Jurrasic Park à 100fps !?

MOUAHAHAHAHAHAHAHAHAHAHAHAHAHAHAHA

J’ espere qu’ Ati va profiter de cette occasion pour remplir ses poches de brouzoufs et qu’ ils reviennent sur le vrai devant de la scene ! Avec des cartes encore plus competente que le R300 et pour bien moins cher que 600€ !!!

Bravo Ati c’ est du beau boulo que vous avez fait avec le R300 !

Et une claque dans les dents pour Nvidia, UNE ! :cool:

je vais parler de MA life, les autres je sais pas si c’est pareil…
a vrai dire, ce n’est pas le produit que je critique (quoique le seche-cheveux a la place du ventilo…) mais le gros foutage de gueule: produit vendu cher/super bruyant / qui arrive avec qques mois de retard pour des perf rien de mirobolantes en regard de la concurrence…
je siffle le produit de nvidia car ils nous font attendre monts et merveille pour ca…

imaginons que je crachais sur ATI avant… je cracherais tout autant sur NVIDIA maintenant ! je ne m’attache pas a une marque mais a un produit… a ses qualités (et défauts).
d’apres moi, s’attacher a une marque en info peut etre dangereux pour le portefeuille et pour
la perrenité des son matos
[langue de pute]
quiqui c’est qui a acheté une CM intel dernièrement ? :pleure:)
[/langue de pute]

Je voudrais savoir si tout ceux qui enfoncent Nvidia aujourd’hui sont les memes qui enfoncaient Ati lors de la sortie de cette petite carte qu’etait la tnt2.

[quote]plutot electron libre dans le hardware (bien jusque maintenant je n’aiu eu que du nvidia comme CG)[/quote]Tu vois je suis passé par s3, matrox mystique, 3dfx voodoo 1 et 2, ati rage fury, geforce2 et je trouve personnellement que mon meilleur achat jusqu’a maintenant est ma geforce4 ti 4200 (meilleur rapport qualité prix).

Imaginons un seul instant qu’AMD detronne intel, tout ceux qui critique aujourd’hui changeraient de bord, j’en suis persuadé.
Les memes qui encensent Ati aujourd’hui sont ceux qui l’enfoncaient il y a quelques années

Des tests avec le moteur graphique de Doom3 pouront avoir un avis beaucoup plus objectif qu’avec le moteur de Quake3 (DiretX 7).
Le moteur de Doom3 va surement être vendu à droite et gauche. Ce qui fait que l’on risque de le retrouver dans pas mal de jeux. Donc, il sera comme le moteur de Quake 3 un bon moyen pour juger des performance des cartes 3D dans l’univer ludique (ce qui nous intéresse, on fait pas tous du 3D Studio MAX pour rigoler 5 minutes, laisson ça au pro).
Mais lors de la présentation de Doom 3 à l’E3 du printemp 2002, le jeux tournai sur un P IV 2.4 Ghz avec une carte 3D basé sur le R300 (souvenir) et le jeux tournais en qualité medium. Ce qui laisse présager à un trou noir pour la puissance de calcul.
Par contre, j’ygnore si Doom 3 sera DirectX 8.1 ou 9.

Unreal Tournament 2003 est DirectX 8.1. Mais quand on regarde les benchs, on vois bien que le moteur 3D a du mal à faire soufrir le matos (plus de 60 images pas secondes en 1024*768 avec antialiasing et filtrage anisotropic bien pousser et detail a fond sur les carte haut de game).
Unreal 2 sera basé sur le moteur de UT2003 voir une déclinaison peut être amèlioré, donc DirecX 8.1.

Par contre, DirectX 9 est une évolution de DirectX 8 et ne possera surement pas trop de problème au programmeur surtout si le CG de NVidia est vite utilisé. Ce qui fait chier, ce sont les développeur qui sont obliger de penser au possesseur de GeForce 2 ou 4MX ce qui oblige un petit nivellement vers le bas. Money is money, ha ha ha!

A mon avis, il va faloir attendre cet été pour voir ce que les GPU FX ont dans le silicium face aux productions d’ATI à la senteur apéticente du sirot d’érable (R300, R350 et RV350).

Pour l’instant c’est ATI qui est le meilleur chois perfomance/prix/bruit (facille je sais)

[Edité le 28/1/2003 par Zaxe]

question avec un rapport faible… mais un rapportr quand même !
je vois pas en quoi doom3 permettra de plus départager ces cartes… il me semble que ce sera un jeu opengl non ?
et puis unreal tournament 2 ? ce sera pas un jeu a fond direct x 8.1 ?
et puis a part les benchs…
d’ici que les jeux exploitent direct x 9 on aura tous changé de cartes graphique ! :pleure:

notez que je peut me gourrer dans les grandes largeurs…

EDIT
j’suis vachard avec nvidia en ce moment
comme dirait l’autre je retournes ma veste… toujours du bon coté → plutot electron libre dans le hardware (bien jusque maintenant je n’aiu eu que du nvidia comme CG)
vachard mais parce que je suis extremement décu par ce que je découvre c’est tout…
l’avantage que je vois dans tout ca c’est que si ATI gagne des parts de marché, la prime au leader, il pourra se la foutre ou je pense et pratiquer des tarifs moins prohibitifs !
qui qui c’est qui gagne dans cette affaire ? c’est nous ! :wink:

EDIT BIS
bon allez, apres j’arretes un peu de taper sur NVIDIA…
mais bon ils l’ont cherché !

[Edité le 28/1/2003 par titibgosse]

Tiens ça conforte mon opignon et j’en avais justement parler plus haut.

[quote]Etant donner qu’il n’y a toujours pas de bench DirectX 9, on ne peu pas vraiment comparer ou constater les différence entre ATI et NVidia pour l’instant[/quote] [quote]Normallement le R350 et RV350 devraient être disponible durant le printemp, mais sa commercialisation en grande quantité pas avant cet été je dirais[/quote]Je me suis un peu planter dans les dates pour ATI. Je reste persuader que la comercialisation pour mars de nouvelle carte à base de RV350 et R350 sera marginal.
Je pence que ATI ne veus pas laisser reprendre son soufle a NVidia. MAis delà a voir de nouvelle dans les boutique courant mars j’y crois pas vraiment.

ATI a t il envie de faire mumuse avec NVidia? :punch: :wink:
Qui va gagner? Nous consomateur et j’en m’en fout complétement si l’une des 2 sociètés doit en mourir . :pleure:

vus sur 3dchips-fr
sur ce post, on tempère notre déception car les drivers finaux ne sont pas encore arrivés… il faut attendre les drivers 45.xx et des benchs direct x 9 pour voir ce que cette carte a vraiment dans le ventre… ben attendons… oui mais pas trop longtemps !!! car nous pouvons voir ici qu’ATI prepare sa riposte pour mars… pour peu que ces cartes soient réellement disponible en mars je sens que la valse du leadership technologique va reprendre

Pour la gravure je voulais plus parler de revoir design du GPU pour en améliorer les capacités d’échange thermique. Aprés le reste comme la meilleur rentabilité va de soit.

[quote]la carte en elle même n’est pas merdique ! mais bon, attendre pour tomber de si haut, c’est logique que tout le monde tire la gueule…[/quote]Cette carte est un déception c’est sur. Mais je suis persuadé que NVidia ne l’a pas vraiment finit sur certain point :wink: . Je pence qu’ils ce sont dépécher de la sortir pour satisfaire plus ou moin les actionaires.