Déjà des nouvelles GeForce

[quote]elle à l’air pas mal c’est clair…
Mais je viens de foutre 500 euros dans une 9800xt hercule[/quote] tu t’es quand meme bien fait arnaquer …

La bonne nouvelle surtout avec l’arrivée de la nouvelle génération de carte graphique c’est qu’enfin on va pouvoir trouvé des radeon 9800 abordable.
Moi qui ait l’habitude d’acheter mes cartes graphiques 150 euros, j’attends désesperemment que les prix baissent.

Moi j’espere voir rapidement les Geforce FX 5900 XT baisser assez rapidement

tu t’es quand meme bien fait arnaquer …

ben c’était le prix à l’époque… désespoir
mais bon c’est pratique quand meme pour far cry…

Je pense pas que ce soit un si mauvais plan que ça que d’acheter une carte graphique dès sa sortie : j’ai acheté ma 9700 Pro il y a un peu moins de 2 ans (eh oui elle venait juste de sortir). A l’époque j’ai du payer dans les 400€, et je peux vous dire que même si ça m’a fait mal au porte monnaie à l’époque je regrette pas.

Ma config entière a un peu moins de 2 ans, et je peux me permettre de jouer à la démo de Far Cry (oui j’ai pas encore le jeu) en 1280*1024 tout à fond.

Il faut quand même attendre un peu après la sortie de la carte, car comme beaucoup je ne fais plus trop confiance aux benchs…

J’aimerais que quelqu’un me donne une explication dur la présence de deux molex.

Peut être que l’appel de courant en pointe x  un coef de deux ou trois
est supérieur à ce que peux passer une molex crade.

Ou que c’est pour éviter qu’une molex grésiolle et charbonne et fonde une prise (mauvais les tofs sur le net)

Ou que c’est de la pure frime come un pot double sortie sur une 205 diesel
C’est cette option qui me parait la plus probable, pour pleind de raisons.
Dont la revendication du ‘480 watts ou rien’

C’est ce me semble une façon de positionner un produit de façon haut de gamme.
Parce que 480 watts ca fait "racing"
parce que deux molex ça fait “racing”

Bon, je reste super dubitatif quant au système de refroidissement, ça me semblait superbien conçu (le merdier qui dépasse (genre l’alim) à un bout de la carte, autorisant une large plaque à couvrir la ram et le gpu), genre je te passe en watercool en deux secondes 6, sans faire des blocs tarabiscotés. Avce la ram que d’un côté de la carte.

Enfin, moi, sérieux, je vois ça, c’est fait pour passer en watercool.

Et là ils pondent un trucs de référence stupide. Haut. Non homogène… Avec un ventilateur de faible diamètre. Enfin, le ventilo, je me demande si c’est pas un truc issu des turbines d’autrefois, les sèche cheveux des FX. J’en suis même certain. Sinon la configuration physique de la carte autorise un ventilateur de fort diamètre puis des ailettes, un peu à la manière du ventirad de ref pour les geforce 4, mais en plus gros, ou du 9800 XT.

Mais non un truc poilu, avec un dissipateur proto, limit brut d’érosion / extrusion, avec ue brochette à heatpipe qui repasse devant… hmm, moi je serai surpris qu’ils le sortent de série, mais la leadtek gaulée en photo je sais plus où présente une pareille monstruosité. Avec de la bande accordéon, le genre de trucs qui s’industrialise vite fait. Oui, bah pour moi ça ressemble à de la présérie. ca tombe bien, c’en est. Mais je crois plus au truc ‘qui ne bouffe pas de slot’ qui semble être en cours de bricolage.

M’est avis qu’un truc genre celui de la gf4 en plus gros, avec de fines ailettes, ça serait pas mal.

Enfin bref, même si nvidia is 3vil comme dit le chef, le produit a physiquement une gueule qui me plait. Le prix pas top, mais come vous tous, bah je vais prendre le modèle de la gamme, à 200 euros, autrefois la ti4200, de nos jours la fx 5900 ou la 9800pro, celle qui se vend bien et tout. J’espère que les 6200 seront concues sur le même pcb…

histoire de mettre les choses au clair

la difference de perf entre une 6800 ultra et une 9800xt est plus importante que la difference de perf entre une 9700 et une ti4600 (saut d’une generation) d’apres les tests de hardware.fr

a l’epoque c’etait un peu pareil la 9700 explosais la 4600 dans les grosse resolutions, et vous allez pas me dire que ca sert a rien une 9700 !! donc idem pour la 6800

en ce qui concerne la taille du ventilo bon deja c’est une version de test, certain conctructeur proposerons des ventilo qui ne boufferons pas de port PCI soyez en sur

deuxiement les deux connecteurs molex. ben 111 watts pour un connecteur molex ca passe pas ? je pense que si mais alors tout juste mieux vaux prevenir que guerir
(85 watts sur la 9800 xt)

les drivers son beta comme le signale HFR donc de nombreuses choses vont etre amélioré, entre autre le decodage et l’ecodage hardware

dite moi, c’est une spécialité francaise de cracher sur les nouveautées, non parceque personne vous oblige a acheter cette carte
moi qui n’aime pas specialement ATI je suis impatiant de voir la petite derniere, meme si elle est meilleur que la 6800 je prendrais la 6800 (pour plein de raison que je vais pas exposer ici) mais je cracherais pas sur les cartes ATI quand meme (sauf pour rigoler j’aime bien troller avec les potes )

[quote]J’aimerais que quelqu’un me donne une explication dur la présence de deux molex.[/quote]sur HFR ils disent qu’avec une seule ça marcheà peu près mais qu’il y a des bugs quadn on fait de la 3D. donc ça doit bien servir à quelque chose

Mais on va mettre les choses au clair nighty mon poussin : de mon point de vue claquer 500 € dans une carte graphique ça ne sert strictement à rien. Et 9700 comme 6800 j’trouve ça toujours aussi con. Ma Ti200 elle a bien duré voire elle dure encore en fait (étonnant) et pfiuuuuuuu j’arrive à jouer dans des conditions ultra satisfaisantes à mon sens.
Donc une 9700 ça vaut largement le coup aujourd’hui vu ses supers perf et le prix mais une carte de la mort qui vient de sortir, j’fais pas parti des gens qui achètent.
Mais plus que ça ce qui me fait marrer c’est qu’on parle de humm comment dire “révolution” et bon perso j’trouve pas ça aussi bluffant qu’on veut bien me le dire. P’tre parce que j’entrave pas forcement tout à ce que je lis question unité de calcul ou autre m’enfin concretement là maintenant, tout de suite j’me prends une tite 9800 Pro genre pépère hein que je paie moitié prix au moins, qui a des perfs EQUIVALENTES sur les jeux actuels dans la résol à laquelle je joue. J’l’amortie bien plus vite, j’la rentabilise aussi bien plus vite, drivers optimisés, opérationnelle immédiatement, design et architecture éprouvée donc en prime j’ai le choix…Alors oui je maintiens afficher des perfs en 1600 avec un gap de puissance brute aussi important ben je m’en contrefous, la révolution techno je m’en bran… aussi elle est purement minime à mon sens du point de vue software, du coup le sèche cheveux ils se le gardent pour leur vitrine et moi j’achète les trucs en déstockage de la génération d’avant et tout le monde est content (noter que le raisonnement s’applique aussi pour les produits Ati de manière symétrique, bien qu’on est pas encore d’info précise à l’heure où j’écris.)

c’est pas une revolution, c’est juste une evolution normal des perfs (ce qui na pas ete le cas de la 5800, donc la je suis content), la j’ai une ti4400 et je compte prendre la 6800 parceque sa rame un peu dans les jeux et j’aimerais bien joué en 1600 (22" inside)

ma theorie (qui a toujours fonctionner jusqu’a present) sauter une generation de carte

geforce2gts, geforce4 geforce 6800 (oui pas la 5900 la diff de perf n’est pas suffisante pour m’en faire changer)

je paye le prix fort a chaque fois mais je garde la carte relativement longtemps a chaque fois que je change les jeux commence tout juste a ramer

bon voila, c’est ma technique certain prefere mettre 200 euros plus souvent, moi j’y met plus moin souvent

bon je vais pas perdre mon temps non plus en explication inutile sur l’augmentation de perfs, matté les anciens benchs entre les cartes de generation differente et vous vous ferez votre propre opinion

PS: je suis pas un poussin, je suis KAKASHI so don’t bother me

Ce message a été édité par nighthunter le 15/04/2004

Bon, et chez hardware fr ils ont monté deux prises chainées sur la carte graphique, et ça dit quelquechose ?

Je pense avoir ma petite idée, c’est que l’intensité maximale passant par les pistes d’un pcb est atteinte, et que plutôt que de ponter le connecteur avec de gros fils (merdique à industrialiser sur un pcb plutôt orienté cms) c’était moins cher de poser une seconde molex, pour distribuer la puissance

Si ça déconne en 3D avec une seule molex c’est que déjà ça fonctionne. Ensuite, vraissemblablement la chute de tension quand le gpu tire des watts fait que…

Si il y a chute de tension, c’est qu’il doit y avoir résistance, d’où mon idée des pistes du pcb pas assez larges pour enquiller des ampères.

Et ça fait racingue, les deux molex.

Mais techniquement, si ça marche avec un doubleur ou des prises sur la même ligne d’alim, bah…

P=UI -> I=P/U = 111/12, dix ampères presque, tout de même.

Edit : Euh, je joue peu, 400 euros c’est mon budget paintball, et mes cartes ont été : ati all inwonder pro (la première), geforce 256, ti4200. Ma stratégie c’est d’acheter celle qui se vend le plus, pour être en adéquation avec le marché, pour être sur qu’il y aura de la pièce et du soft (drivers bricolés pour faire tel ou tel truc ou dissipateur top moumoute qui fait pas de bruit, support linux…) c’est valable pour les 600 fazer et les autos… Et qui fait vivo en plus. Bref, acheter un truc qui se vend bien et en masse, même si je peux pas faire le cake avec la demo de far cry, je suis à peu près certain que c’est pas de la merde. Note que celle ci elle me plait bien, mais je prendrai le modèle mainstream à 200-250 euros.

Edit² : En voilà de la pignole pour un truc qui sera pas achetable avant deux mois et-encore-je-suis-généreux. Mmmmh, stalker pour septembre…
Ce message a été édité par good_boy le 15/04/2004

@nighty : entschunldigung mein Freund

Plus sérieusement : crois moi je ne paie pas 200 € plus souvent que toi :> Si tu veux perso j’ai fais : TNT2 Ultra (que j’ai payé le prix d’une TNT 1 à l’époque donc j’ai pas du tout raqué la nouveauté fraîchement sortie) -> Ti200, que j’ai eu pas très chère elle aussi et là j’compte pas changer. Aucun intérêt vu ma config tu me diras, mais je constate que ça tourne quand même encore très bien pour pas mal de trucs jeux inclus :>

disons que ce que j’ai dis marche pour les gens qui aime jouer en 1280 ou 1024 tout a fond, pour aprecier le jeu a ca juste valeur graphique :stuck_out_tongue:

hébé, j’ai attendu longtemps avant de me décider pour changer de config, mon geforce 256 ddr me suffisait large pour jouer à tribes, mais la, c’est exactement pour ce genre de carte que j’ai poirauté un peu.
div-x et mpg2/4 en hard, plus des perfs 3d qui ont l’air de roxer, c’est tout bon, j’achéte!

+++

Et histoire de se décrocher la machoire, une vidéo d’Unreal 3 utilisant les nouvelles Geforce :

De ut2k3.fr

[quote]Et histoire de se décrocher la machoire, une vidéo d’Unreal 3 utilisant les nouvelles Geforce :

De ut2k3.fr[/quote]UI dechire complet et encore, la qualité de la video est pourri, une belle video de ca et je suis definitivement sur le cul

OUCH !
C’te vidéo elle m’a fait pleurer des yeux.

N’empêche ils disent que ça tourne sur la 6800, mais moi je me souviens d’une vidéo très semblable, caméra à l’épaule aussi, d’une présentation il y a bien 2 ou 3 ans du moteur de Doom III par Carmack, vantant les mérites de la “nouvelle” GeForce 3 tout juste annoncée.
Tiens tiens… 

La vidéo montre le moteur UnrealEngine en version 3.0 qui devrait être utiliser dans des jeux sortant aux alentours de 2006, donc oui on a le temps de voir

Sinon, pour revenir au sujet de base, j’attends plus les test des version non-ultra (profondeur du pipe de 12 au lieu de 16 et fréquence revu) : le prix sera largement plus abordable et il est propable que la consommation sera moins importante, donc peut être qu’un seule prise Molex soit neccessaire. Reste à voir s les performances ne sont pas trop dégradé

Et voir si on peut reactiver les pipes…HéHéHé