La valse des GPU

Nvidia gagne plein d’argent, sort des produits tous les six mois et honnêtement, faudrait se calmer les gars… La dernière rumeur voudrait que le NV30 soit annoncé en août. Je vois d’ici la gueule du mec qui rentre avec une GF4 Ti4600 sous le bras et qui lit ça…
De toute façon, il peut être deg’. Les dernières rumeurs (ici aussi) sur le Parhelia de Matrox vont bon train. Je vous fais un copier – coller en VO. Il est 3 h du mat’ là, je suis claqué, faut pas déconner non plus hein. :-/

[] rendering pipelines with 4 TMU per each one
[
] DirectX 9 support. It also includes Pixel Shaders and Vertex Shaders 2.0 as well as all the other features of the new API from Microsoft such as Displacement Mapping and increased to 40-bit color-depth. Since DirectX 9 shaders require more power compared to the previous versions, the 4 vertex shaders pipelines will be implemented in the chip.
[] What is quite interesting, Matrox will introduce 512-bit 2D graphics core – a big leap forward in contrast to the modern graphics processors.
[
] A typical videocard will be a Millenium G1000 and it will include 256 MB of DDR SDRAM memory. As with the 3Dlabs` P10, 256-bit bus-width will be used.
[*] Of course, the GPU will have dual 400 MHz RAMDACs, support AGP 8X and other important features of a next-gen graphics processor.

Oui moi je sais. Y’a des trucs vrais et des trucs faux. Ils disent que ça va s’appeler Parhelia 512, on verra bien hein. Enfin vous verrez bien…

Pour revenir sur Nvidia, le boss de la boite, Jen-Hsun Huang a lâché une petite phrase sur le NV30 pour exciter les foules : “It is the most important contribution we’ve made to the graphics industry since the founding of this company” . En gros, les trucs avant c’était des amuse-gueules. Ils dissent tous ça AVANT qu’on teste les produits. :-p

Et je vous parle même pas du P10 de 3D Labs (y’a des preview partout sur le Net, je vais lire ça peinard et faire mon petit tour des codeurs pour avoir des avis éclairés) ou même du Kyro III, qui a mon avis est mort-né à moins d’une très bonne surprise côté puissance (et la marmotte…).

Voilà, tout ça pour dire que parfois j’ai l’impression que la course à la puissance vient juste de commencer. Il est loin le temps des ET4000 et des WD Paradise.

Bah y a qu’a pas être trop débile et se contenter d’une carte qui a une ou deux génération de retard,

elle est monis cher et c’est seulement à ce moment là qu’elle commence à etre utilisée à fond…

g une gf1 ddr… le top du top ! que g achetée à l’époque où les gf2mx sortaient… bah, c trop pour moi ! je joue à Diablo2, et… sur un autre pc aussi… sauf qu’il a une matrox millenium !!! pas une 1000, hein, une 2Mo WRAM !

oui madame !

et savez pas koi ? le seul truc que je regrette, c qu’elle fasse pas décodage hardawre de dvd… et encore… ou le dual display ça aussi ça m’aurait plu…

bon, je vais où là avec ce post ?

simplement dire que moi STOP !

vais acheter une console, elle tiendra bien, heu ?

oui.
je l’ai overclocké même.Quelle bombe.

:slight_smile:

Au fait, c’est quoi ta console ? GC ?

moi qui a l’epoque etait tout fier de mon duo :

s3 virg / 3dfx1 4 mo

ahhhhhh, kan je suis passé de ma S3 trio 64 v+ a ma s3 virge, g t tout content, meme si globalement, ca changeait rien

c cool, je v economiser pour m’acher une gf4, pis kan je me deciderais de l’acheter, y aura deja une gay force 8 ?

pkoi ne pas attendre 1 an et sortir une carte indetronable, enfin pendant un peu plus que 3 mois… un peu comme l’avait fait la premier gay force a l’epoque

4 ans. :slight_smile:

Marché trop dur, période d’évolution de technos impressionnante ? Concurrence sans pitié. Va savoir. :slight_smile:

Moi je dis : Caféine…passe à table…laisser tomber ce NDA pourri qui t’interdit de tout nous dire. En plus, grand sadique que tu es, tu nous nargue en suggérant quelques infos.

Ah, Caf, coeur de pierre !!!

:-pppp

Hehehe. La patience est une vertu, tout ça tout ça… hein ? Nan ? Chuuut, pause ce gun…

Mais tu le savais depuis quand pour la “nouvelle carte graphique trois fois plus puissante sur le papier que la GeForce Ti 4600” ???

De toute façon dans moins de 2 semaines on saura tout…