XGI veut faire comme les grands

Et histoire de montrer qu’ils font comme les autres, ils ont inséré dans leurs drivers leurs propres optimisations, tel un nVIDIA ou un Ati, sauf que c’est encore pire que chez ces deux derniers.

Le site Hardware.fr a procédé à quelques petits essais innocents où ils ont renommé des benchmarks classiques. Ca devient un peu la catastrophe, même pour le haut de gamme du nouveau fabricant de chips graphiques. En passant par exemple de 22 fps en mother nature à 8 en renommant l’exécutable du benchmark. Le driver semble en tous cas désactiver le filtrage trilinéaire dès qu’il détecte l’une des applications de sa liste pour le remplacer par du beaucoup plus rapide et moche bilinéaire.

Question jeux, la qualité d’image s’en prend plein la gueule une fois la détection activée dans certains jeux comme Halo ou UT 2003.

Ceux qui cherchaient une explication aux bonnes perf’ des Volari dans les benchs et jeux classiques et à la cata dans des jeux moins courants ont en tout cas trouvé réponse à leurs interrogations.

Ceux qui se posaient la question de l’achat de l’un de ces chips pour jouer avec de bonnes performances pour pas cher ont aussi une réponse et se dirigeront vers Ati ou nVIDIA.

Source : Hardware.fr.

C’est tellement énorme et malhônnete que j’y crois pas.

XGI, six pieds sous terre…

[quote]Ceux qui cherchaient une explication aux bonnes perf’ des Volari dans les benchs et jeux classiques …[/quote]Mais en fait le pire, c’est que les performances n’étaient même pas très bonne (étant donné le prix exorbitant de la carte) avec ces “optimisations” !

Pour une carte de ce prix c’est vraiment du grand n’importe quoi!! A une époque ou on ne parle plus que d’anisotropic filtering et de FSAA 6x sortir un produit qui a du mal avec un simple trilinéar filtering est suicidaire.

En plus de ca leurs optimisations en plus d’etre malhonnetes sont si mal dissimulées que ca fait pitié

On peut aussi trouver ceci comme articles sur divers sites. Ca n’a pas l’air très glorieux.
http://www.materiel.be/news.php?start=0#news3773

http://www.materiel.be/viewnews.php?n=3720

De toute facon, vu la longueur des cartes duo et de leur double ventillateur. Chez moi (dans ma tête) ca a fait : 2 GPU => 3DFX => Voodoo 5 => cata (pas pour les perf, pour la socièt&#233.

Mais, de là à imaginer une catastrophe de cette empleure : tricherie. On ce demande si sur ce coup là ils ont réussit à détroner Nvidia (coup bas je sais).

Bon, en espérant que XGi remédit a ca avec des drivers potable.
Et ce que je trouve domage avec cette affaire, c’est de na pas avoir testé aussi avec un model simple GPU a cause de ca :

[quote]Hardware.fr:

En fait étant donné l’importance de la baisse on peut même se demander si le second GPU est bien activé “par défaut” …[/quote]

Je ne voudrais pas raviver de guerre entre les cartes graphiques mais bon, quand on voit qu’il y a toujours des problèmes avec les ATI dans certains jeux récents qui parfois ne se lancent pas ou saccadent comme des brutes, on ne peut faire confiance qu’à nVidia. Au moins quand on achete un jeu on est sur de pouvoir le lancer, même s’il faut baisser les détails. Pas la peine de foutre un patch au cul de chaque jeu pour être en mesure d’y jouer.

Et pour ceux qui voulaient acheter une volari, bah soit vous ne lisez pas les tests, soit vous n’aimez pas jouer, soit vous êtes inscrits au club des sado-maso anonymes. Et qu’on ne me dise pas que ça va servir à faire de la bureautique et de l’internet, une bonne carte à 50 € suffit amplement.

Les cartes ATI c’est peut-être super géniale, mais je les ai toujours évité comme la peste à cause de leurs drivers toujours buggués ou alors opérationnels au bout de la 15é release.

J’ai tellement entendu de soucis à ce sujet, par des gens que je connais, que je ne suis pas prêt à en acheter: je prefère avoir une carte moyennement puissante qui fonctionne, qu’une carte de la mort qui tue…qui fonctionne qu’après avoir télécharger des patchs ou des release 3 mois après la sortie d’un jeu.

(Cela peut ressembler à un troll mais c’est un constat de fait).

Et ben dis donc, ya des bons morceaux de troll là dedans. C’est même limite s’il y a pas du nain. Faut arrêter les conneries les gars (je parle des pros NVidia). Je ne discuterais même pas la dessus tellement les remarques sont gratuites… M’enfin, restons cool.
Cela montre combien les tests qui doivent être faits maintenant pour évaluer une carte graphique doivent reposer sur des situations de jeux réelles. Les benchs utilisés habituellement sont clairement une cible commerciale et ne veulent plus rien dire aujourd’hui. Quand on regarde ce test, on se rend compte combien les données finales et les appréciations peuvent changer lorsque l’on utilise et teste les cartes en situation de jeux.

Ce message est maintenant pour Cafeine. Je crois évident au fil des articles et tests de ces dernières semaines, que tester des cartes avec des benchs spécialisés (3DMark, Aquamark, benchs UT, etc…) ne rend plus compte des performances réelles de la carte en condition d’utilisation pour le joueur. Pour ma part, je ne ferais confiance qu’au type de test mentionné plus haut dans mon post. Les enjeux commerciaux sont tels que tester une carte avec les outils communément utilisés, revient à faire une sorte de pub indirecte (et c’est pas les divers patchs que FuturMark nous sort pour empêcher les optimisations qui changeront quelque chose).
Ce message a été édité par bobsainclar le 18/12/2003

Ouah les 2 énormes trolls au-dessus ! c’est vraiment pas discret les gars .
S’ il y en a pour préférer acheter des cartes avec des fausses spécifications à des cartes qui ne fonctionnent peut-être pas avec des jeux (et encore c’était une excuse bonne il y a 2 ans mais plus maintenant) mais dont le problème s’arrange en général vite fait avec des patchs, ben qu’ils sachent que leur avis n’est pas du tout partagé par tout le monde.

Et ceux qui croient encore que ATI = incompatibilité, ben restez dans votre cave, la vie est belle

Pour revenir au sujet, XGI a tenté de répondre à propos de la présence des noms des principaux benchs dans leurs drivers : d’aprés eux, ils en avaient besoin pour faire des ajustements pendant le devellopement des drivers, et ils les ont oubliés là … Bon ça n’expliquent pas la baisse de performance

http://www.presence-pc.com/news/n2491.html