The Way It's Meant To Be Reviewed

Comment tester une carte vidéo ?
La question a l’air triviale comme ça, mais c’est en fait un véritable casse-tête. Car une question s’impose d’elle même quand on fait des tests : ont-ils un sens pour l’utilisateur ?
La question du sens est primordiale car elle conditionne l’utilisation de tel bench plutôt qu’un autre, ou le choix d’autres méthodes de test. Si la visée est marketing, les benchs commerciaux sont les plus employés (il n’y a qu’à se rappeler des aventures NVidia et ATI avec Futuremark au sujet de 3dmark 2003 et des “optimisations” maison). Si c’est la compatibilité avec les jeux à venir, ou en situation réelle d’utilisation, on va utiliser d’autres moyens de mesure. Car la mesure est une science (la métrologie), elle se doit d’être réalisée sérieusement et le type de mesure doit être en adéquation avec ce que l’on veux démontrer.

Aujourd’hui, les développeurs et autres personnalités représentatives du hardware graphique ont des avis différents, et cela met en lumière la difficulté que l’on peut avoir dans ce domaine à produire des résultats cohérents.

Par là en Français et plus court

Par là pour l’original

Ce qui ressort de tout ça, c’est que l’utilisateur doit relativiser les tests qui lui sont proposés, et voir en eux ce que les gens qui testaient voulaient démontrer.

Bah si j’ai lu la résumé français mais ça ne fait pas trop avancer le schmilblick tout ça, on reste encore dans le “bah ça c’est pas mal, mais ça aussi c’est bien” et les journaleux qui rajoutent “ha ben oui mais ils oublient que… alors on peut pas dire réellement que…”

nihil novi sub sole

Ouais, et il sembel que maitenant, il va falloir à nouveau prendre en compte la qualité de l’image…

[quote]Ouais, et il sembel que maitenant, il va falloir à nouveau prendre en compte la qualité de l’image…[/quote]Critère on ne peut plus subjectif , moi j’ai bien été en peine dans le test en allemant sur la nouvelle XGI de savoir en quoi elle avait une image meilleure/moins bonne que les ATI

Tiens, juste pour rire, sachez qu’apres le coup du patch 340 de Futuremark (qui avait fait baisser le score artificiellement gonflé des Geforce FX dans certains test), Nvidia nous sort maintenant un nouveau driver, quelques semaines apres le dernier (alors qu’on se souvient encore de la déclaration de certains messieurs affirmant que le rythme de sortie des drivers allait ralentir).

Rien de particulier jusque là. Eh bien les fameuses “optimisations” désactivées par le patch de Futuremark reviennent ! Magie ! Si ça s’appelle pas être borné ça… On rappelera également que les optimisations en questions sont en fait des routines de “prédiction” spécifiques aux tests de 3DMark 2003. Donc complètement innaplicables aux jeux du commerce (à moins que les ingénieurs de Nvidia ne soient très très fort et sachent précisément quel chemin on va emprunter dans un FPS). Bref on se fout encore de notre gueule. Allez, on attend patiemment le patch 350…

Quant à la qualité de l’image, le test de je-sais-plus-qui entre les Radeon et Geforce m’a laissé complètement perplexe. Si les artefacts étaient visibles à l’oeil nu je veux bien. Mais quand on nous présente une photo d’une image précise, grossi a l’aide d’un zoom 10x, et qu’on soit encore obligé d’entourer en rouge la zone concerné pour être sûr de pas passer a coté… heu ben voila quoi. Personnellement j’ai beaucoup de mal à percevoir ce genre de détail dans un jeu en mouvement…

[quote][…]

Quant à la qualité de l’image, le test de je-sais-plus-qui entre les Radeon et Geforce m’a laissé complètement perplexe. Si les artefacts étaient visibles à l’oeil nu je veux bien. Mais quand on nous présente une photo d’une image précise, grossi a l’aide d’un zoom 10x, et qu’on soit encore obligé d’entourer en rouge la zone concerné pour être sûr de pas passer a coté… heu ben voila quoi. Personnellement j’ai beaucoup de mal à percevoir ce genre de détail dans un jeu en mouvement…[/quote]C’est marrant, moi je réfléchi exactement la même chose avec les fps. En effet, qu’on gagne 10 ou 20 frames sur un jeu qui en fait de toute façon du 120… Je m’en fous, je verrai pas la différence. Et inutile de me parler de machin-truc2 qui nous sort des benchmarks d’un abandonware qui sortira dans X mois. (Je mets “X” par sécurité… par contre, je mets un “s” à mois parce que ça, j’en suis sûr !).

Bref, note à moi-même, faire très attention au marketing de toutes les marques du monde !

Pymtis

D’apres hardware.fr et http://www.radeonthetop.com/news.php?id=1340 qui le tient de presence pc, Nvidia recommence ses petites tricheries sous 3Dmark2003.
Lamentable, ils pouraient au moins s’arranger pour qu’on ne le vois pas…Comme chez ATI….

oué, plus de précisions

Nan, passe que quand, même, y commencent à faire chier sblurp !