Voilà, cette année, je suis pété de thunes, et je compte changer de PC pour féter ça (mon vieux 2400+ commence à faire la gueule…).
Le problème : j’ai beau lire tous les mois la rubrique matos de mon joystick favori, je ne sais pas que choisir…
Processeur : Athlon X2 ou « simple » Athlon 64 ? Y a-t-il un réel gain à prendre du Dual Core ?
Carte graphique : ATI Radeon X800 XL ou nVidia GeForce 6800 GT ? Laquelle est la plus performante ?
Un autre problème entre en ligne de compte ; je souhaite faire de l’OpenGL sous linux, et on m’a déconseillé les cartes ATI (drivers non disponibles?). Qu’en est-il réellement ?
Question subsidiaire : Julia acceptera-t-elle enfin de sortir avec Kevin ?
Pour info, je n’ai jamais réussi à installer les drivers ATI en version amd64 sur une Gentoo… C’est même ce qui m’a poussé à troquer ma X850XT contre une 7800GTX (qui fonctionne au poil dans le même environnement)…
[quote name=‘titibgosse’]ca veut dire quoi faire de l’open GL sous linux ?
jouer ?
programmer ?[/quote]
-> principalement programmer, mais je crois bien que c’est du pareil au même, si je veux avoir un affichage tip-top, il va falloir passer par la case “bons drivers”.
En revanche, concernant ma question sur le dual core, j’ai vu en me relisant qu’elle n’était peut-être pas très claire, donc je reformule :
-> Entre un Athlon X2 3800+ et un “simple” Athlon 64 3800+, le gain de performance est-il important ? Est-ce que l’investissement en vaut vraiment la peine ?
Tu auras un gain de performance surtout si tu utilises:
un OS compilé pour un processeur 64bits
des drivers compilés pour un processeur 64bits
des applications ou jeux compilés pour un processeur 64bits
Pour résumer, passer de 32 bits à 64 bits n’apporte pas forcément un gain de performance. Souvent il n’y a des gains que si les applis ont vraiment été prévues (ie compilées dans ce but) pour le 64bits.
Faux. A l’epoque des carte mach32 et mach64 (les ati rage notamment), c’etait ATI qui poutrait tout le monde, et sans rien faire puisque c’etait des drivers open source. Ca a change a partir de la serie radeon, d’ou il a ete tres difficile pour les dev open source d’avoir les specs des cartes.
A noter que dans les serveurs (enfin la plupart), c’est assez souvent des rage pro integre parce que c’est pas cher et que ca marche sur tous les OS.
[quote=“Pendragon, post:6, topic: 25651”]-> principalement programmer, mais je crois bien que c’est du pareil au même, si je veux avoir un affichage tip-top, il va falloir passer par la case “bons drivers”.
En revanche, concernant ma question sur le dual core, j’ai vu en me relisant qu’elle n’était peut-être pas très claire, donc je reformule :
-> Entre un Athlon X2 3800+ et un “simple” Athlon 64 3800+, le gain de performance est-il important ? Est-ce que l’investissement en vaut vraiment la peine ?
Merci de vos réponses !
– Edit –
Orthographe[/quote]
Aujourd’hui l’investissement ne vaut pas le coup car les jeux ne sont pas optimisées pour utiliser la puisssance que peut offrir le double core. Pour s’en rendre compte il suffit de faire un tour sur cette page .
Certaines applications peuvent être accélérées mais ont est encore loin du compte tant des possibilités offerte par ces processeurs.
Le Dual Core, c’est l’avenir des processeurs et par conséquent, des programmes sur ordinateurs. Pour anticiper et apprendre à tirer parti de tout ça, je prendrais un Athlon 64 X2.
Si tu cherches à comparer un 3800+ “classique” et un “X2”, il suffit de regarder leur fréquence de fonctionnement et le cache L2:
3800+ “classique”: 2.4GHz et 512Ko de cache L2
3800+ “X2” : 2.0GHz et 512Ko de cache L2 par core.
En gros, cela signifie que pour l’essentiel des applications actuelles (surtout pour les jeux), si tu prends le X2, cela fonctionnera comme si tu avais un Athlon64 3200+ (2.0GHz / 512Ko).
Pour les rares applications optimisées (SMP compliant ou réellement multithreadées), le gain sera pourtant réel par rapport à un 3800+. Mais comme cela a déjà été dit (et redit :P), celles-ci se comptent sur les doigts d’une main.
Mais cela bouge: il faut voir les efforts de nvidia sur ses derniers drivers pour tirer parti de ces CPU, la prise de conscience généralisée des éditeurs et développeurs du mouvement en cours sur toutes les plateformes (Pentium IV, Pentium M, Athlon64, PowerPC, Cell pour la PS3, XBOX360, … toutes ces bestioles comportent ou comporteront plusieurs cores).
Maintenant si on réfléchit à une machine “pour tout de suite et pas pour après-demain”, je pense que - comme souvent - tout est une question de budget. Pour moi, la série “X2” des Athlon64 est surtout intéressante dans le haut de gamme (au moins 4400+) pour que dans l’essentiel des applications on puisse fonctionner “en mode 1 core” de façon correcte. Dans ce cadre, le 3800+ X2 n’est pas bien intéressant.
Compte tenu de ton budget, j’irai sur un 3800+ “classique”. Sauf si la programmation multiprocessus/multithread représente (réellement) le gros de ton utilisation.
L’intérêt du multicore est surtout de permettre aux fondeurs de processeurs de proposer des puces possédant une plus grande capactité de traitement en faisant oublier leurs problèmes de montée en fréquence
Le truc pour « faire tourner plusieurs choses gourmandes en même temps », c’est que cela ne repose pas uniquement sur le CPU. La capacité de l’OS à attribuer une tâche à un CPU ou à un autre, le dimentionnement du reste du système (surtout au niveau des E/S, par ex. disques) deviennent les vrais facteurs limitants.
En lançant plusieurs applis en simultanné, mon X2-4400+ se tourne souvent les pouces alors que mes disques se mettent à fumer
La montée en fréquence reste une option intéressante mais semble devenir compliquée à gérer sur des puces “grand public” (en tout cas jusqu’à la découverte de nouveaux matériaux, ou encore d’autres process industriels de production…).
Pour ce qui est de la gestion de multi core / CPU, sur le papier ça se passe bien mais dans les faits, certains OS s’en tirent mieux que d’autres.
J’ai l’impression que Linux s’en tire mieux pour répartir dynamiquement la charge sur les ressources disponibles. L’attribution d’un process à un core ou a l’autre semble assez équilibrée lorsque je surveille leur taux d’occupation. Ca reste très subjectif, je n’ai jamais conduit de test poussé.
Sous Windows, ça ne se passe pas trop mal, mais il faut parfois “l’aider” (par exemple en définissant manuellement l’affinité d’une tâche avec un CPU ou un groupe de CPU). Il arrive parfois qu’un core soit à 100% en se baffrant plusieurs tâches et que l’autre ronfle tranquillement…
Dans un article de Joy d’il y a quelques mois, Caféine mettait le doigt sur le problème, surtout avec les Pentium 4 HT / double core (4 CPU virtuels). Là, l’allocation de ressources était encore plus folklo…
Ca me parait normal ça : le noyau Linux est en constante évolution tandis que celui de Windows n’a pas du beaucoup changé depuis la sortie de XP et ne changera probablement pas plus avant Vista.