No Geek Left Behind !

Avec ça je me demande si la mutliplication des core aura un impact rapidement sur notre utilisation quotidienne de notre PC.

Moi qui suis en train de tout doucement envisager l’achat d’une nouvelle config (sans être pressé, vu que c’est essentiellement pour le jeu, l’aspect bureautique et multimedia passe encore suffisament bien sur ma config actuelle) je me pose constamment la question : alors, ça vaut la peine d’acheter du quad-core maintenant?
Ou on peut se contenter d’un petit C2D pour profiter à fond pendant un an pour ensuite changer quand le développement sera fortement orienté multi-core.

Sinon, merci pour la news C_Wiz, ça montre bien que du côté CPU, le C2D n’est qu’un aperçu de ce qui nous attend (et qu’apparement, les roadmaps sont bien prêtes pour faire pêter les Ghz et le nombre de core bientôt).

Ca ne donne pas très envie de changer sa config prochainement ça.
En ce moment c’est vraiment très changeant coté processeurs B)

Alan Wake et quelques autres titres vont mettre en avant le quad core. Mais pour le joueur ca n’a rien d’indispensable surtout si ca n’est pas accompagné d’une carte graphique très haut de gamme.

[quote=“Gr3e, post:22, topic: 44616”]Ca ne donne pas très envie de changer sa config prochainement ça.
En ce moment c’est vraiment très changeant coté processeurs B)[/quote]

Essaie de me citer une période ou un élément essentiel au fonctionnement d’un PC de jeu n’a pas été dans une grosse période de changement, pour voir ? Quand ce n’est pas le processeur c’est la carte graphique et ça a toujours été comme ça depuis qu’on utilise des architectures ouvertes B)

On a quand même été assez gatés sur la période 2002-2006 avec une relative stagnation des performances des processeurs. Je viens de changer mon P4 2.4C@3,0 de début 2003 pour un Core 2 Duo et encore c’est parceque ma CM a flanché.
Ce serait chouette que mon nouveau proc dure autant! on peut toujours rêver.

Ca doit être bon ce que tu fumes. Faut faire tourner. Que t’ai pas senti le besoin d’upgrader ta machine, soit, mais n’en tire pas une pseudo vérité générale.

De toute façon ce ne sont pas les sorties de nouveaux matériels qui font qu’on change de config ou pas mais la sortie de bons jeux qui nécessitent quelque chose de puissant.
Pour ma part c’est SupCom qui me pousse des deux mains pour que je change tout B) Sinon ma config qui a déjà 4 ans tourne parfaitement B)

Tout ça veut dire que mon E6300 acheté il y a peu sera complétement dépassé d’ici quelques mois ? B)

En fait la notion d’ être dépassé est toute relative. Si c’est pour faire tourner un gros serveur de calcul alors ton E6300 est déjà dépassé. Par contre pour faire tourner WoW il n’est pas dépassé. Après dans quelques mois sortira Crysis et là ton CPU ne sera toujours pas dépassé donc réjouis toi :smiley: . Et puis pour la suite ça dépend de ce à quoi tu voudras jouer. Par exemple si tu ne joues qu’au démineur ton CPU ne sera jamais dépassé B)

Et puis vu le potentiel d’overclock de l’E6300, avec un âme un poil aventureuse, on peut lui faire terminer sa carrière en beauté…et très tard.

C’est juste que tu pouvais toujours te toucher pour jouer à des jeux récents avec un PC 2ans d’âge vers 2000 alors que maintenant c’est relativement banal.
Une config à base de PII 450, rage fury de début 99 ne pouvait déjà pas lutter fin 2000. Une config Athlon 3x00+ et Geforce 6800GT de 2004 peut encore faire tourner tous les jeux en détails med-high (pour quelques mois).

Oh oh oh oui B)
Mon 6600 tourne deja a 3GHz sans broncher, presque sans augmenter de temperature. B)

Ha oui, totalement la même chose. 2002 c’est les P4 à FSB 533, DDR1 333 et fin de rambus. 2006 les Core 2 Duo/Quad. Je ne vois rien de relatifs entre les performances de ces processeurs. Rien du tout.

Et pour ce qui est de la 6800 GT, on ne doit pas avoir la même notion de « med-high », ou de jeux récents. Exemple ici en bas de page : http://www.matbe.com/articles/lire/359/20-…tats/page34.php

Et si tu fais de l’encodage vidéo t’es content d’avoir vu arriver des tas de SSE successifs et autres améliorations de bande passante qui multiplient tes perfs. L’augmentation de puissance brute est et continuera à être violente, après les développeurs doivent composer en fonction de CPU/GPU qu’ils vont estimer être la « base » pour jouer à leur jeu. Les Core 2 sont encore assez loin de cette base donc il n’y a pas d’inquiétude.

Penser par contre que le CPU va reprendre un rôle prédominant sur la carte graphique au niveau des upgrades d’une machine de joueur, ca n’est pas totalement impossible. C’est dans ce sens que travaille Intel. Y arriveront-ils, autre débat.

Bon, je vais défendre un peu le jeune homme ; je vais pas reprendre ses repères personnels dans lesquels j’aurais du mal à me retrouver, mais quand même, sur la période 2003-2005, il y a eu un assez beau coup de mou ; entre le moment ou la grimpette de fréquence du Northwood s’est essouflée et celui ou le pentium M a sérieusement enfoncé le seuil de 2GHz en gros, les papys de chez intel ils ont frisé le coup de la panne.

Ah, et le coup des multiples révisions du SSE, s’il y en a eu tant que cela c’est peut-être bien aussi que c’était un peu loupé les premiers coups ; qu’il y en ait eu autant sur une periode aussi courte, c’est au moins autant un signe d’anomalie que de dynamisme.
Voilà c’était le message contradictoire du jour, pour équilibrer, on fait coucou au CSA et on retourne suivre la bagarre de cours de récré campagne présidentielle.

Un brin revisionniste mais admettons pour Intel. Sur cette période, c’est AMD qui a botté des culs avec ses Athlon 64. Il y a eu quelques avancées dramatiques en termes de perfs. Et un truc qui s’appelle Dual Core.

Y’a 2 intérêts sur les instructions SIMD (MMX/SSE) pour Intel :

  • marketing : Intel a par définition un SSE d’avance sur AMD. C’est clairement dans leur intérêt de rajouter de nouvelles instructions de temps en temps pour qu’AMD soit à la traine dans le dernier bench à la mode (je ne dis pas que c’est bien de faire ca, mais soyons réalistes, ils le font AUSSI pour ça)
  • technique : Les instructions SIMD sont généralement des optimisations pour des algos et des traitements à la mode. Exemple : les dot scale product dans SSE4 y’a 2 ans, on aurait pas trop sû a quoi ca pourrait servir (et pour encore une dizaine de jours on est dans l’expectative). C’est quasi de l’évenementiel.

C’est tout à ton honneur d’avoir essayé (avis au monde, j’ai super uber mal au bide, je suis irritable B)).

L’idée est là, mais tu tiens l’idée à l’envers.
[/quote]
on va revenir là-dessus si vous le voulez bien ! B)
Intel va abandonner les CPU et tout foutre dans les CG ?
plus de problème de bande passante du coup B)

[quote=« titibgosse, post:37, topic: 44616 »]L’idée est là, mais tu tiens l’idée à l’envers.

on va revenir là-dessus si vous le voulez bien ! :smiley:
Intel va abandonner les CPU et tout foutre dans les CG ?
plus de problème de bande passante du coup B)[/quote]

Eh bien, quand on vois un processeur comme le Cell, qui « apparement » (j’insiste, parceque je ne connais le hardware que de manière « vulgarisée », j’ai rien d’un ingé informatique) a une architecture plus proche d’une CG que des CPU actuels, on peut très largement penser que le futur des CPUs peut se faire dans cette voie : une puce très proche des CG actuelles avec la possibilité de bosser sur ce qui occupe nos CPU maintenant.

Il me semble même que Sony avait envisagé d’utiliser le Cell pour la partie graphique de sa PS3 également (puis se sont certainement rendu compte qu’il n’avait pas encore assez de ressort que pour mettre à mal les CG actuelles)…

Sinon, effectivement, un processeurs multicore unique pour gérer tout, ça enlèverait BEAUCOUP de problèmes de bandes passantes et de southbridge. Et puis aucune chance d’avoir une CG « CPU limited » non plus B)

[quote=“titibgosse, post:37, topic: 44616”]> L’idée est là, mais tu tiens l’idée à l’envers.

Intel va abandonner les CPU et tout foutre dans les CG ?[/quote]
C’est pas cet envers là, dommage B)

Edit indice : L’idée est là, c’est la tenue qui est à l’envers.

gniiiiiii !!! B)

et dans 10 jours on dira: ah ah le con, C_Wizard a filé v’là les indices, c’était évident ! B)