Le cache du Disque dur?

Salut à tous,

Voilà, je m’excuse de vous déranger, je voudrais juste avoir un renseignement.

Je viens de m’acheter un nouveau DD 160Go 8Mo que j’ai mis en esclave à mon 40Go 2Mo qui me sert de DD principale.

Voilà je voudrais garder mon 160 exclusivement pour les jeux mais je ne sais po réellement qu’elle est l’interet des 8Mo de cache alors si quelqu’un peut m’aider cela me serait bien utile.

Merci d’avnce pour vos réponses.

Lors d’un accès au disque dur, le processeur demande des infos qui sont chargées en mémoire vive, mais aussi les informations qui sont placées sur le disque dur à la suite de celles qui ont été demandées: ce sont les informations du cache en lecture qui anticipent les besoins ultérieurs du processeur.

D’où l’intérêt d’une bonne défragmentation, et de mettre windows sur le 8mo.

Globalement les 8Mo de cache améliorent les performances du disque.
En plus le 160Go qui est plus récent à un meilleur débit de données indépendamment de la taille du cache.
Je pense que si tu installes Windows et tes jeux sur le 160Go 8Mo et que tu gardes l’autre pour stocker des données, tu auras les meilleures performances.

Le chache sert de ram secondaire en gros?

Les puristes vont hurler (tant pis pour eux j’espère qu’ils sont pas seuls comme ça ils auront l’air bien con) mais c’est une sorte de ram super optimisée et over rapide.

Pas taper c’est de la vulgarisation hein.

Le cash, c’est une zone tampon (de mémoire) entre le DD (support de masse) et la RAM côté CPU, qui servira lors d’un prochain accès en lecture.

Typiquement, imaginons qu’une application demande à lire un fichier sur le DD ; Plutôt que de lire seulement la quantité de donnée souhaitée, un secteur complet (ou même plusieurs) du DD sera lu et stocké dans le cash. Ainsi l’application aura ses données et dès lors qu’elle souhaitera lire un autre bout du fichier concerné, elle fera à nouveau accès au DD mais la lecture ne se fera pas depuis le DD lui-même mais dans son cash, c’est à dire depuis une zone de mémoire, d’où un gain en accès (la mémoire==cash étant beaucoup plus rapide qu’un DD, bien sûr).

Explication simpliste mais c’est le principe qui compte.

Tenez, je ne m’étais jamais posé la question à ce sujet là. Ce serait bien que C_Wizard nous éclaire de ses lumières précises sur la quesion.

c surtout dommage de mettre un 8Mo de cache en slave parceque le syteme en lui meme n’en profite pas.

avalon

Le truc c’est que comme le processeur a évolué carrément plus vite que tout le reste (c’est pour ça qu’il y a des coeff multiplicateurs pour pas qu’on se traîne à la vitesse de la ram), notamment des disques durs. Et donc le processeur passe son temps à attendre des donnés, et comme il est plutôt bosseur, et ben il aime pas.

D’où l’utilité de la ram, sauf que en fait non puisqu’elle est carrément plus lente (d’où l’utilité de la remarque du dessus, comme c’est bien pensé je devrais faire journaliste).

D’où l’intérêt de la mémoire cache: elle fera office de mémoire “tampon”. Et elle n’a pas besoin d’être énorme, grâce à des algos assez complexes (prédictions de ce que proc va avoir besoin par des différentes méthodes notamment).

Le processeur aura donc son, puis ses caches: L1, L2, L3… de vitesse décroissante et de taille croissante (donc le L1 est le plus rapide et le plus petit). Pour l’utilisation en elle même de ces caches, c’est assez simple en théorie: le processeur regarde s’il a ce qu’il cherche dans le L1, s’il le trouve pas il va dans le L2, etc… Après en pratique ça se complique. Ce sera pour une autre fois, et puis c’est sûrement expliqué dans un vieux joy (tout le monde les conserve, n’est-ce pas?).

Ensuite il y a d’autres caches, par exemple le cache en mémoire centrale (style smartdrive, je sais même pas si ça existe encore), et, ce qui nous intéresse, le cache des périphériques (lecteur cd/dvd, graveur (gros cache, vous comprendrez aisément pourquoi), carte scsi, disque dur).

Donc principalement, le cache sur un disque dur ça sert à ce que ça aille plus vite, qu’il y ai le moins de temps morts possible, et ainsi de s’approcher des vitesses de fonctionnement maximales des disques. Principalement seulement, car il peut aussi par exemple permettre de récupérer des donnés perdues après un plantage, si le cache fonctionne en write-trough. Mais c’est une autre histoire…

Chouette résumé :stuck_out_tongue: