Le truc c’est que comme le processeur a évolué carrément plus vite que tout le reste (c’est pour ça qu’il y a des coeff multiplicateurs pour pas qu’on se traîne à la vitesse de la ram), notamment des disques durs. Et donc le processeur passe son temps à attendre des donnés, et comme il est plutôt bosseur, et ben il aime pas.
D’où l’utilité de la ram, sauf que en fait non puisqu’elle est carrément plus lente (d’où l’utilité de la remarque du dessus, comme c’est bien pensé je devrais faire journaliste).
D’où l’intérêt de la mémoire cache: elle fera office de mémoire “tampon”. Et elle n’a pas besoin d’être énorme, grâce à des algos assez complexes (prédictions de ce que proc va avoir besoin par des différentes méthodes notamment).
Le processeur aura donc son, puis ses caches: L1, L2, L3… de vitesse décroissante et de taille croissante (donc le L1 est le plus rapide et le plus petit). Pour l’utilisation en elle même de ces caches, c’est assez simple en théorie: le processeur regarde s’il a ce qu’il cherche dans le L1, s’il le trouve pas il va dans le L2, etc… Après en pratique ça se complique. Ce sera pour une autre fois, et puis c’est sûrement expliqué dans un vieux joy (tout le monde les conserve, n’est-ce pas?).
Ensuite il y a d’autres caches, par exemple le cache en mémoire centrale (style smartdrive, je sais même pas si ça existe encore), et, ce qui nous intéresse, le cache des périphériques (lecteur cd/dvd, graveur (gros cache, vous comprendrez aisément pourquoi), carte scsi, disque dur).
Donc principalement, le cache sur un disque dur ça sert à ce que ça aille plus vite, qu’il y ai le moins de temps morts possible, et ainsi de s’approcher des vitesses de fonctionnement maximales des disques. Principalement seulement, car il peut aussi par exemple permettre de récupérer des donnés perdues après un plantage, si le cache fonctionne en write-trough. Mais c’est une autre histoire…