-
ELEMENTOS
ACTUALES DE CACHE
· Tamaño de caché
Como se sabe, los caches grandes son ligeramente más
lentas que las cachés pequeñas, yaqué entre más grande, tiene un mayor número
de puertas implicadas en direccionar la caché.
· Función de correspondencia
Esto determina la organización del caché, existen
diversas técnicas como la directa, asociativa y asociativa por conjuntos.
Se necesita un algoritmo para corresponder los bloques
de la memoria principal a las líneas de caché, ya que
· Algoritmos de sustitución
Estos son para conseguir una alta velocidad de
comunicación, puesto que es necesario que los algoritmos sean implementados en
el hardware.
El algoritmo más efectivo actualmente es el “utilizado
menos recientemente” (LRU, least-recently used), es sustituido el bloque que se
ha mantenido más tiempo en caché sin referenciarlo, el algoritmo es aplicado
mediante bit para referenciar o no cada bloque.
· Política de escritura
Un bloque antiguo en la caché no debe ser modificado,
este puede sobrescribirse con el nuevo bloque sin necesidad de actualizar el
antiguo (Como un disco).
Si se ha realizado una operación de escritura sobre
una palabra de la línea correspondiente de caché, entonces la memoria principal
debe ser actualizada, reescribiendo la línea de caché en el bloque de memoria
antes de transferir de nuevo bloque.
· Técnica – escritura inmediata
Se asegura de que todas las operaciones escritas son
realizadas en la cacé, así mismo como en la memoria principal, y se asegura que
el contenido de la memoria principal siempre será válido, para así mantener la
coherencia de cualquier otro modulo de procesador de caché que puede
monitorizar el tráfico.
Procesador |
Diseño |
Procesador Intel
Core i7-9700F |
S-1151 3 GHz Octa Core 12MB Caché |
Intel Core
i7-11390H |
12 MB Intel Smart
Caché |
Seagate
ST2000DM008 BarraCuda |
Disco duro interno para computadora de sobremesa 2 TB SATA 6 Gb/s caché de 256 MB |
-
¿QUÉ ES
CACHE MULTINIVEL?
En el cache
multinivel encontramos que se le añade un segundo nivel de caché fuera de chip
(L2) para que así se pueda acceder en un tiempo menor a la memoria principal.
Es por eso que cuando ocurre un fallo en el caché primario (L1), se accede a la
caché secundaria (L2) para buscar los datos.
· Esto reduce la penalización de fallo.
·
Si no
están se accede a la memoria principal.
Finalmente
podemos darnos cuenta de que mientras más niveles de cache, existan entre el
procesador y la memoria principal, el rendimiento será mejor proporcionado por
el sistema de memoria, esto a carrera un mayor costo. (Como si esto fuera un
edificio de varios pisos, cuando no encuentras las copias en el primero, vas al
segundo y así sucesivamente dependiendo de los niveles dentro de la memoria).
https://drive.google.com/file/d/1ScG8x8amQl_RUQCLDwUWLbrm9OcNWOpJ/view?usp=sharing