- 主存存取速度远低于CPU工作速度
解决方法:CPU和主存之间设置小容量的高速缓冲存储器(Cache),存放主存信息的副本
目的:减少访存次数,加快运行速度
工作原理:基于程序和数据的局部性
- 程序和数据的空间局部性
- 程序和数据的时间局部性
cache的命中率
主存地址与cache地址的映像问题
(将主存的地址变成cache的地址)
- 局部空间定义:Cache 和主存等分为相同大小的块,每块512B
直接映像: - 前提:主存、Cache以同等大小分块
- 主存以Cache大小分组
- 内存每组第N块对应Cache第N块
内存的块只能复制到某一固定Cache块
主存地址与Cache地址如何转换
主存
128组——主存标记7位
每组16块/页——Cache页号4位
每块512B/512个单元——页内地址9位
标记记录组好——7位长
注:复制按一块一块复制,每块的标记不一定相同
全相联映像
主存的每一块能复制到Cache的任何一块
分成2048块——11位主存页标记
- 优点:冲突概率小,Cache的利用高。
- 缺点:比较器难实现,需要一个访问速度很快代
价高的相联存储器 - 应用场合:适用于小容量的Cache
组相联映像:
Cache分组,主存按Cache组数分组
内存的块数与Cache的组数相等。 - 主存每组第N块与Cache第N组固定映像
- Cache组内自由映像
标记记录的是内存组号(来自内存的第几组)
Cache的替换算法
替换算法
- 最不经常使用算法LFU被访问的行计数器增加1,换值小的行,不能反映近期cache的访问情况
- 近期最少使用算法LRU近期使用最少的贡面先调出,被访问的行计数器置0,其他的计数器增加1,换值大的行,符合cache的工作原理
LFU:访问到了计算器加1,换最小的
LRU:访问到了其他加1,自己清0,换最大的
转载:https://blog.csdn.net/olivia12344321/article/details/106675274