计算机原理之CPU模型

一、程序的运行过程

  • 1、在shell运行编译好的程序,例如./hello
  • 2、CPU执行该指令,然后将该目标文件中代码和数据从磁盘读入主存。
  • 3、目标程序加载完毕后,CPU将开始执行程序中main方法中的指令,
  • 4、当执行printf()时,他会将“hello word”从主存复制到寄存器,再从寄存器复制到显示器设备,打印输出。

 二、高速缓存的必要性

程序从最初的磁盘-》主存-》寄存器-》被CPU执行;这是一个指令或者数据加载的顺序;如果CPU的执行速度和从主存之间获取指令的速度一致,那么CPU资源也能充分利用,但是随着技术的进步CPU的执行速度远远快于从主存获取数据的速度,为了充分利用CPU资源,加快指令的执行速度,于是引入了高速缓存的概念,实质就是在CPU与主存之间加入缓存。

根据机械原理,较大的存储设备要比较小的存储设备运行得慢,而快速设备的造价远高于同类的低速设备。例如,一个典型系统上的磁盘驱动器可能比主存大 10 的倍,但是对处理器而言,从磁盘驱动器上读取一个字的时间开销要比从主存中读取的开销大 100 、万倍;类似地,一个典型的寄存器文件只存储几百字节的信息,而主存里可存放几十亿字节;然而,处理器从寄存器文件中读数据的速度比从主存中读取几乎要快 100 倍。更麻烦的是,随着这些年半导体技术的进步,这种处理器与主存之间的差距还在持续增大,加快处理器的运行速度比加快主存的运行速度要容易和便宜得多。针对这种处理器与主存之间的差异,系统设计者采用了更小、更快的存储设备,即高速缓存存储器(简称高速缓存),作为暂时的集结区域,用来存放处理器近期可能会需要的信息。

三、高速缓存的存储结构

存储器层次结构的主要思想:上一层的存储器作为低一层存储器的高速缓存。因此,寄存器文件就是 L1 的高速缓存, L1 是 L2 的高速缓存, L2 是 L3 的高速缓存, L3 是主存的高速缓存,而主存又是磁盘的高速缓存。在某些具有分布式文件系统的网络系统中,本地磁盘就是存储在其他系统中磁盘上的数据的高速缓存。正如可以运用不同的高速缓存的知识来提高程序性能一样,程序员同样可以利用对整个存储器层次结构的理解来提高程序性能。

CPU缓存的意义
CPU往往需要重复处理相同的数据、重复执行相同的指令,如果这部分数据、指令CPU能在CPU缓存中找到,CPU就不需要从内存或硬盘中再读取数据、指令,从而减少了整机的响应时间。所以,缓存的意义满足以下两种局部性原理:

  1. 时间局部性(Temporal Locality):如果一个信息项正在被访问,那么在近期它很可能还会被再次访问。
  2. 空间局部性(Spatial Locality):如果一个存储器的位置被引用,那么将来他附近的位置也会被引用。

根据局部性原理每次从主存读取多大的数据?

  1. 如果,读的数据较大则读取速度慢,但是缓存的命中率高;
  2. 如果读的数据较小,读取速度较快,但是缓存命中率低;
  3. 根据工业实践一般CPU会读取64字节的数据量

四、各级缓存的位置

L1缓存位于CPU核心上,大约存储数万字节,他的访问速度几乎和寄存器一样快;L2缓存的容量大约数十万到数百万字节,相对于L1速度降低5倍。

CPU的缓存使用流程就如同我们开发业务一样,获取数据时首先会在最快的缓存中找数据,如果缓存没有命中(Cache miss) 则往下一级找, 直到三级缓存都找不到时,那只有向内存要数据了,每次未命中,代表取数据消耗的时间变长。

参考资料《深入理解计算机系统》

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值