目录
第一章 超标量处理器概览
1.1 超标量定义
CPI执行每条指令所需的周期数。
IPC一个周期内可以执行的指令个数。
非流水线处理器,多个周期才能执行一条指令。
普通流水线处理器,一个周期执行一条指令。IPC=1
超标量流水线处理器,一个周期执行多条指令。IPC>1
增大IPC和运行频率可以提高处理器程序执行速度。但是IPC过大,会导致设计复杂度增加,进而导致某一阶段执行时间增加,导致周期时间降不下来;而如果频率过高,周期时间比较小,那么设计的复杂度就不能太高,不然在短周期时间内完不成复杂逻辑,同时,增加流水线深度获得更小的周期时间会导致预测失败时惩罚(penalty)很大。
1.2 普通处理器流水线
1.2.1 流水线概述
适当地使用流水线可以降低处理器周期,增大处理器频率。假设原周期时间D,使用n级流水线,单个流水级周期时间变为D/n+S(S是流水线寄存器延时),频率1/(D/n+S),性能公式Performance=1/(D/n+S)。
在使用流水线之前,消耗的总硬件面积是G,n级流水线的硬件面积,G+n*L(L是每个流水线寄存器和附带逻辑的硬件面积),总的面积公式Cost =G+n* L。
对于处理器来说,当然希望 Cost/Performance 尽可能得小,也就是获得同样的性能,消耗的硬件面积越小越好。
1.2.2 流水线的划分
- 流水线的划分条件:
- 每一个流水级所需时间近似相等。
- 流水线中每个阶段的操作都会被重复地执行。
- 流水线中每个阶段的操作都和其他流水段互相独立、互补干扰。
- 经典五级流水线:
- fetch:取指令
- decode & regfile read:译码 & 读寄存器堆
- execute:计算
- memory:访存
- write back: 写回
不使用流水线的处理器周期时间是各段时间之和,使用流水线的处理器周期时间是取流水段中的最大值的一段,,因此需要合理的分解流水级,可以使各部分流水短时间近似相等。
合并流水段,将相邻的周期时间较短的流水段合并成一个,可以均衡周期时间,但是运行频率会下降。
分解流水段,分解周期时间较长的流水段,降低最大的周期时间,就可以增大运行频率。但是过深流水线会导致硬件消耗增大,因为需要增加更多的寄存器和控制逻辑,寄存器端口增加,存储器访问端口也要增加,分支预测的惩罚变大,容易导致 “高频低能” 。
1.2.3 指令间的相关性
(1)先写后读(read after write,RAW),一条指令负责写入数据之后,后一条读取该数据,这种相关性必须要等到前一条指令的结果才可以执行,该相关性无法避免。
(2)先读后写(write after read,WAR),一条指令先读取某个寄存器,后一条指令写入该寄存器,可以通过将后一条指令数据写入其他寄存器来避免。(假相关性)
(3)先写后写(WAW),两条指令先后写入同一个寄存器,可以通过将后一条指令写入其他寄存器来避免。(假相关性)
假相关性WAW、WAR可以通过重命名解决,RAW真相关性通过bypass(旁路)解决,旁路如下(A写入寄存器r1,B读取寄存器r1,属于RAW):
1.3 超标量处理器的流水线
每周期取出多于一条的指令送到流水线执行,并用硬件控制调度,分为顺序执行、乱序执行。
1.3.1 顺序执行
3-way超标量顺序执行,写回也要顺序写回,所以计算时间短的要等其他计算都完成,延时等待,最后按程序指令顺序写回并提交。
pending状态:表示指令的结果还没有写回到逻辑寄存器。
1.3.2 乱序执行
对指令相关性进行重命名或者旁路操作,,同时发射阶段是顺序乱序的分界点,在这里是乱序写回(写回PRF),顺序提交(对处理器状态顺序更新,如修改ARF),其中顺序提交的关键是利用重排序缓存(ROB),只要计算完毕,就可以直接写回,不用等其他的指令。
在执行中的store指令在写入cache时,先将数据写入store buffer,一方面是预测失败和异常的恢复,还可以将数据通过sbuffer暂时缓存,在达到一定条件时一起写入cache,防止频繁访问cache造成时间的浪费。
其中一个进程任务的最后一个指令写回后,必须要等到它之前的指令都提交之后再提交。
1.3.3 指令执行细分步骤
fetch→decode→register renaming→dispatch→issue→register file read→execute→write back→commit。
具体内容可以阅读原书,这里不展开说明,后边会分章节具体讨论。