CPU缓存:
为了提高程序运行的性能,CPU在很多方面对程序进行了优化
例如:CPU高速缓存,尽可能地避免处理器访问主内存的时间开销,处理器大多会利用缓存提高性能
CPU多级缓存
一级缓存是CPU第一层高速缓存,分为数据缓存和指令缓存。一般服务器CPU的一级缓存的容量在32–4096kb
二级缓存由于一级缓存容量的限制,为了再次提高CPU的运算速度,在cpu外部放置高速存储器,即二级缓存
三级缓存目前都是内置的。实际作用是L3缓存的应用可以进一步降低内存延迟,同时提升大数据量计算时处理器的性能。具有较大三级缓存的处理器提高更有效的文件系统缓存行为及较短消息和处理器队列的长度。一般是多核共享一个三级缓存
CPU读数据的顺序,先从一级缓存查找,再从二级缓存查找、再从三级缓存查找,然后是内存,最后是外存储器
当多个CPU读取同样的数据进行缓存,进行不同运算之后,最终写入主内存以哪个CPU为准呢?
在这种高速缓存回写的场景下,多数CPU厂商对一致性协议进行实现即多处理器时,单个CPU对缓存中数据进行了改动,需要通知给其他CPU既要控制自己的读写操作,还要监听其他CPU发出的通知,从而保证最终一致
CPU除了高速缓存还在运行时指令重排对性能进行优化:
指令重排的场景:当CPU写缓存时发现缓存区块正被其他CPU占用,为了提高CPU处理性能,可能将后面的读缓存命令优先执行
指令重排时需要遵从as-if-serial语义
编译器和处理器不会对存在数据依赖关系的操作重排序。
在高速缓存下的问题
在同一个时间点,各CPU所看到同一内存地址的数据的值可能是不一致的
指令重排的问题:
在多核多线程中,指令逻辑无法分辨因果关联,可能出现乱序执行,导致程序运行结果错误
当然处理器提高了两个内存屏障指令用于解决上述两个问题
写内存屏障强制写入主内存,这种显示调用,CPU不会因为性能考虑而去对指令重排
读内存屏障,强制读取主内存内容,让CPU缓存与主内存保持一致,避免了缓存导致的一致性问题