CPU缓存和内存屏障

CPU性能优化手段-缓存
为了提高程序运行的性能,现代CPU在很多方面对程序进行了优化。
例如:CPU高速缓存。尽可能地避免处理器访问主内存的时间开销,处理器大多会利用缓存(cache)以提高性能。
在这里插入图片描述
多级缓存
L1 Cache(一级缓存)是CPU第一层高速缓存,分为数据缓存和指令缓存。一般服务器CPU的L1缓存的容量通常在32-4096KB。
L2 由于L1高速缓存容量的限制,为了提高CPU的运算速度,在CPU外部放置一高速缓存器,即二级缓存。
L3现在的都是内置的。它的作用即是,L3缓存的应用可以进一步降低内存延迟,同时提升大数据计算时处理器的性能。具体较大L3缓存的处理器提供更有效的文件系统缓存行为及较短消息和处理器队列长度。一般是多核共享一个L3缓存!

缓存同步协议
多CPU读取同样的数据进行缓存,进行不同运行之后,最终写入主内存以哪一个CPU为准?
在这种高速缓存回写的场景下,有一个缓存一致性协议多数CPU厂商对它进行了实现。
MESI协议,它规定每条缓存有一个状态位,同时定义了下面四个状态:
修改态(Modified):一此cache行已被修改过(脏行),内容一不同于主内存,为此cache专用;
专有态(Exclusive):一此cache行内容同于主内存,但是不出现在其他cache中;
共享态(Shared):一此cache行内容同于主内存,但是也在其他cache中;
无效态(Invalid):一此cache行内容无效(空行)

多处理器时,单个CPU对缓存中数据进行了改动,需要通知其他CPU。也就意味着,CPU处理需要控制自己的读写操作,还要监听其他CPU发出的通知,从而保证最终一致。

CPU性能优化手段-运行时指令重排
在这里插入图片描述
两个问题:
1.CPU高速缓存下有一个问题:
缓存中数据与主内存的数据并不是实时同步的,各CPU间缓存的数据也不是实时同步。在同一个时间点,各CPU所看到同一内存地址的数据的值可能是不一致的。
2.CPU执行指令重排优化下有一个问题:
虽然遵循了as-if-serial语义,单仅在单CPU自己执行的情况下能保证结果正确。但是在多核多线程中,指令逻辑无法分辨因果关联,可能出现乱序执行,导致程序运行结果出错。

内存屏障
处理器提供了两个内存屏障(Memory Barrier)指令用于处理上述两个问题:
写内存屏障(Store Memory Barrier):在指令后插入Store Barrier,能让写入缓存中的最新数据更新到主内存,让其他线程可见。强制写入主内存,这种显示调用,CPU就不会因为性能考虑而去对指令重排。
读内存屏障(Load Memory Barrier):在指令前插入Load Barrier,可以让高速缓存中的数据失效,强制重新从主内存中加载数据。强制读取主内内容,让CPU缓存与主内存保持一致,避免了缓存导致的一致性问题。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值