高并发专题--3:CPU缓存执行原理

大家都知道硬盘读取慢,于是就通过缓存把内容加载到内存里

处理器缓存 cpu:

  • 主内存慢
  • cpu高速缓存

指令重排的场景:

大家都晓得cpu执行线程是通过指令执行的,这里的执行并不是有序的,cpu会对执行指令进行排序。

当CPU写缓存时发现缓存区块正被其他CPU占用,为了提高CPU处理性能,可能将后面的读缓存命令优先执行。并非随便重排,需罢要遵守as-if-serialiX5986047as-if-serial语义的意思指:不管怎么重排序(编译器和处理器为了提高并行度) , (单线程)程序的执行结果不能被改变。编译器, runtime和处理器都必须遵守as-if-serial语义。也就是说:编译器和处理器不会对存在数据依赖关系的操作做重排序。

1、CPU高速缓存下有一个问题:缓存中的数据与主内存的数据并不是实时同步的,各CPU (或CPU核心)间缓存的数据也不是心实时同步。在同一个时间点,各CPU所看到同一内存地址的数据的值可能是不一致的。
2、CPU执行指令重排序优化下有一个问题:虽然遵守了as-if-serial语义,单仅在单CPU自己执行的情况下能保证结果正确。多核多线程中,指令逻辑无法分辨因果关联,可能出现乱序执行,导致程序运行结果错误。

处理器提供了两个内存屏障指令(Memory Barrier)用于解决上述两个问题:

写内存屏障(Store Memory Barrier) :
在指令后插入Store Barrier,能让写入缓存中的最新数据更新写入主内存,让其他线程可见。,强制写入主内存,这种显示调用, CPU就不会因为性能考虑而去对指令重排。

读内存屏障(Load Memory Barrier) :
在指令前插入Load Barrier,可以让高速缓存中的数据失效,强制从新从主内存加载数据。强制读取主内存内容,让CPU缓存与主内存保持一致,避免了缓存导致的一致性问题

要想实现多个线程之间的协同,分为下面四类:

如:线程执行先后顺序、获取某个线程执行的结果等等。

  1. 文件共享
    如:线程1写入文件txt,线程2读取文件tx获取数据。
  2. 网络共享
  3. 共享变量
    如:在内存中定义一个共享变量,线程1写入,线程2读取。
  4. jdk提供的线程协调API细分为: suspend/restme
    wait/notify、 park/unpark
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值