并发编程学习笔记
CPU三级高速缓存机制
现在的cpu基本都是多核多线程的,怎样保证它们之间协调运作呢?
我们知道cpu运行速度很快,IO操作很慢,为了解决IO冲突,我们需要引入高速缓存区,那么问题来了,多核多线程的CPU如何保证高速缓存数据一致呢?这里就引入了三级缓存机制。首先L1是单线程独享,L1的数据取自L2,L2保证了单核里多线程之间的通信,L2的数据又取自L3,L3保证了多核之间的数据互通,L3来自于内存,这样的缓存机制,就很好的解决了多核多线程CPU之间的协调。
JMM数据八大原子操作
read:从主内存中读取数据
load:将主内存读取到的数据写入工作内存中
use:从工作内存读取数据来计算
assign:将计算好的值重新赋值到工作内存中
store:将工作内存数据写入主内存
write:将store过去的变量赋值给主内存中的变量
lock:将主内存变量枷锁,表示为线程独占状态
unlock:将主内存变量解锁,解锁后其他线程可以锁定该变量
CPU缓存一致性协议
主要是在总线级别实现缓存一致性,当开启缓存一致性协议后,cpu会开启总线嗅探机制,当工作空间中发生assign,也就是缓存区数据发生改变时,会第一时间通知主内存进行同步,同步回主内存的过程中会通过总线,经过总线过程之中,其他cpu会监听到自己感兴趣的数据值,当监听到特定值时,cpu会将缓存工作内存中的值失效之,转而重新从主内存中读取到新的值,从而实现一致性。
volatile缓存可见性实现原理
底层实现主要是通过汇编lock前缀指令,它会锁定这块内存区域的缓存(缓存行锁定),并回写到主内存。
lock指令的解释:
会将当前处理器缓存的数据立即写会到系统内存
这个回写操作会引起在其他cpu里缓存了该内存地址的数据无效(MESI协议)
提供内存屏障功能,使lock前后指令不能重排序
并发编程三大特性:可见性、有序性、原子性
volatile保证可见性与有序性,但是不保证原子性,保证原子性需要借助synchronize这样的锁机制。
指令重排序:在不影响单线程程序执行结果的前提下,计算机为了最大限度的发挥机器的性能,会对机器指令重排序优化。
(4条消息) Java JVM(十二):指令重排序_Allen-CSDN博客_指令重排序
双重检测锁机制
因为指令重排序导致的对象半初始化问题。
package ThreadDemo;
public class DoubleCheckLockSingleton {
//如果此处没有volatile的话,可能会出现问题
private static DoubleCheckLockSingleton instance = null;
private DoubleCheckLockSingleton(){
}
public static DoubleCheckLockSingleton getInstance(){
if (instance == null){
synchronized (DoubleCheckLockSingleton.class){
if (instance == null){
instance = new DoubleCheckLockSingleton();
}
}
}
return instance;
}
public static void main(String[] args) {
DoubleCheckLockSingleton instance = DoubleCheckLockSingleton.getInstance();
}
}
由于指令重排序,会导致对象在初始化的过程中,对象初始化init、对静态变量赋值这两个操作可能会出现重排序现象,这样就导致在多线程的情况下,第一个线程执行到版初始化时,下一个线程进来后,此时instance不为null,所以就直接返回一个版初始化的对象。
为了避免对象初始化现象,需要加volatile关键字。
内存屏障
如果我们不希望底层在执行代码时,不发生重排序,我们可以使用JVM规范定义的内存屏障来实现:
JVM里有四种内存屏障:
屏障类型 | 用法 | 说明 |
---|---|---|
LoadLoad | Load1;LoadLoad;Load; | 保证了再load1的读取操作在load2及后续读取操作之前执行 |
StoreStore | Store1;StoreStore;Store2 | |
LoadStore | ||
StoreLoad |
JVM底层简化了内存屏障硬件指令的实现
- lock前缀:lock指令不是一种内存屏障,但是它能完成类似内存屏障的功能