来源:Java并发编程的艺术。
volatile的特性
- 可见性:对一个volatile变量的读,总是能看到(任意线程)对这个volatile变量最后的写入
- 原子性:对任意单个volatile变量的读/写具有原子性,但类似于volatile++这种复合操作不具有原子性
volatile写-读建立的happens-before关系
volatile变量的写-读可以实现线程之间的通信。
从内存语义的角度来说,
volatile的写-读与锁释放-获取有相同的内存效果:
volatile写和锁的释放有相同的内存语义;
volatile读与锁的获取有相同的内存语义。
class VolatileExample {
int a = 0;
volatile boolean flag = false;
public void writer() {
a = 1; 1
flag = true; 2
}
public void reader() {
if (flag) { 3
int i = a; 4
…… }
}
}
假设线程A执行writer()方法之后,线程B执行reader()方法。根据happens-before规则,这个过程建立的happens-before关系可以分为3类:
(1)根据程序次序规则,1 happens-before 2;3 happens-before 4。
(2)根据volatile规则,2 happens-before 3。
(3)根据happens-before传递性规则,1 happens-before 4。
线程A写一个变量后,线程B读一个变量volatile变量。
A线程在写volatile变量之前所有可见的共享变量,在B线程读同一个volatile变量后,将立即变得对B线程可见。
volatile写-读的内存语义
当写一个volatile变量时,JMM会把该线程对应的本地内存中的共享变量值刷新到主内存。
当读一个volatile变量时,JMM会把该线程对应的本地内存置为无效。线程接下来将从主内存中读取共享此变量。
volatile读写总结
- 线程A写一个volatile变量,实质上是线程A向接下来将要读这个volatile变量的某个线程发出了(对其共享变量所做出修改的)消息。
- 线程B读一个volatile变量,实质上是线程B接受了之前某个线程发出的(在写这个volatile变量量之前对共享变量所做修改的)消息。
- 线程A写一个volatile变量,随后线程B读这个volatile变量,这个过程实质上是线程A通过主内存向线程B发送消息。
volatile内存语义的实现
表是JMM针对编译器制定的volatile重排序规则表。
- 当第二个操作是volatile写时,不管第一个操作是什么,都不能重排序。这个规则确保volatile写之前的操作不会被编译器重排序到写之后。
- 当第一个操作是volatile读时,不管第二个操作是什么,都不能重排序。这个规则确保volatile读之后的操作不会被编译器重排序到读之前。
- 当第一个操作是volatile写时,第二个操作是volatile读时,不能重排序。
内存屏障插入
为了实现volatile的内存语义,编译器在生成字节码时,会在指令序列中插入内存屏障来禁止特定类型的处理器重排序。
(1)在每个volatile写操作的前面插入一个StoreStore屏障。
(2)在每个volatile写操作的后面插入一个StoreLoad屏障。
(3)在每个volatile读操作的后面插入一个LoadLoad屏障。
(4)在每个volatile读操作的后面插入一个LoadStore屏障。
保守策略下volatile写插入内存屏障后生成的指令序列示意图
volatile写后面的StoreLoad屏障。此屏障的作用是避免volatile写与后面可能有的volatile读/写操作重排序。
因为编译器常常无法准确判断在一个volatile写的后面是否需要插入一个StoreLoad屏障(比如,一个volatile写之后方法立即return)。
为了保证能正确实现volatile的内存语义,JMM在采取了保守策略:在每个 volatile写的后面,或者在每个 volatile读的前面插入一个StoreLoad屏障。
volatile写-读内存语义的常见使用模式是:一个写线程写volatile变量,多个读线程读同一volatile变量。当读线程的数量大大超过写线程时,选择在volatile写之后插入StoreLoad屏障将带来可观的执行效率的提升。
JMM 在实现上的一个特点:首先确保正确性,然后再去追求执行效率。
内存屏障
屏障类型 | 指令类型 | 说明 |
---|---|---|
LoadLoad Barriers | Load1;LoadLoad;Load2 | 确保Load1数据的装载先于Load2所有后续装载指令的装载 |
StoreStore Barriers | Store1;StoreStore;Store2 | 确保Store1数据对其他处理器可见(刷新到内存)先于Store2及所有后续存储指令的存储 |
LoadStore Barriers | Load1;LoadStore;Store2 | 确保Load1数据装载先于Store2及所有后续的存储指令刷新到内存 |
StoreLoad Barriers | Store1;StoreLoad;Load2 | 确保Store1数据对其他处理器变得可见(指刷新到内存)先于Load2及所有后续装载指令的装载。StoreLoad Barriers会使该屏障之前的所有内存访问指令(存储和装载指令)完成之后,才执行该屏障之后的内存访问指令 |
StoreLoad Barriers是一个“全能型”的屏障,它同时具有其他3个屏障的效果。现代的多处理器大多支持该屏障。执行该屏障开销会很昂贵,因为当前处理器通常要把写缓冲区中的数据全部刷新到内存中(Buffer Fully Flush)
示例
class VolatileBarrierExample {
int a;
volatile int v1 = 1;
volatile int v2 = 2;
void readAndWrite() {
int i = v1; 第一个volatile读
int j = v2; 第二个volatile读
a = i + j; 普通写 v1 = i + 1; // 第一个volatile写
v2 = j * 2; 第二个 volatile写
}
...... 其他方法
}
针对readAndWrite()方法,编译器在生成字节码时可以做如下优化。
最后的StoreLoad屏障省略。因为第二个volatile写之后,方法立即return。此时编译器可能无法准确断定后面是否会有volatile读或者写,为了安全起见,编译器通常会在这里插入一个StoreLoad屏障。