2.Java并发volatile关键字的作用和汇编原理

 对于volatile关键字,很多人应该都有一个基本的了解和认知。volatile关键字有以下作用
  1. 保证了不同线程间的可见性
  2. 禁止对指令进行重排序

1.高速缓存一致性协议

 在了解保证可见性原因之前先了解一下cpu高速缓存一致性协议:
  1.当cpu写入数据的时候,如果发现该变量被共享(也就是说,在其他cpu中也存在该变量的副本),会发出一个信号,通知其他CPU该变量的缓存无效
  2.当其他CPU访问该变量的时候,重新导主内存进行获取

 其中可见性的原因是因为对于加了volatile关键字的变量,在进行写操作的时候会在对共享变量进行写操作的汇编指令前面加上一个Lock前缀。这个Lock前缀相当于给数据总线加锁。其中数据总线是进行数据传送的,会使进行传输的数据遵守cpu高速缓存一致性协议。此时就能保证关键变量的可见性了。

 关于重排序,指的是Java的编译器在上节提到的只保证在不改变程序执行结果的前提下,会尽可能地为编译器和处理器的优化提供方便。在某些情况下会导致运行的结果不一致,举个例子:

public class VolatileTest {
        //对应汇编代码片段1
    static int i = 1;
    //对应汇编代码片段2
        static volatile int i = 1;
    public static void main(String[] args){
        i++;
    }
}

 片段1

  0x0000000002a6e5ea: inc   %rdi
  0x0000000002a6e5ed: mov %rdi,0x14(%rsi)
  0x0000000002a6e5f2: lock addl $0x0,(%rsp)

 片段2

  0x0000000002a6e5ea: inc   %rdi
  0x0000000002a6e5ed: mov %rdi,0x14(%rsi)

 关于汇编的知识,忘了都差不多了,都是大学时候学的,只记得一部分。这里就讲解截取部分位置的代码意思

  • inc 将指定的操作数加1,在返回改操作数
  • mov 将目标操作数a,移动到目标操作数b
     从上面可以看到大概的意思就是将rid寄存器中的数据加1,然后将rdi寄存器中的数据移动到rsi寄存器中。这里其实就已经完成了+1的操作。
2.LOCK指令

LOCK指令前缀会设置处理器的LOCK#信号(译注:这个信号会使总线锁定,阻止其他处理器接管总线访问内存),直到使用LOCK前缀的指令执行结束,这会使这条指令的执行变为原子操作。当进行写操作的时候,会发出RFO指令,使得缓存中的数据遵守缓存一致性协议。就保证了可见性。

3.内存屏障

 那么后面的lock addl $0x0,(%rsp)这个是什么意思呢,这个是一个内存屏障。为什么会需要这么样的一个内存屏障呢。因为mov指令再cpu级别是原子性的,但是这个操作是再缓存中的。而关于缓存,cpu,内存的关系,这里需要了解一下。
 按与CPU远近来分,离得最近的是寄存器,然后缓存,最后内存。所以,寄存器是最贴近CPU的,而且CPU只与寄存器中进行存取。(寄存的意思是,暂时存放数据,不中每次从内存中取,它就是一个临时放数据的空间)而寄存器的数据又来源于内存。于是 CPU<--->寄存器<----->内存 这就是它们之间的信息交换。然而如果老是操作内存中的同一址地的数据,就会影响速度。于是就在寄存器与内存之间设置一个缓存。因此就关系就变化成了 CPU<---->寄存器<---->缓存<----->内存
 这里就知道了,在mov指令中。寄存器会去取缓存中的值,进行加1操作然后保存再缓存中。这个时候并不是再内存中。因此需要加上一个内存屏障。而关于内存屏障,这里在进行解释一下。是不是感觉好多- -,我也觉得好多哈哈。
 内存屏障:cpu会把无关的内存操作乱序化处理,目的很单纯,就是提升性能。但cpu这种自以为是的单方处理,在多cpu间或者cpu与io设备间的交互操作时会有问题。而内存屏障就是为解决问题而生的。内存屏障, 是一类同步屏障指令,是CPU或编译器在对内存随机访问的操作中的一个同步点,使得此点之前的所有读写操作都执行后才可以开始执行此点之后的操作。
 常见的x86/x64,通常使用lock指令前缀加上一个空操作来实现,Linux中采用的

addl $0, 0 (%esp)

 语义上,内存屏障之前的所有写操作都要写入内存;内存屏障之后的读操作都可以获得同步屏障之前的写操作的结果。这一点就保证了可见性,同时也禁止了重排序。
 这里再对内存屏障进行讲解一下。

屏障类型说明
写内存屏障该屏障之前的写操作和之后的写操作相比,先被系统其它组件感知,一般与读屏障或数据依赖屏障一起使用
数据依赖屏障数据依赖屏障是读屏障的弱版本,仅保证(有依赖)部分的读操作有序。
读屏障读屏障内置了数据依赖屏障,同时保证读屏障之前的读操作相比读屏障之后的读操作,会先被系统其它组件感知。读屏障一般需要和写屏障配对使用
通用内存屏障通用内存屏障保证该屏障之前的读/写操作和之后的读/写操作相比,会先被系统其它组件感知。其实就是读写屏障的集合

内存屏障对以下内容不做保证:

  1. 不保证内存屏障之前的内存操作在该内存屏障指令完成前完成,因为它保证的仅是相对顺序。
  2. 本cpu上的内存屏障不会直接影响其他cpu,而是间接影响(通过改变其感知顺序)。
  3. 不保证cpu1能看到cpu2的正确顺序,即使cpu2使用了内存屏障,除非cpu1也用了(正确的)配对内存屏障。
    关于volatile内存语义,这里参考《Java并发编程艺术》一书中的说法
操作
volatile读操作插入LoadLoad屏障(禁止后面所有普通读和上面volatile读重排序),插入LoadStore屏障(禁止后面普通写和上面的volatile读重排序)
volatile写操作插入StoreStore屏障(保证volatile写之前,其前面的所有普通鞋已经对任意处理器可见)插入StoreLoad屏障(避免volatile写后面可能有volatile读/写操作重排序)

 X86处理器平台仅会对写-读操作重排序,不会对读-读,读-写和写-写进行重排序操作,因此在X86中,JMM仅仅需要在volatile写后面插入一个StoreLoad屏障就可以实现volatile写-读的内存语义。所以,在X86处理器中,volatile写的开销比volatile读的开销会大很多(因为要执行StoreLoad屏障)
 这里就是对volatile的解释了

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值