Java并发(二):原子操作的实现原理与Java内存模型

原子操作的实现原理

处理器使用总线锁定和缓存锁定这两个机制来保证复杂内存操作的原子性

总线锁定

我们来分析一下i++

当多个线程去执行i++的时候,是会出现并发问题的,因为i++并不是一个原子的操作,它分为三步,典型的读改写操作

  1. 从内存中读取i的值,并且存储到线程本地内存中
  2. 线程根据本地内存的副本执行加1
  3. 然后将副本写回到内存中

并发的问题就在于,当一个线程读改写共享变量的时候,另一个线程已经缓存了共享变量的旧值

所以,解决问题的关键旧在于,当一个线程要开始读改写共享变量的时候,其他线程是不能执行的

处理器可以使用总线锁定来解决这个问题,CPU需要通过总线才能从内存中读取数据,总线锁的本质其实就是一个lock信号,当一个线程在总线上输出了这个信号,那么其他线程的请求将会被阻塞,此时这个线程就可以独享共享内存了,所以三步都是要带上lock信号的,volatile就是使用lock信号来实现的

缓存锁定

使用总线锁定固然可以解决共享变量的问题,但总线锁定会阻塞其他线程的所有请求,那么不操作共享变量的线程也会被阻塞,效率会降低,而且开销比较大

所以就使用处理器的缓存一致性协议来实现锁定,缓存一致性协议会阻止同时修改由两个以上处理器缓存的内存区域数据,所以处理器不需要使用Lock信号来锁定总线,而是通知其他线程放弃自己内部的数据,去主内存重新去获取数据

Java的原子操作实现

Java的原子操作的实现是通过锁和循环CAS的方式来实现原子操作的

而CAS的底层实现,是一条指令cmpxchg,这样就让比较和修改成为了一个原子性操作

那问题来了,这条指令也可能会发生指令重排序,特别是多处理器的时候(多处理器的作用就是减少线程上下文的切换,因为运算器只有一个,所以只能被一个处理器调用,所以执行命令上,单处理器跟多处理器是差不多的)

单处理器自身会维护顺序一致,不需要内存屏障,但多处理器无法进行维护顺序一致,所以在多处理器的时候,会加上一个lock前缀

所以完整的命令为lock cmpxchg

lock前缀的作用就是提供内存屏障从而防止指令重排序,同时保证指令的原子性,因为lock的功能是锁住总线,那么其他处理器暂时无法通过总线去访问内存的

所以,lock指令不单是volatile的底层实现,同时也是多处理器的cas实现

循环时间开销大

CAS可以不让线程挂起,从而提高线程的执行效率,但这不一定是好事,前面已经提到过,CAS自旋也是会消耗CPU性能的,假如一个线程迟迟不释放锁,那么其他线程就会造成很大的消耗,循环时间开销大

只能保证一个共享变量的原子操作

CAS只可以保证一个共享变量的原子操作,对于多个变量是无法保证的,这个时候就必须要使用锁。

注意,cas是一种机制,volatile是另一种机制

Java内存模型

Java内存模式,java memory model简称JMM,也就是Java虚拟机的内存是怎样的

他控制着Java线程之间是如何进行通信的,因为线程之间有着各自的状态,所以为了实现同步,必须要进行通信

Java内存模型的抽象结构

在Java中,所有实例域、静态域和数组元素都存储在堆内存中,堆内存在线程之间是共享的,所以称为共享变量,但一些线程本身的局部变量(local variables)、方法定义参数和异常处理器参数是不会在线程之间共享的,这三个是没有内存可见性的,当然也不受Java内存模型的影响

在这里插入图片描述

从上面的抽象结构可以看出,如果线程A与线程B要进行通信,必须要经历下面两个步骤

  1. 线程A把自己本地内存A的共享变量副本更新到主内存中
  2. 线程B到主内存中重新把共享变量读取进自己的本地内存

总的来说,也就是两个线程之间的通信必须要经过主内存才能进行,JMM通过控制主内存与每个线程的本地内存之间的交互,从而实现线程之间内存可见性

指令重排序

前面已经讲过,CPU会发生指令重排序的,这是编译器和处理器为了提高性能,常常会对指令做重排序,而重排序也分为3种类型

  1. 编译器优化的重排序,一般这个是针对单线程的,在不改变单线程程序语义的前提下,可以重新安排语句的执行顺序,也就是改变你写的代码的执行顺序,比如说初始化变量

  2. 指令级并行的重排序,现在的处理器可以将多条指令重叠执行(即一组指令一起执行,宏观和微观上都是一起执行的,区别于并发,并发宏观上看起来是一起发生,但微观上仍然是逐个进行的),如果指令之间不存在数据依赖性,那么处理器是可以改变语句对应机器指令的执行顺序,当然可以使用内存屏障来防止指令重排序

  3. 内存系统的重排序,处理器使用缓存和读写缓冲区,使得加载和写入操作可能是乱序执行的,缓存就是指处理器的本地内存而不是主存,写缓冲区是用来临时保存内存写入的数据

前面两个重排序都比较好理解,下面就讲一下什么是内存系统的重排序

处理器写的时候,为了保证写指令可以持续运行,也就是降低连续写入数据时产生的停顿,一般对于新的数据都是以批处理的方式刷新写缓冲区的,来合并写缓冲区中对于同一内存地址的多次写,减少对总线的占用,但这也会产生缺点,由于写缓冲区是每个线程独有的,仅仅自己可见,其他线程不会等待当前线程刷新写缓冲区,然后再去读

假如此时两个处理器分别进行写和读另一个处理器的数据,在处理器的指令上是先写后读,但实际的执行顺序是还没写完就读,因为新数据是批量刷新的,要等待一会才刷新,因此最后读出来的数据都是默认值而不是线程初始化的值

举个栗子,一个线程修改a变量,同时去获取b变量,另一个线程修改b变量,同时去获取a变量,一开始在主内存中a变量和b变量都为0

在这里插入图片描述
整个过程如上图所示

此时线程A和线程B都执行了修改的指令,也就是执行了A1和B1,然后线程A和线程B就要去获取对方修改的变量了,虽然此时A2和B2还没有完成,但线程A和线程B并不会停止去等待完成,而是去执行A3和B3去获取,所以最终获得结果依然为0,从内存操作上看,这就发生了一个重排序的过程,相当于先执行了读(A3)然后再执行完整的写(A1和A2),也就是Store-Load重排序,Store指的是写并且要确保是刷新进了主内存,并对其他线程是可见的,而Load指的是加载数据

为了禁止重排序,Java编译器在生成指令序列的适当位置会插入内存屏障来禁止特定类型的处理器重排序

内存屏障总共有4种

屏障类型指令示例说明
Load Load BarriersLoad1;Load Load Barriers;Load2Load1和Load2不能发生重排序
Store Store BarriersStore1;Store Store Barriers;Store2Store1和Store2不能发生重排序
Load Store BarriersLoad1;Load Store Barriers;Store2Load1和Store2不能发生重排序
Store Load BarriersStore1;Store Load Barriers;Load1Store1和Load1不能发生重排序
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值