什么是内存屏障(Memory Barrier)以及在java中的应用

本文深入探讨了内存屏障的概念,包括指令重排序、Java内存模型的Happens-Before原则,以及不同类型的内存屏障如何在Java中应用,以确保多线程环境下的数据一致性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1. 指令重排序

程序在运行时内存实际的访问顺序和程序代码编写的访问顺序不一定一致,这就是内存乱序访问。内存乱序访问行为出现的理由是为了提升程序运行时的性能。这种内存乱序问题主要是由两种原因引起的:

  • 编译器在编译时进行了编译优化,导致指令重排;
  • 在多cpu环境下,为了尽可能地避免处理器访问主内存的时间开销,处理器大多会利用缓存(cache)以提高性能。在这种模型下会存在一个现象,即缓存中的数据与主内存的数据并不是实时同步的,各CPU(或CPU核心)间缓存的数据也不是实时同步的。这导致在同一个时间点,各CPU所看到同一内存地址的数据的值可能是不一致的。从程序的视角来看,就是在同一个时间点,各个线程所看到的共享变量的值可能是不一致的。

为什么需要内存屏障
我们知道,在多CPU(核)场景下,为了充分利用CPU,会通过流水线将指令并行进行。为了能并行执行,又需要将指令进行重排序以便进行并行执行,那么问题来了,那些指令不是在所有场景下都能进行重排,除了本身的一些规则(如Happens Before 规则)之外,我们还需要确保多CPU的高速缓存中的数据与内存保持一致性, 不能确保内存与CPU缓存数据一致性的指令也不能重排,内存屏障正是通过阻止屏障两边的指令重排序来避免编译器和硬件的不正确优化而提出的一种解决办法

 

2. java 内存模型中的happen before原则

JSR-1337制定了Java内存模型(Java Memory Model, JMM)中规定的hb原则大致有以下几点:

  • 程序次序法则:线程中的每个动作A都happens-before于该线程中的每一个动作B,其中,在程序中,所有的动作B都能出现在A之后。
  • 监视器锁法则:对一个监视器锁的解锁 happens-before于每一个后续对同一监视器锁的加锁。
  • volatile变量法则:对volatile域的写入操作happens-before于每一个后续对同一个域的读写操作。
  • 线程启动法则:在一个线程里,对Thread.start的调用会happens-before于每个启动线程的动作。
  • 线程终结法则:线程中的任何动作都happens-before于其他线程检测到这个线程已经终结、或者从Thread.join调用中成功返回,或Thread.isAlive返回false。
  • 中断法则:一个线程调用另一个线程的interrupt happens-before于被中断的线程发现中断。
  • 终结法则:一个对象的构造函数的结束happens-before于这个对象finalizer的开始。
  • 传递性:如果A happens-before于B,且B happens-before于C,则A happens-before于C

jmm 对java语义的比较重要的两个扩展是:

  • 对volatile语义的扩展保证了volatile变量在一些情况下不会重排序,volatile的64位变量double和long的读取和赋值操作都是原子的。
  • 对final语义的扩展保证一个对象的构建方法结束前,所有final成员变量都必须完成初始化(前提是没有this引用溢出)。

3. 内存屏障(Memory Barrier)

  • Memory barrier 能够让 CPU 或编译器在内存访问上有序。一个 Memory barrier 之前的内存访问操作必定先于其之后的完成。
  • Memory barrier是一种CPU指令,用于控制特定条件下的重排序和内存可见性问题。Java编译器也会根据内存屏障的规则禁止重排序。
  • 有的处理器的重排序规则较严,无需内存屏障也能很好的工作,Java编译器会在这种情况下不放置内存屏障。

Memory Barrier可以被分为以下几种类型:

  • LoadLoad屏障:对于这样的语句Load1; LoadLoad; Load2,在Load2及后续读取操作要读取的数据被访问前,保证Load1要读取的数据被读取完毕。
  • StoreStore屏障:对于这样的语句Store1; StoreStore; Store2,在Store2及后续写入操作执行前,保证Store1的写入操作对其它处理器可见。
  • LoadStore屏障:对于这样的语句Load1; LoadStore; Store2,在Store2及后续写入操作被刷出前,保证Load1要读取的数据被读取完毕。
  • StoreLoad屏障:对于这样的语句Store1; StoreLoad; Load2,在Load2及后续所有读取操作执行前,保证Store1的写入对所有处理器可见。它的开销是四种屏障中最大的。在大多数处理器的实现中,这个屏障是个万能屏障,兼具其它三种内存屏障的功能

参考https://www.cnblogs.com/chenyangyao/p/5269622.html可以得知:

  • Oracle的JDK中提供了Unsafe. putOrderedObject,Unsafe. putOrderedInt,Unsafe. putOrderedLong这三个方法,JDK会在执行这三个方法时插入StoreStore内存屏障,避免发生写操作重排序。而在Intel 64/IA-32架构下,StoreStore屏障并不需要,Java编译器会将StoreStore屏障去除。比起写入volatile变量之后执行StoreLoad屏障的巨大开销,采用这种方法除了避免重排序而带来的性能损失以外,不会带来其它的性能开销。具体用法可以看下disruptor的Sequence的set方法。
  • Intel 64/IA-32架构下写操作之间不会发生重排序,也就是说在处理器上操作的顺序是可以保证的,这时候使用volatile来避免重排序是多此一举的。但是,Java编译器却可能生成重排序后的指令。采用putOrderedObject可以解决这个问题。
  • 即使在其它会发生写写重排序的处理器中,由于StoreStore屏障的性能损耗小于StoreLoad屏障,采用这一方法也是一种可行的方案。但值得再次注意的是,这一方案不是对volatile语义的等价替换,而是在特定场景下做的特殊优化,它仅避免了写写重排序,但不保证内存可见性。

4. volatile语义中的内存屏障

  • 在每个volatile写操作前插入StoreStore屏障,在写操作后插入StoreLoad屏障;
  • 在每个volatile读操作前插入LoadLoad屏障,在读操作后插入LoadStore屏障;

volatile的内存屏障策略非常严格保守,保证了线程可见性。

5. final语义中的内存屏障

  • 新建对象过程中,构造体中对final域的初始化写入(StoreStore屏障)和这个对象赋值给其他引用变量,这两个操作不能重排序;
  • 初次读包含final域的对象引用和读取这个final域(LoadLoad屏障),这两个操作不能重排序;
  • Intel 64/IA-32架构下写操作之间不会发生重排序StoreStore会被省略,这种架构下也不会对逻辑上有先后依赖关系的操作进行重排序,所以LoadLoad也会变省略。

常见的应用场景

(1)通过 Synchronized关键字包住的代码区域,当线程进入到该区域读取变量信息时,保证读到的是最新的值.这是因为在同步区内对变量的写入操作,在离开同步区时就将当前线程内的数据刷新到内存中,而对数据的读取也不能从缓存读取,只能从内存中读取,保证了数据的读有效性.这就是插入了StoreStore屏障;
(2)使用了volatile修饰变量,则对变量的写操作,会插入StoreLoad屏障;
(3)其余的操作,则需要通过Unsafe这个类来执行;
 

参考

<think>嗯,用户问的是内存屏障,这应该和计算机体系结构或者并发编程有关。首先,我得回忆一下内存屏障的基本概念。内存屏障,也叫内存栅栏,是一种同步机制,用来保证内存操作的顺序性。对吧? 那用户可能是在学习多线程编程的时候遇到了问题,比如指令重排导致的数据不一致。这时候需要内存屏障来防止编译器和处理器进行某些优化,确保操作顺序正确。比如在Java中的volatile变量,或者C++中的原子操作,背后可能都用到了内存屏障。 接下来,用户可能需要了解内存屏障的作用原理。比如,处理器为了优化性能,可能会乱序执行指令,或者缓存不一致导致不同线程看到不同的数据顺序。内存屏障可以强制在屏障之前的所有操作完成后,才能执行屏障之后的操作。 还要考虑内存屏障的类型。不同的架构可能有不同的屏障类型,比如读屏障、写屏障、全屏障。比如,读屏障确保所有之前的读操作完成,写屏障确保所有之前的写操作完成,全屏障则是读写都保证。 用户可能还想知道实际应用中的例子。比如,在实现锁或者信号量时,内存屏障用来确保临界区的操作不会被重排到锁外,从而避免数据竞争。或者在内核开发中,设备驱动需要确保内存访问的顺序正确,防止硬件读取到错误的数据。 另外,需要解释内存屏障和缓存一致性的关系。缓存一致性协议(如MESI)保证了多核之间的缓存同步,但内存屏障更多是关于指令顺序,两者虽然相关但解决的问题不同。 可能还要提到不同的编程语言中的内存屏障实现,比如C++11中的std::atomic_thread_fence,或者Java中的Unsafe类中的相关方法。不过用户可能更关心概念层面的理解,而不是具体语言的实现。 最后,要确保回答结构清晰,分点说明内存屏障的作用、类型、应用场景,以及和缓存一致性的区别。避免使用过于专业的术语,用通俗的中文解释,帮助用户逐步理解。</think>内存屏障Memory Barrier)是计算机系统中用于控制内存操作顺序的底层同步机制。它在并发编程、操作系统内核和硬件交互中发挥重要作用,主要解决由编译器优化和处理器乱序执行引发的内存可见性问题。 ### 一、核心作用 1. **禁止指令重排** - 编译器优化可能调整指令顺序 - CPU乱序执行会改变实际执行顺序 - 内存屏障强制屏障前后的操作保持相对顺序 2. **保证内存可见性** - 确保一个CPU核心的写入对其他核心可见 - 强制刷新CPU缓存(如L1/L2缓存)到主内存 3. **实现顺序一致性** - 不同线程观察到的内存操作顺序符合程序逻辑 ### 二、主要类型(以x86架构为例) | 屏障类型 | 作用范围 | 典型指令 | |-------------------|---------------------------|----------------| | **写屏障** | 保证屏障前所有写操作完成 | `sfence` | | **读屏障** | 保证屏障前所有读操作完成 | `lfence` | | **全屏障** | 读写操作均需完成 | `mfence` | ### 三、典型应用场景 1. **锁机制实现** - 加锁时插入读屏障:`lock.lock()` ```c // 伪代码示例 while (test_and_set(&lock)) ; __asm__ volatile ("lfence" ::: "memory"); // 读屏障 ``` - 解锁时插入写屏障:`lock.unlock()` ```c __asm__ volatile ("sfence" ::: "memory"); // 写屏障 clear(&lock); ``` 2. **无锁数据结构** 在多生产者/消费者队列中保证指针更新的原子性: ```c // 写入数据 buffer[head] = data; __asm__ volatile ("sfence" ::: "memory"); // 确保数据写入完成 head = new_head; // 读取数据 __asm__ volatile ("lfence" ::: "memory"); // 确保读取最新值 data = buffer[tail]; ``` 3. **设备驱动开发** 当与硬件设备交互时,确保IO操作的严格顺序: ```c write_to_device(REG_CMD, command); __asm__ volatile ("mfence" ::: "memory"); // 全屏障 check_device_status(); ``` ### 四、与缓存一致性的关系 - **缓存一致性协议**(如MESI)解决多核数据同步问题 - **内存屏障**解决操作顺序问题 - 两者协同工作但解决不同维度的问题 ### 五、不同编程语言的实现 | 语言 | 实现方式 | 示例 | |----------|-----------------------------|-------------------------------| | **C/C++**| 编译器内置指令 | `__sync_synchronize()` | | **Java** | `volatile`变量 | `volatile int flag;` | | **Rust** | `std::sync::atomic` | `fence(Ordering::SeqCst)` | ### 六、性能注意事项 1. 过度使用会导致性能下降 2. 需要根据具体架构选择最小必要屏障类型 3. 现代CPU(如x86)具有较强内存模型,实际需要的显式屏障比弱内存模型架构(如ARM)更少 通过合理使用内存屏障,开发者可以在保证正确性的同时,最大限度地发挥现代处理器的并行计算能力。理解这一机制对开发高性能并发系统、操作系统内核和硬件驱动至关重要。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值