C++ 内存模型

C++内存模型

关于C++内存模型

2004年,Java 5.0引入了适用于多线程环境的内存模型[2]:JSR-133[3]。但C++直到2011标准才引入了内存模型。

Java内存模型在很大程度上影响了C++内存模型,但后者走得更远。因为它允许开发者打破顺序一致性(Sequential
Consistency,我们会在下文中讲解),以获得更好的控制。
之所以这么做是因为C++是一门系统编程语言,它的设计意图之一就是:不需要另外一个更底层的语言,而是直接提供给开发者以”接近机器“的方式编程。
即便大多数程序员不用在意内存模型,但是当你以“接近机器”的方式工作时,了解这些原理就很重要了。
内存模型是多线程环境能够可靠工作的基础,因为内存模型需要对多线程环境的运作细节进行完备的定义。
简单来讲,可以认为内存模型是一种契约。它定义一套操作手法以及这些操作手法背后的详细含义。开发者利用这套操作完成数据的同步以避免竞争条件,而系统(包括:编译器,操作系统和处理器)保证执行的逻辑符合内存模型对于相关操作的定义
– 即实现契约。 内存模型主要包含了下面三个部分:
元子操作:顾名思义,这类操作一旦执行就不会被打断,你无法看到它的中间状态,它要么是执行完成,要么没有执行。
操作的局部顺序:一系列的操作不能被乱序。
操作的可见性:定义了对于共享变量的操作如何对其他线程可见。

为什么需要内存模型?

在C++11标准出来之前,C++环境没有多线程的概念。编译器和处理器认为系统中只有一个执行流。引入了多线程之后,情况就会变得非常复杂。这是因为:现代计算机系统为了加快执行效率,自动的包含了很多的优化。这些优化虽然保证了在单线程环境下不破坏原来的逻辑。但是一旦到了多线程之后,情况就不一样了。
事实上,开发者编写的代码和最终运行的程序往往会存在较大的差异,而运行结果与开发者预想一致,只是一种“假象”罢了。
之所以会产生差异,原因主要来自下面三个方面:
 1. **编译器优化** 
 2. **CPU out-of-order执行** 
 3. **CPU Cache不一致性**

下面我们来逐个介绍。

Memory Reorder
以下面这段伪代码为例:

X = 0, Y = 0;
Thread 1: 
	X = 1; // ①
	r1 = Y; // ②
Thread 2: 
	Y = 1;
	r2 = X;

你可能会觉得,在这个程序执行完成之后,r1和r2怎么都不可能同时为0。但事实并非如此[4]。

这是因为“Memory Reorder”的存在,“Memory Reorder”包含了编译器和处理器两种类型的乱序。

程序架构这就导致:线程1中事件发生的顺序虽然是先①后②,但是对于线程2来说,它看到结果可能却是先②后①。当然,线程1看线程2也是一样的。
甚至,当今的所有硬件平台,没有任何一个会提供完全的顺序一致(sequentially consistent)内存模型,因为这样做效率太低了。
不同的编译器和处理器对于Memory Reorder有不同的偏好,但它们都遵循一定的原则,那就是:不能修改单线程的行为(Thou shalt not modify the behavior of a single-threaded program.[5])。在这个基础上,它们可以做各种类型的优化。

编译器优化
以gcc为例,该编译器提供了-o参数来控制非常多的优化选项[6]。
以下面这段代码为例:

int A, B;
void foo()
{
    A = B + 1;
    B = 0;
}

在编译优化后,可能会变成下面这样:

int A, B;
void foo()
{
    int temp = B;
    B = 0;
    A = temp + 1;
}

请注意,编译器只要保证:在单线程环境下,执行的结果和原先一样就可以了。所以,这样做是可以的。
对于编译器来说,它知道的是:当前线程中,数据的读写以及数据之间的依赖关系。但是,编译器并不知道哪些数据是在线程间共享,而且是有可能会被修改的。这就需要开发者在软件层面做好控制。
对于编译器的乱序优化来说,开发者并非完全不能控制。编译器会提供称之为内存栅栏(Memory Barrier)[7]的工具给开发者,让开发者告诉编译器:这部分代码编译的时候不能乱序。
gcc的内存栅栏写法如下:

int A, B;
void foo()
{
    A = B + 1;
    asm volatile("" ::: "memory");
    B = 0;
}

Out-of-order执行
不仅仅是编译器,处理器也可能会乱序执行指令。

Cache Coherency
事情还不只这么简单。现代的主流CPU几乎都会包含多个核以及多级Cache.

每个CPU核在运行的时候,都会优先考虑离自己最近的Cache,一旦命中就直接使用Cache中的数据。这是因为Cache相较于主存(RAM)来说要快很多。但是每个核之间的Cache,每一层之间的Cache,数据常常是不一致的。而同步这些数据是需要消耗时间的。
这就会造成一个问题,那就是:某个CPU核修改了一个数据,没有同步的让其他核知道,于是就存在了数据不一致的情况。
综上这些原因让我们知道,CPU所运行的程序和我们编写的代码可能是不一致的。甚至,对于同一次执行,不同线程感知到其他线程的执行顺序可能都是不一样的。
因此内存模型需要考虑到所有这些细节,以便让开发者可以精确控制。因为所有未定义的行为都可能产生问题。

对象和内存位置
C++内存模型中的基本存储单位是字节。一个字节至少足够大,能够包含基本执行字符集的任何成员以及Unicode UTF-8编码形式的八位代码单元,并且由连续的位序列组成。
C++中所有数据都是由对象组成的。
这里的对象包括了简单基本类型(如int和double),也包括了指针类型(如my_class*)。当然,也包括各种class定义的类的对象。
无论是什么类型,一个对象均包含了一个或多个内存位置。每个内存位置一定是下面两种情况中的一种:

标量类型(Scalar Type)的对象,标量类型包括下面几种:
数字类型:整数或者浮点数
T *指针类型
枚举类型
指向成员的指针
nullptr_t
相邻位域(Bit field)[13]的最大序列

位域
位域声明具有以“位”为单位的明确大小的类数据成员。相邻的位域成员可以打包成共享和跨过各个字节。
例如这样:

struct S {
 // 三位的无符号位域,
 // 允许值为 0...7
 unsigned int b : 3;
};

位域的值必须大于等于0。值0比较特殊,它仅允许使用在无名位域上。并且它具有特殊含义:它指定类定义中的下个位域将始于分配单元的边界。
由此,请看一下下面的例子:

struct S {
    char a;         // 内存位置 #1
    int  b : 5;     // 内存位置 #2
    int  c : 11,    // 内存位置 #2 (接续,相邻位域占用同一个内存位置)
           : 0,     // 无名位域,分隔了下一个位域
         d : 8;     // 内存位置 #3 (由于存在0值无名位域,这里是一个新的内存位置)
    struct {
        int ee : 8; // 内存位置 #4
    } e;
} obj;

可以看到,这个结构包含了4个内存位置。
之所以介绍内存位置,是因为这与内存模型密切相关。
如果多个线程各自访问的是不同的内存位置,那么就不会有什么问题。但是,如果它们同时访问了相同的内存位置,那就要小心了。
**当多个线程访问同一个内存位置,并且其中只要有一个线程包含了写操作,如果这些访问没有一致的修改顺序,那么结果就是未定义的。**也就是说:可能会发生bug。

修改顺序
我们已经知道,C++中的数据都是由对象组成。一个对象包含了若干个内存位置。
每个对象从初始化开始,直到最终销毁,在其生命周期的范围内,对它进行的访问必须有一个确定的修改顺序,这个顺序包含了所有线程的访问操作。
虽然程序的每一次运行,这个顺序可能是不一样的(例如:CPU资源的变化,调度器的影响),但是针对其中具体的某一次来说,必须有一个“一致的顺序”,这个顺序要被所有的线程认可,并且可见。
例如:一旦某个线程修改了一个数据,这个操作必须要让所有线程知道,在修改操作之后,所有线程都应该得到修改后的值。
从数据类型的角度来说,有两种情况:
对于原子类型(见下文):由编译器保证数据的同步。
对于非原子类型:由开发者保证。

在《C++ 并发编程》[14]一文中,就是通过互斥体来对非原子类型数据进行数据同步的。
并发编程的难点之一就在于:识别出系统中那些在线程共享且可能会被修改的数据,并对它们做“合理”的保护。之所以强调这一点,是因为对于共享数据的保护本质上是在对抗编译器和处理器的优化,所以保护不能过度(在讲解并发编程的时候我们提到了锁的粒度)。
我们必须在保证正确性的基础上尽可能少的干扰编译器和处理器的优化:对于那些没有访问共享数据,或者对于所有线程来说都是只读的数据来说,这部分代码就任由编译器和处理器优化好了。
另外还有一点需要说明的是,这里说的是:对于每一个变量来说,要有明确的修改顺序。但是这并不要求所有的变量存在一个全局的一致顺序。这意味着,当将多个变量的访问顺序放在一起看的时候,不同线程看到的顺序可能是不一样的。
你现在可能会觉得这很难理解,在随着下文的讲解,相信你会更明白其中的含义。

关系术语

sequenced-before
sequenced-before是一种单线程上的关系,这是一个非对称,可传递的成对关系。
对于两个操作A和B,如果A sequenced-before B,则A的执行应当在B的前面,并且A执行后的结果B也能看到,它引入了一个局部有序性。
同一个线程中的多个语句之间就是sequenced-before关系,例如:

int i = 7; // ①
i++;       // ②

这里的 ① sequenced-before ② 。

happens-before

happens-before关系是sequenced-before关系的扩展,因为它还包含了不同线程之间的关系。 如果A
happens-before B,则A的内存状态将在B操作执行之前就可见,这就为线程间的数据访问提供了保证。
同样的,这是一个非对称,可传递的关系。 如果A happens-before B,B happens-before C。则可推导出A
happens-before C。

synchronizes-with

synchronizes-with描述的是一种状态传播(propagate)关系。如果A synchronizes-with
B,则就是保证操作A的状态在操作B执行之前是可见的。
下文中我们将看到,原子操作的acquire-release具有synchronized-with关系
除此之外,对于锁和互斥体的释放和获取可以达成synchronized-with关系,还有线程执行完成和join操作也能达成synchronized-with关系。
最后,借助 synchronizes-with 可以达成 happens-before 关系。

原子类型与原子操作

要理解内存模型,首先需要掌握C++11提供的原子类型(atomic types)和原子操作(atomic operation)。
原子类型不是一个类,而是一系列类,它们都位于头文件中。原子类型中包含了原子操作。但也有一些原子类型之外的原子操作。
下面是基本类型对应的原子类型。第一列是类型的别名(为了方便使用),第二列是类型的原始定义。

关于volatile和原子类型:Java和C++都有volatile关键字。但同样的关键字在不同的语言中有着不同的含义。Java中的volatile和C++的原子类型是类似的含义。而C++中的volatile是禁止编译器对这个变量进行优化。

//类型别名	类型定义
atomic_bool			std::atomic
atomic_char			std::atomic
atomic_schar			std::atomic
atomic_uchar			std::atomic
atomic_int				std::atomic
atomic_uint			std::atomic
atomic_short			std::atomic
atomic_ushort		std::atomic
atomic_long			std::atomic
atomic_ulong			std::atomic
atomic_llong			std::atomic
atomic_ullong		std::atomic
atomic_char16_t	std::atomic<char16_t>
atomic_char32_t	std::atomic<char32_t>
atomic_wchar_t		std::atomic<wchar_t>

除了上面这些,还有更多关于整形类型的原子类型,详见:cppreference std::atomic[15]。
“原子操作”正如其名称所示:该操作要么是执行完了,要么是没有执行,从任何一个线程中,都无法观察到中间状态。以原子读操作为例:如果有其他线程进行了原子写操作,那么原子读操作,要么获取到的是修改前的值,要么是修改后的,不会是修改了一半的值。
而非原子类型就不一样了。如果尝试修改非原子类型对象,其他线程可能看到的既不是修改前的值,也不是修改后的值。关于这一点,在C++ 并发编程中,我们就看到了非原子类型所引起的问题。
需要注意的是,所有原子类型都不支持拷贝和赋值。因为该操作涉及了两个原子对象:要先从另外一个原子对象上读取值,然后再写入另外一个原子对象。而对于两个不同的原子对象上单一操作不可能是原子的。
不同的原子类型包含了不同的原子操作,下表将原子类型分为四类,并列出了它们所支持的操作(为了简洁,列名上类名中的atomic用#代替)。
在这里插入图片描述atomic_flag

atomic_flag是最简单的原子类型,它代表一个布尔标志。它只包含两个状态:设置(值设为true)或者清除(值设为false)。
atomic_flag必须通过ATOMIC_FLAG_INIT初始化,这会将其设置为清除状态(这是唯一的选择)。像下面这样:

std::atomic_flag f = ATOMIC_FLAG_INIT;

在初始化之后,atomic_flag只支持下面两个操作:

  1. test_and_set:将值设为true并返回原先的值。
  2. clear:清除,即:将值设为false。

atomic_flag过于原始以至于它很少被使用。通常情况下,atomic_bool是更好的选择。

is_lock_free

除了atomic_flag之外,其他的原子类型都支持is_lock_free。可以通过这个接口来查询此类型的对象上的原子操作是否免锁。
规范要求atomic_flag的原子操作都是免锁的,但是其他类型是否免锁与具体的平台有关。

load,store和exchange

虽然原子类型不支持拷贝和赋值操作,但是它们提供了原子操作来查询和设置值。具体如下:
load:原子地获得原子对象的值。
store:原子地以非原子对象替换原子对象的值。
exchange:原子地替换原子对象的值并获得它先前持有的值。 请注意,这三个操作使用的和返回的都是非原子类型的值。

比较和改变

compare_exchange_weak 和 compare_exchange_strong是两个类似的方法。 它们都接受两个输入值:T& expected和T
desired。这两个方法会比较原子变量实际值和所提供的预计值(expected),如果两者相等,则更新原子变量值为提供的期望值(desired)。否则,保持原子变量值不变。如果原子变量值发生了变化,则返回true,否则返回false。
以上是这两个方法一样的地方。而不一样的地方在于:在一些缺少单个比较交换指令[17]的机器上,即使原始值等于预计值(expected),compare_exchange_weak也可能失败并返回false,这称之为伪失败(spurious
failure)。 因此,调用compare_exchange_weak通常需要在一个循环中完成。

bool expected = false;extern atomic<bool> b;
// set somewhere else while(!b.compare_exchange_weak(expected,true) && !expected);

另一方面,仅当实际值不等于expected时,compare_exchange_strong才会返回false。
相较而言,compare_exchange_strong使用更方便。但在一些平台上,使用compare_exchange_weak可能更高效。

指针原子类型

对于某种类型T的指针原子类型是std::atomic<T*>。
指针类型在上面介绍的一些操作之外,还提供了通过偏移值调整指针位置的操作:
fetch_add 或 +=:增加指定的值。 fetch_sub 或 -=:减少指定的值。
++ 和 --:自增和自减。 上面这些操作与我们熟悉普通操作逻辑是一样的,只不过这里的都是原子操作。

整形原子类型

指针原子类型的所有操作对于整形原子类型都是支持的。除此之外,整形原子类型还支持“或”,“与”以及“异或”(eXclusive
OR)三种逻辑操作。
请注意,没有原子操作的乘法和除法[18]。
另外有一点需要说明的是,对于指针原子类型和整形原子类型支持的操作中,所有命名函数(例如:fetch_add,
fetch_or)返回的是修改前的值。而复合赋值运算符(例如:+=, |=)返回的是修改后的值。前缀与后缀的自增自减跟普通运算一样:++x
返回新的值,x++返回旧的值。

memory_order
关于原子操作的内容,其实前面我们只说了一半。另外一半的内容就在这些操作支持的一个可选参数上。
所有原子类型中包含的原子操作,以及自由函数中带有_explicit后缀的函数,这些操作都支持一个类型为 std::memory_order 的可选参数。这个参数是一个枚举类型,可能的取值如下:

typedef enum memory_order {
memory_order_relaxed,   //不对执行顺序做任何保证
memory_order_consume,		//本线程中,所有后续的有关原子类型的操作,必须在本条原子操作完成后执行。
memory_order_acquire,   //本线程中,所有后续的读操作必须在本条原子操作完成后执行。
memory_order_release,		//本线程中,所有之前的写操作完成后才能执行本条原子操作
memory_order_acq_rel,		//同时包含memory_order_acquire和memory_order_release
memory_order_seq_cst		//全部存取都按顺序执行
}memory_order;

首先,并非每一种memory_order对于每一个原子操作都有意义。它们的使用需要有特定的配合。
而对于每一个分类,有意义的memory_order参数如下。

Read: memory_order_relaxed, memory_order_consume, memory_order_acquire, memory_order_seq_cst
Write: memory_order_relaxed, memory_order_release ,memory_order_seq_cst
Read-modify-write: memory_order_relaxed, memory_order_acq_rel, memory_order_seq_cst

举例来说,因为store是一个Write操作,当调用store时,指定memory_order_relaxed或者memory_order_release或者memory_order_seq_cst是有意义的。而指定memory_order_acquire是没有意义的。
当多个线程中包含了多个原子操作,这些原子操作因为其memory_order的选择不一样,将导致运行时不同的内存模型强度。从强至弱,有三种情况:

  1. Sequential Consistency:顺序一致性,简称 seq-cst。
  2. Acquire and Release:获取和释放,简称 acq-rel。
  3. Relaxed:松散模型。

seq-cst 模型
当使用原子操作而又不指定memory_order时将使用默认的内存顺序:memory_order_seq_cst,因此调用这些函数时指定或者不指定这个值效果是一样的。
这是最严格的内存模型,seq-cst 有两个保证:

  1. 程序指令与源码顺序一致
  2. 所有线程的所有操作存在一个全局的顺序

这意味着:所有关于原子操作的代码都不会被乱序,你可以列出线程交错的所有可能性,即便每次执行交错的结果会不一样。但对于任意一次来说,其执行的顺序必属于这些可能性中的一个。而且,对于某一个单次执行来说,所有线程看到的顺序是一致的。
在这种模型下,每个线程中所有操作的先后关系,其顺序对于所有线程都是可见的。因此它是所有线程的全局同步。
这种模型很容易理解,但缺点是它的性能较差。因为为了实现顺序一致需要添加很多手段来对抗编译器和CPU的优化。

请看一下下面这段代码:

std::atomic<bool> x,y;
std::atomic<int> z;
void write_x_then_y(){    
	x.store(true); // ①    
	y.store(true); // ②
}

void read_y_then_x()
{    
	while(!y.load()); // ③    
	if(x.load()) // ④        
	++z; // ⑤
}

int main(){    
	x=false;    
	y=false;   
	z=0;    
	std::thread a(write_x_then_y);    
	std::thread b(read_y_then_x);    
	a.join();    
	b.join();    
	assert(z.load()!=0); // ⑥
}

代码中几个点说明如下:

  1. 线程a中先将x置为true。
  2. 线程a中继续将y置为true。
  3. 在线程b中,先确认y已经为true,如果不是,则持续等待。
  4. 在确认y已经为true之后,判断x是否为true。
  5. 如果x也为true,则对z自增。
  6. 通过assert确认z不会是0。

acq-rel 模型
一旦打破顺序一致性,情况就会变得复杂。接下来我们来看一下acq-rel模型。

memory_order_release对应了写操作,memory_order_acquire对应了读操作,memory_order_acq_rel对应了既读又写。

同一个原子变量上的acquire和release操作将引入synchronizes-with关系。除此之外,将不再有全局的一致顺序。

C++标准中是这样描述的:

An atomic operation A that performs a release operation on an atomic object M synchronized with an atomic operation B that performs an acquire operation on M and takes its value from any side effect in the release seqeunce headed by A.

acq-rel 模型有如下保证:
同一个对象上的原子操作不允许被乱序。
release操作禁止了所有在它之前的读写操作与在它之后的写操作乱序。
acquire操作禁止了所有在它之前的读操作与在它之后的读写操作乱序。
对于上面的代码,如下的写法也能保证assert不会触发:

td::atomic<bool> x,y;
std::atomic<int> z;
void write_x_then_y()
{
    x.store(true, std::memory_order_relaxed); // ①
    y.store(true, std::memory_order_release); // ②
}

void read_y_then_x()
{
    while(!y.load(std::memory_order_acquire)); // ③
    if(x.load(std::memory_order_relaxed))
        ++z;  // ④
}
int main()
{
    x=false;
    y=false;
    z=0;
    std::thread a(write_x_then_y);
    std::thread b(read_y_then_x);
    a.join();
    b.join();
    assert(z.load()!=0); // ⑤
}

在这段代码中。虽然对x的读写使用relaxed方式。但对于y的读写使用了release-acquire模型。在这种情况下,

②与③建立了synchronized-with关系。
同时,①happens-before②,③happens-before④
于是,可以推导出①②③④的执行顺序
由此保证了assert不会触发。注意这里的②和③的桥梁关系。

relaxed 模型

在进行原子操作时,指定memory_order_relaxed时将使用relaxed模型。这是最弱的内存模型。
这个模型下唯一可以保证的是:对于特定原子变量存在全局一致的修改顺序,除此以外不再有其他保证。这意味着,即便是同样的代码,不同的线程可能会看到不同的执行顺序。

以前面类似的代码为例,但是这一次我们指定了原子操作的memory_order为memory_order_relaxed。
总结一下,对于memory_order_relaxed来说:

  1. 尽管所有操作都是原子的,但是所有的事件不要求存在一个全局顺序
  2. 同一个线程内部有happens-before规则,但是线程之间可能会看到不同的顺序
    另外需要说明的是:这里问题的发生只是理论上的可能。如果你将上面这个代码片段编译和运行,估计你运行100次也碰不到问题的发生。但是,这并不表示问题不存在,它只是很难发生而已。而这也恰恰是并发系统难以开发的原因之一:很多问题在绝大部分时候都不会出现,当在极少数时候发生的时候,又很难被理解。
    relaxed模型约束太小,因此常常需要结合后文中提到的Fence来一起使用,下文将看到示例。

模型选择
在我们知道了三种模型之后,很自然的就要考虑该如何选择。

在大部分情况下,seq-cst模型应该是比较好的选择,因为它最容易理解。

但是如果想要追求更高的性能,就要考虑relaxed或者rel-acq模型了。当然,前提是你要对它们有足够的把握。因为相对于高效率来说,程序的正确性明显要更重要。如果程序是有bug的,那么它效率再高也意义不大。
下面这段代码简单的对比了seq-cst和relaxed两种模型的性能:

#include <atomic>
#include <chrono>
#include <iostream>
#include <thread>

const int kLoopCount = 100000000;
using namespace std;
void increment(atomic<int>* value, memory_order order) {
    for (int i = 0; i < kLoopCount; i++) {
       value->fetch_add(1, order);
    }
}

void thread_worker(atomic<int>* value, memory_order order) {
    thread t1(increment, value, order);
    thread t2(increment, value, order);
    thread t3(increment, value, order);
    t1.join();
    t2.join();
    t3.join();
}

int main() {
    atomic<int> a(0);
    atomic<int> b(0);
    auto start = chrono::steady_clock::now();
    thread_worker(&a, memory_order_relaxed);
    auto end = chrono::steady_clock::now();
    auto time1 = chrono::duration_cast<chrono::milliseconds>(end - start);
    start = chrono::steady_clock::now();
    thread_worker(&b, memory_order_seq_cst);
    end = chrono::steady_clock::now();
    auto time2 = chrono::duration_cast<chrono::milliseconds>(end - start);
    cout << "Relaxed order cost " << time1.count() << "ms" << endl;
    cout << "Seq_cts order cost " << time2.count() << "ms" << endl;
    return 0;
}

这里我们创建了三个线程来对一个整形原子变量进行每次+1的运算。一次使用memory_order_relaxed,另外一次使用memory_order_seq_cst。在某一次的运行时间消耗对比如下:

Relaxed order cost 7468ms
Seq_cts order cost 7641ms

Fence
在讲解Memory Reorder的时候我们提到了内存栅栏。
编译器和处理器都会提供一些手段给开发者以对乱序优化进行控制,但这些手段是平台相关,可移植性不好。
C++作为一个跨平台的编程语言,也提供了相应机制。从C++11开始,提供了下面两个机制:

  1. std::atomic_thread_fence:在线程间进行数据访问的同步
  2. std::atomic_signal_fence:线程和信号处理器间的同步

本文我们将只关注atomic_thread_fence,Fence这个单词的中文翻译就是“栅栏”,它就像一个屏障一样,使得其前后的代码不能穿越。
Fence有三种情况:

full fence:指定了memory_order_seq_cst或者memory_order_acq_rel。 acquire
fence:指定了memory_order_acquire。
release fence:指定了memory_order_release。

不同类型的Fence对于乱序的保护是不一样的。我们可以将读和写的交错分成下面四种情况:

① Load-Load:读接着读
② Load-Store:先读后写
③ Store-Load:先写后读
④ Store-Store:写接着写

三种类型fence所达成的效果如下:
full fence可以防止①②④三种情况下,但是不能防止第③种情况下。
通过下面这幅图来描述会更容易理解,红色的斜杆表示这种类型的乱序会被禁止。
在这里插入图片描述
release fence阻止了所有在它之前的读写操作与在它之后的写操作乱序,图示如下:

在这里插入图片描述回顾relaxed模型中的代码。那里之所以会出现问题是因为线程a中对于x和y的写操作有可能会被乱序。只要我们阻止这个乱序的发生,那么问题也就不会发生了。

std::atomic<bool> x,y;
std::atomic<int> z;

void write_x_then_y()
{
    x.store(true, std::memory_order_relaxed); // ①
    std::atomic_thread_fence(std::memory_order_release);
    y.store(true, std::memory_order_relaxed); // ②
}

void read_y_then_x()
{
    while(!y.load(std::memory_order_relaxed)); // ③
    std::atomic_thread_fence(std::memory_order_acquire);
    if(x.load(std::memory_order_relaxed))
        ++z;  // ④
}

结束语
至此,关于C++并发编程以及内存模型的内容我们已经介绍完了。
当然,想要完全理解它们并不是一件容易的事情。在理论的基础上,还要结合实际项目的经验才能对它们有更好的把握。
下面这幅图大致梳理了内存模型的核心概念,可以在以后帮助我们快速回顾。

在这里插入图片描述

Reference
C++内存模型

  • 24
    点赞
  • 31
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值