漫谈C++11多线程内存模型v

目录(?)[+]

写在前面

        “C++11 feels like a new language” - Bjarne Stroustrup

        的确,C++11核心已经发生了巨大的变化,它现在支持Lambda表达式、对象类型自动推断、统一初始化语法、Deleted和Defaulted函数、nullptr、委托构造函数、右值引用等等,本文主要讨论C++11对于多线程编程的支持。

一些例子

        为何C++多线程编程需要对标准进行修订,基于多线程库如POSIX、boost.Thread的大量代码不是都工作得很好吗?详见《Threads Cannot be Implemented as a Library》,简单概括如下:

        因为C++03标准是单线程的,所以即便是完全符合标准的编译器也可能各个脑袋里面只装着一个线程,于是在对代码作优化的时候总是一不小心就可能做出危害多线程正确性的优化来。

        简单示例:

[cpp]  view plain  copy
  在CODE上查看代码片 派生到我的代码片
  1.       x = y = 0;  
  2. Thread1     Thread2  
  3. x = 1;      y = 1;  
  4. r1 = y;     r2 = x;  
        理论上来说,r1==r2==0这种输出是不可能的(此处不展开推理,请各位看官自行分析),但现实往往是残酷的,编译器只需把Thread1中的x=1和r1=y操作互换即可。

        极端示例:

[cpp]  view plain  copy
  在CODE上查看代码片 派生到我的代码片
  1. for (…) {  
  2. …  
  3. if (mt) pthread_mutex_lock(…);  
  4. x = … x …  
  5. if (mt) pthread_mutex_unlock(…);  
  6. }  

        对于x的访问已经被pthread_mutex_lock/pthread_mutex_unlock包围了,这下总算安全了吧?在Hans Boehm的paper中提到,编译器可以运用“Register Promotion”的技术进行优化,对此,POSIX线程库也无能为力:

[cpp]  view plain  copy
  在CODE上查看代码片 派生到我的代码片
  1. r = x;  
  2. for (…) {  
  3. …  
  4. if (mt) { x = r; pthread_mutex_lock(…); r = x; }  
  5. r = … r …  
  6. if (mt) { x = r; pthread_mutex_unlock(…); r = x; }  
  7. }  
  8. x = r;  

Memory Model

        那么,究竟如何才能编写出正确的多线程代码呢?最简单的办法就是禁止编译器作任何优化:所有的操作严格按照“Program Order”执行,所有的操作都触发“Cache Coherence”以确保它们的副作用在跨线程间的“Memory Visibility”顺序。

        但这样做显然是不切实际的,需要付出巨大的效率代价。于是编译器说:“不如这样,你来告诉我哪些数据是线程间共享的。这样,我就可以在必要的时候保守优化,一般情况下全力优化。只要你保证自己的程序是正确同步的,那我保证程序执行时就是你要的那个样子。”这样一个在程序员和语言间的约定,就是“Memory Model”。

        PS:上面的例子可能会给大家一个错觉,这一切都是编译器的错,实际上这里的“罪魁祸首”是一种称为“Memory Reordering”的存在,而“Compiler Reordering”仅是其中的一个来源,另一个就是更为底层的“Processor Reordering”,因此才需要前文提到的“Cache Coherence”。本文不打算对硬件做过多的探讨,有兴趣的读者推荐阅读《Memory Barriers: a Hardware View for Software Hackers》,非常精彩!

Memory Order

        好了,下面让我们切入正题,看看C++11到底给我们带来了什么?

        “Thread support library”可以简单想象成POSIX线程库的OO版本,对常用的Threads、Mutex、Condition Variables、Futures等概念进行了很好的封装,其实它的前身就是Boost::Thread,本文略过不提。

        “Atomic operations library”顾名思义,其实就是原子操作库。而在以往,我们往往需要借助汇编语言或者第三方线程库方能实现。atomic对于多线程编程,尤其是lock-free算法,其重要性不言而喻,有了std::atomic库,我们终于可以摆脱那些繁琐的汇编代码了!

        PS:乐衷于lock-free编程的读者需要注意的一点,并非所有的atomic内置类型操作均是lock-free的,与具体平台相关,可以调用is_lock_free接口进行查询。

[cpp]  view plain  copy
  在CODE上查看代码片 派生到我的代码片
  1. void store( T desired, memory_order = std::memory_order_seq_cst );  
  2. T load( memory_order = std::memory_order_seq_cst ) const;  
  3. T exchange( T desired, memory_order = std::memory_order_seq_cst );  
  4. … (略)   

        查看std::atomic接口可以发现,几乎每个方法都有一个类型为memory_order的默认参数,默认值是std::memory_order_seq_cst。

[cpp]  view plain  copy
  在CODE上查看代码片 派生到我的代码片
  1. enum memory_order {  
  2.     memory_order_relaxed,  
  3.     memory_order_consume,  
  4.     memory_order_acquire,  
  5.     memory_order_release,  
  6.     memory_order_acq_rel,  
  7.     memory_order_seq_cst  
  8. };  

        第一次接触memory order的读者看到这里估计已经晕了,不幸的是我们还必须引入更多概念才能讲清楚。首先,我们必须铭记在心的是,c++11引入这些概念本质上是为了解决 “visible side-effects”的问题,用通俗的话来讲:

        线程1执行写操作A之后,如何可靠并高效地保证线程2执行读操作B时,操作A的结果是完整可见的?

        为了解决上述问题,C++11引入了“happens-before”关系,其比较完整的定义如下:

        Let A and B represent operations performed by a multithreaded process. If A happens-before B, then the memory effects of A effectively become visible to the thread performing B before B is performed.

        OK,现在问题就转化为:如何在A、B两个操作之间建立起happens-before关系呢?下面为大家奉上一张新鲜出炉的关系推导图谱,此图信息量巨大,请仔细琢磨回味:


  • sequenced-before(线程内)

        在同一个线程内,操作A先于操作B

  • dependency-ordered before(线程间)

        case 1:线程1的操作A对变量M执行“release”写,线程2的操作B对变量M执行“consume”读,并且操作B读取到的值源于操作A之后的“release”写序列中的任何一个(包括操作A本身)

        case 2:线程1的操作A 与线程2的操作X之间存在dependency-ordered before关系,同时线程2的操作B“depends on”操作X(所谓B“depends on”A,这里就不给出精确的定义,举个直观的例子:B=M[A])

  • synchronizes-with(线程间)

        线程1的操作A对变量M执行“release”写,线程2的操作B对变量M执行“acquire”读,并且操作B读取到的值源于操作A之后的“release”写序列中的任何一个(包括操作A本身)

        基础知识铺垫到此结束,下面我们总算可以来具体谈谈不同memory order的使用了!

代码分析

  • Relaxed ordering
[cpp]  view plain  copy
  在CODE上查看代码片 派生到我的代码片
  1. x = y = 0;  
  2. // Thread 1:  
  3. r1 = y.load(memory_order_relaxed); // A  
  4. x.store(r1, memory_order_relaxed); // B  
  5. // Thread 2:  
  6. r2 = x.load(memory_order_relaxed); // C  
  7. y.store(42, memory_order_relaxed); // D  

        简单来说,标记为memory_order_relaxedatomic操作对于memory order几乎不作保证,它们唯一的承诺就是“atomicity”,当然,不能破坏“modification order”的一致性要求。

        对于上述代码片段而言,输出r1 == r2 == 42是合法的。这里,我们可以推导出的关系只有A sequenced-before B、C sequenced-before D,仅此而已。

        TIPS:Relaxed ordering比较适用于“计数器”一类的原子变量,不在意memory order的场景。

  • Release-Acquire ordering
[cpp]  view plain  copy
  在CODE上查看代码片 派生到我的代码片
  1. #include   
  2. #include   
  3. #include   
  4. #include   
  5.    
  6. std::atomic<std::string*> ptr;  
  7. int data;  
  8.    
  9. void producer()  
  10. {  
  11.     std::string* p = new std::string("Hello");          // A  
  12.     data = 42;                          // B  
  13.     ptr.store(p, std::memory_order_release);            // C  
  14. }  
  15.    
  16. void consumer()  
  17. {  
  18.     std::string* p2;  
  19.     while (!(p2 = ptr.load(std::memory_order_acquire)))         // D  
  20.         ;  
  21.     assert(*p2 == "Hello");                 // E  
  22.     assert(data == 42);                     // F  
  23. }  
  24.    
  25. int main()  
  26. {  
  27.     std::thread t1(producer);  
  28.     std::thread t2(consumer);  
  29.     t1.join(); t2.join();  
  30. }  

        首先,我们可以直观地得出如下关系:A sequenced-before B sequenced-before C、C synchronizes-with D、D sequenced-before E sequenced-before F。

        利用前述happens-before推导图,不难得出A happens-before E、B happens-before F,因此,这里的E、F两处的assert永远不会fail。

        TIPS:Release-Acquire ordering难度系数与性能指数相对均衡,属于实现lock-free算法的首选。

  • Release-Consume ordering
[cpp]  view plain  copy
  在CODE上查看代码片 派生到我的代码片
  1. void producer()  
  2. {  
  3.     std::string* p = new std::string("Hello");          // A  
  4.     data = 42;                          // B  
  5.     ptr.store(p, std::memory_order_release);            // C  
  6. }  
  7.    
  8. void consumer()  
  9. {  
  10.     std::string* p2;  
  11.     while (!(p2 = ptr.load(std::memory_order_consume)))     // D  
  12.         ;  
  13.     assert(*p2 == "Hello");                 // E  
  14.     assert(data == 42);                     // F  
  15. }  

        这次我们把D处修改为memory_order_consume,情况又会有何不同呢?首先,基本的关系对毋庸置疑:A sequenced-before B sequenced-before C、C dependency-ordered before D、D sequenced-before E sequenced-before F。

        那么我们还能那么轻易地推导出A happens-before E、B happens-before F吗?答案是:A、E关系成立,而B、F关系破裂。根据我们之前的定义,E depends-on D,从而可以推导出,接着就是水到渠成了。反观D、F之间并不存在这种依赖关系。因此,这里的E永远不会fail,而F有可能fail。

        TIPS:Release-Consume ordering难度系数最高,强烈不推荐初学者使用,很多大师级人物都在这上面栽过跟头,当然,它的系统开销可能小于Release-Acquire ordering,适用于极致追求性能的场景,前提是你得能够hold住它。

  • Sequentially-consistent ordering
[cpp]  view plain  copy
  在CODE上查看代码片 派生到我的代码片
  1. std::atomic x = ATOMIC_VAR_INIT(false);  
  2. std::atomic y = ATOMIC_VAR_INIT(false);  
  3. std::atomic z = ATOMIC_VAR_INIT(0);  
  4.    
  5. void write_x()  
  6. {  
  7.     x.store(true, std::memory_order_seq_cst);   // A  
  8. }  
  9.    
  10. void write_y()  
  11. {  
  12.     y.store(true, std::memory_order_seq_cst);   // B  
  13. }  
  14.    
  15. void read_x_then_y()  
  16. {  
  17.     while (!x.load(std::memory_order_seq_cst))  
  18.         ;  
  19.     if (y.load(std::memory_order_seq_cst)) {  
  20.         ++z;  
  21.     }  
  22. }  
  23.    
  24. void read_y_then_x()  
  25. {  
  26.     while (!y.load(std::memory_order_seq_cst))  
  27.         ;  
  28.     if (x.load(std::memory_order_seq_cst)) {  
  29.         ++z;  
  30.     }  
  31. }  
  32.    
  33. int main()  
  34. {  
  35.     std::thread a(write_x);  
  36.     std::thread b(write_y);  
  37.     std::thread c(read_x_then_y);  
  38.     std::thread d(read_y_then_x);  
  39.     a.join(); b.join(); c.join(); d.join();  
  40.     assert(z.load() != 0);          // C  
  41. }  

        所谓的Sequentially-consistent ordering,其实就是“顺序一致性”,它是最严格的memory order,除了满足前面所说的Release-Acquire/Consume约束之外,所有的线程对于该顺序必须达成一致。

        这里,C处的assert是永远不会faile的。反证法:在线程c的世界里,如果++z未执行,需要操作A先于操作B完成;在线程d的世界里,如果++z未执行,需要操作B先于操作A完成。由于这些操作都是memory_order_seq_cst类型,因此,所有的线程需要达成一致,出现矛盾。

        TIPS:Sequentially-consistent ordering难度系数最低,潜在开销可能最大,最符合人类常规思维模型,因此,在多线程编程中最易推理,最不容易出错,强烈推荐初学者使用,当出现性能瓶颈时再考虑优化。

聊聊volatile

        很多读者可能比较奇怪,为啥突然会聊到volatile的话题?其实volatile在C/C++阵营里的争论从来没有停止过,而我们公司的代码库里,同样可以发现volatile大量地用于多线程/多进程编程,这真的可行吗?

        这里我不打算展开进行讨论,仅列出一些个人理解:

  • 禁止编译器优化(禁用寄存器优化,直接读写内存)
  • 无法保证atomicity(机器字长内的变量可以保证?注意内存对齐!)
  • 无法保证memory order(对于Processor Reordering无能为力)

        为何我们的代码仍然work呢?这和具体硬件平台相关,x86平台属于strongly-ordered模型,绝大多数场景下,Release-Acquire ordering是可以自动获得的。至于atomicity的问题,一定要留意机器字长以及内存对齐。

        推荐使用场景:信号处理函数中使用到的信号标志变量。关于volatile更多精彩讨论推荐阅读《Nine ways to break your systems code using volatile》。

        PS:这里的讨论仅限于C/C++,不同语言对于volatile赋予的语义并不相同,比如java中的volatile是保证顺序一致性的。

写在最后

        本文主要致力于梳理清楚C++11的多线程Memory Order概念,帮助大家更好地理解多线程lock-free代码应该如何编写,如何分析其正确性。其实更高级的同步工具,如mutex、spinlock等,同样可以提供Release-Acquire ordering,只是并非本文关注的重点,故略过不提。而且限于篇幅所限,对于硬件层面的Processor Reordering几乎未作解释,后面有机会再写个硬件篇和大家一起探讨吧!

        PS:个人水平有限,理解偏差在所难免,欢迎讨论交流!

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值