Go基于共享变量的并发原理及实例 【Go语言圣经笔记】

基于共享变量的并发

前一章我们介绍了一些使用goroutine和channel这样直接而自然的方式来实现并发的方法。然而这样做我们实际上回避了在写并发代码时必须处理的一些重要而且细微的问题(笔者注:一谈到并发,就需要处理对共享变量等公共资源的访问问题,不合理的访问问题会造成一系列诸如丢失修改、读脏数据、重复读等常见并发问题)。

在本章中,我们会细致地了解并发机制。尤其是在多goroutine之间的共享变量,并发问题的分析手段,以及解决这些问题的基本模式。最后我们会解释goroutine和操作系统线程之间的技术上的一些区别。

竞态条件(race condition)

笔者补充竞态条件相关知识
竞态条件(race condition)指的是两个或者以上进程或者线程并发执行时,其最终的结果依赖于进程或者线程执行的精确时序。竞争条件会产生超出预期的情况,一般情况下我们都希望程序执行的结果是符合预期的,因此竞争条件是一种需要被避免的情形。

竞争条件分为两类:

  • Mutex(互斥):两个或多个进程彼此之间没有内在的制约关系,但是由于要抢占使用某个临界资源(不能被多个进程同时使用的资源,如打印机,变量)而产生制约关系。
  • Synchronization(同步):两个或多个进程彼此之间存在内在的制约关系(前一个进程执行完,其他的进程才能执行),如严格轮转法

要阻止出现竞态条件的关键就是不能让多个进程/线程同时访问那块共享变量。访问共享变量的那段代码就是临界区(critical section)。所有的解决方法都是围绕这个临界区来设计的。

想要成功的解决竞态条件问题,保证程序还可以正确的按逻辑顺序运行,从理论上应该满足以下四个条件:
1、不会有两个及以上进程同时出现在他们的critical section。
2、不要做任何关于CPU速度和数量的假设。
3、任何进程在运行到critical section之外时都不能阻塞其他进程。
4、不会有进程永远等在critical section之前。

(以下是正文)

在一个线性(Go语言的场景下即只有一个goroutine的)程序中,程序的执行顺序只由程序的逻辑来决定。例如,我们有一段语句序列,第一个在第二个之前(程序基本结构之一,顺序结构),以此类推。在存在两个或者以上的goroutine程序中,每一个goroutine内的语句也是按照既定的顺序去执行的,但是一般情况下我们没法去知道分别位于两个goroutine的事件x和y的执行顺序,x是在y之前还是之后还是同时发生是没法判断的。当我们没有办法自信地确认x事件是在y事件的前面或者后面发生的话,就说明x和y这两个事件是并发的

思考一下,一个函数在线性程序中可以正确地工作,如果在并发的情况下这个函数依然可以正确地工作的话,那么我们就说这个函数是并发安全的并发安全的函数不需要额外的同步工作。我们可以把这个概念概括为一个特定类型的一些方法和操作函数,对于某个类型来说如果其所有可访问的方法和操作都是并发安全的话那么该类型便是并发安全的

在一个程序中有非并发安全的类型的情况下,我们依然有办法能够使这个程序并发安全(笔者注:比如加锁等同步机制)。事实上,并发安全的类型是一种例外情况,而不是强制指定的规则,所以只有当文档明确地说明了其是并发安全的情况下你才可以并发地去访问它

我们会避免并发访问大多数的类型,无论是将变量局限在单一的一个goroutine内,还是使用互斥条件维持更高级别的不变性,都是为了这个目的。我们会在本章中说明这些术语。

相反,包级别的导出函数一般情况下都是并发安全的由于package级的变量没法被限制在单一的gorouine中,所以修改这些变量“必须”使用互斥条件

一个函数在并发调用时无法工作的原因太多了,比如死锁(deadlock)活锁(livelock)饥饿(resource starvation)。我们没有篇幅去仔细探讨所有的问题,本节我们只聚焦在竞争条件上。

竞争条件(笔者注:在使用Go语言的场景下)指的是程序在多个goroutine交叉执行操作时,有可能会出现没有给出正确的结果的情形(有可能三个字笔者加上去的)。竞争条件是很恶劣的一种场景,因为这种问题会一直潜伏在你的程序里,然后在非常少见的时候蹦出来,或许只是会在很大的负载时才会发生,又或许是会在使用了某一个编译器、某一种平台或者某一种架构的时候才会出现。这些使得竞争条件带来的问题非常难以复现而且难以分析诊断

传统上经常用造成经济损失的情形来为竞争条件做比喻,所以我们来看一个简单的银行账户程序。

// Package bank implements a bank with only one account.
package bank
var balance int
func Deposit(amount int) { balance = balance + amount }
func Balance() int { return balance }

(当然我们也可以把Deposit存款函数写成balance += amount,这种形式也是等价的,不过长一些的形式解释起来更方便一些。)

对于这个简单的程序而言,我们一眼就能看出,以任意顺序调用函数Deposit和Balance都会得到正确的结果。也就是说,Balance函数会给出之前的所有存入的额度之和。

然而,当我们并发地而不是顺序地调用这些函数的话,Balance就再也没办法保证结果正确了。考虑一下下面的两个goroutine,其代表了一个银行联合账户的两笔交易:

// Alice
go func() {
    bank.Deposit(200)              // A1
    fmt.Println("=", bank.Balance) // A2
}()

// Bob
go bank.Deposit(100)               // B

Alice存了$200,然后检查她的余额,同时Bob存了$100。因为A1和A2是和B并发执行的,我们没法预测他们发生的先后顺序。直观地来看的话,我们会认为其执行顺序只有三种可能性:“Alice先”,“Bob先”以及“Alice/Bob/Alice”交错执行。下面的表格会展示经过每一步骤后balance变量的值。引号里的字符串表示余额单。

// 展示了三种顺序执行下的可能的余额变化情况
Alice first        Bob first        Alice/Bob/Alice
          0                0                      0
  A1    200        B     100             A1     200
  A2 "= 200"       A1    300             B      300
  B     300        A2 "= 300"            A2  "= 300"

所有情况下最终的余额都是$300。唯一的变数是Alice打印的余额单是否包含了Bob交易的节,不过无论包不包含客户都不会在意。

但是事实是上面的直觉推断是错误的。存在第四种可能在事实上产生的结果,这种结果是Bob的存款会在Alice存款操作中间,在余额被读到(balance + amount)之后,在余额被更新之前(balance = …),这样会导致Bob的交易丢失。而这是因为Alice的存款操作A1实际上是两个操作的一个序列,读取然后写;可以称之为A1r和A1w(r表示read读,w表示write写)。下面是交叉时产生的问题:

Data race
0
A1r      0     ... = balance + amount
B      100
A1w    200     balance = ...
A2  "= 200"

在A1r之后,balance + amount会被计算为200,所以这是A1w会写入的值,并不受其它存款操作的干预。最终的余额是$200。银行的账户上的资产比Bob实际的资产多了$100。

(笔者注:这么讲可能会比较容易理解:一个写操作其实分为了读和写两部分,在+200的操作时,先读取余额,在余额的基础上+200,但如果A在刚刚读完余额0之后,恰好B立刻写进去100,此时实际余额时100但由于A读取的结果是0,所以当0处理,A写进去200,,最终余额是200。这实际上导致了B的写操作丢失,没有作用在余额上,被称为丢失修改。)

这个程序包含了一个特定的竞争条件,叫作数据竞争。无论任何时候,只要有两个goroutine并发访问同一变量,且至少其中的一个是写操作的时候就会发生数据竞争

如果数据竞争的对象是比一个机器字(译注:32位机器上一个字=4个字节)更大的一种类型时,事情就变得更麻烦了,比如interface,string或者slice类型都是如此。下面的代码会并发地更新两个不同长度的slice:

var x []int
go func() { x = make([]int, 10 )}()
go func() { x = make([]int, 1000000)}()
x[999999] = 1  // note: undefined behavior; memory corruption possible!

最后一个语句中的x的值是未定义的,它有可能是nil,也可能是一个长度为10的slice,也可能是一个长度为1,000,000的slice,三种情况都有可能。但是回忆一下slice的三个组成部分:指针(pointer)、长度(length)和容量(capacity)。如果指针是从第一个make调用来,而长度从第二个make来,x就变成了一个混合体,一个自称长度为1,000,000但实际上内部只有10个元素的slice。这样导致的结果是存储999,999元素的位置会碰撞一个遥远的内存位置,这种情况下难以对值进行预测,而且debug也会变成噩梦。这种语义雷区被称为未定义行为,对C程序员来说应该很熟悉;幸运的是在Go语言里造成的麻烦要比C里小得多。

尽管并发程序的概念让我们知道并发并不是简单的语句交叉执行。我们将会在9.4节中看到,数据竞争可能会有奇怪的结果。许多程序员,甚至一些非常聪明的人也还是会偶尔提出一些理由来允许数据竞争,比如:“互斥条件代价太高”,“这个逻辑只是用来做logging”,“我不介意丢失一些消息”等等。因为在他们的编译器或者平台上很少遇到问题,可能给了他们错误的信心。一个好的经验法则是根本就没有什么所谓的良性数据竞争。所以我们一定要避免数据竞争,那么在我们的程序中要如何做到呢?

我们来重新检视一下数据竞争的定义,这对我们分析和解决问题来讲十分重要:数据竞争会在两个以上的goroutine并发访问相同的变量且至少其中一个为写操作时发生。根据上述定义做拆解,有三种方式可以避免数据竞争:

  1. 不要去写变量
  2. 避免多个goroutine访问变量
  3. 互斥:即同一时间时刻内只允许最多一个goroutine访问变量

第一种方法是不要去写变量。考虑一下如下的map,它会被“懒”填充,也就是说在每个key被第一次请求到的时候才会去填值。如果Icon是被顺序调用的话,这个程序会工作很正常,但如果Icon被并发调用,那么对于这个map来说就会存在数据竞争。

var icons = make(map[string]image.Image)
func loadIcon(name string) image.Image

// note: not concurrency-safe
func Icon(name string) image.Image {
    icon, ok := icons[name]
    if !ok {
        icon = loadIcon(name)
        icons[name] = icon
    }
    return icon
}

反之,如果我们在创建goroutine之前的初始化阶段,就初始化了map中的所有条目并且再也不去修改它们,那么任意数量的goroutine并发访问Icon都是安全的,因为每一个goroutine都只是去读取而已。

var icons = map[string]image.Image{
    "spades.png": loadIcon("spades.png"),
    "hearts.png": loadIcon("hearts.png"),
    "dismonds.png": loadIcon("diamonds.png"),
    "clubs.png": loadIcon("clubs.png"),
}

// concurrency-safe
func Icon(name string) image.Image{ return icons[name] }

上面的例子里icons变量在包初始化阶段就已经被赋值了,包的初始化是在程序main函数开始执行之前就完成了的。只要初始化完成了,icons就再也不会被修改。数据结构如果从不被修改或是不变量则是并发安全的无需进行同步。不过显然,如果update操作是必要的,我们就没法用这种方法,比如说银行账户。

第二种避免数据竞争的方法是,避免从多个goroutine访问变量。这也是前一章中大多数程序所采用的方法。例如前面的并发web爬虫(§8.6)的main goroutine是唯一一个能够访问seen map的goroutine,而聊天服务器(§8.10)中的broadcaster goroutine是唯一一个能够访问clients map的goroutine。这些变量都被限定在了一个单独的goroutine中。

由于其它的goroutine不能够直接访问变量,它们只能使用一个channel来发送请求给指定的goroutine来查询更新变量。这也就是Go中经常提到的“不要使用共享数据来通信使用通信来共享数据”(这个只能在Go中实现,因为Go有channel,是一种通信的抽象,可以用来共享数据)。一个提供对一个指定的变量通过channel来请求的goroutine叫做这个变量的monitor(监控)goroutine。例如broadcaster goroutine会监控clients map的全部访问。

下面是一个重写了的银行的例子,这个例子中balance变量被限制在了monitor goroutine中,名为teller(出纳员):

// gopl.io/ch9/bank1

// package bank provides a concurrency-safe bank with one account
package bank

var deposits = make(chan int)  // send amount to deposit
var balances = make(chan int)  // receive balance

func Deposit(amount int) { deposits <- amount }
func Balance() int { return <-balances }

func teller() {
    var balance int  // balance is confined to teller goroutine
    for {
    select {
    case amount := <- deposits:
        balance += amount
    case balances <- balance
    }
}

func init() {
    go teller()  // start the monitor goroutine
}

(本质上是通过select语句来实现的避免多个goroutine同时访问共享变量balance,因为select语句仅仅允许一条case分支执行)

即使当一个变量无法在其整个生命周期内被绑定到一个独立的goroutine,绑定依然是并发问题的一个解决方案。例如在一条流水线上的goroutine之间共享变量是很普遍的行为,在这两者间会通过channel来传输地址信息。如果流水线的每一个阶段都能够避免在将变量传送到下一阶段后再去访问它,那么对这个变量的所有访问就是线性的其效果是变量会被绑定到流水线的一个阶段传送完之后被绑定到下一个以此类推。这种规则有时被称为串行绑定

下面的例子中,Cakes会被严格地顺序访问,先是baker gorouine,然后是icer gorouine:

type Cake struct{ state string }

func baker(cooked chan<- *Cake) {  // 单向channel 用于接收
    for {
        cake := new(Cake)
        cake.state = "cooked"
        cooked <- cake  // baker never touches this cake again
    }
}

func icer(iced chan<- *Cake, cooked <-chan *Cake) {  // 左边 单向channel用于接收 右边 单向channel 用于发送
    for cake := range cooked {
        cake.state = "iced"
        iced <- cake  // icer never touches this cake again
    }   
}

第三种避免数据竞争的方法是允许很多goroutine去访问变量,但是在同一个时刻最多只有一个goroutine在访问。这种方式被称为“互斥”,在下一节来讨论这个主题。

sync.Mutex互斥锁

在8.6节中,我们使用了一个buffered channel作为一个计数信号量,来保证最多只有20个goroutine会同时执行HTTP请求。同理,我们可以用一个容量只有1的channel来保证最多只有一个goroutine在同一时刻访问一个共享变量。一个只能为1和0的信号量叫做二元信号量(binary semaphore)

// gopl.io/ch9/bank2
var (
    sema = make(chan struct{}, 1)  // a binary semaphore guarding balance
    balance int
)

func Deposit(amount int) {
    sema <- struct{}{}  // acquire token 相当于加锁
    balance = balance + amount
    <-sema  // release token 相当于释放锁
}

func Balance() int {
    sema <- struct{}{}  // acquire token
    b := balance
    <-sema  // release token
    return b
}

笔者注:这相当于通过加锁实现了互斥,即任意时刻最多只有一个函数访问balance。

这种互斥很实用,而且被sync包里的Mutex类型直接支持。它的Lock方法能够获取到token(这里叫锁),对称的Unlock方法会释放这个token:

// gopl.io/ch9/bank3

import "sync"

var (                  // 这是本书第一次出现这种声明变量的语法 
    mu      sync.Mutex  // guards balance
    balance  int
)

func Deposit(amount int) {
    mu.Lock()
    balance = balance + amount
    mu.Unlock()
}

func Balance() int {
    mu.Lock()
    b := balance
    mu.Unlock()
    return b
}

每次一个goroutine访问balance变量时,它都会调用mutex的Lock方法来获取一个互斥锁。如果其它的goroutine已经获得了这个互斥锁的话,这个操作会被阻塞直到其它获得了该锁的goroutine调用了Unlock使该锁变回可用状态。mutex会保护共享变量。惯例来说,被mutex所保护的变量是在mutex变量声明之后立刻声明的如果你的做法和惯例不符,确保在文档里对你的做法进行说明

在Lock和Unlock之间的代码段中的内容goroutine可以随便读取或者修改,这个代码段叫做临界区。锁的持有者调用Unlock是其他goroutine获取该锁的先决条件。goroutine在结束后释放锁是必要的,无论以走哪条路径函数都需要释放锁,即使是在错误路径中,也要记得释放。

上面的bank程序例证了一种通用的并发模式:一系列的导出函数封装了一个或多个变量,那么访问这些变量唯一的方式就是通过这些函数来做(或者方法,对于一个对象的变量来说)。每一个函数在一开始就获取互斥锁并在最后释放锁,从而保证共享变量不会被并发访问这种函数、互斥锁和变量的编排叫作监控monitor(这种老式单词的monitor是受"monitor goroutine"的术语启发而来的。两种用法都是通过一个代理人保证变量被顺序访问)。

由于在存款和查询余额函数中的临界区代码这么短–只有一行,没有分支调用–在代码最后去调用Unlock就显得更为直截了当。在更复杂的临界区的应用中,尤其是必须要尽早处理错误并返回的情况下,就很难去(靠人)判断对Lock和Unlock的调用是在所有路径中都能够严格配对的了。Go语言里的defer简直就是这种情况下的救星:我们用defer来调用Unlock,临界区会隐式地延伸到函数作用域的最后,这样我们就从“总要记得在函数返回之后或者发生错误返回时要记得调用一次Unlock”这种状态中获得了解放。Go语言中的defer会自动帮我们完成这些事情。

func Balance() int {
    mu.Lock()
    defer mu.Unlock()
    return balance
}

上面的例子里Unlock会在return语句读取完balance的值之后执行,所以Balance函数是并发安全的。这带来的另一点好处是,我们再也不需要一个本地变量b了。

此外,一个deferred Unlock即使在临界区发生panic时依然会执行,这对于用recover (§5.10)来恢复的程序来说是很重要的。defer调用只会比显式地调用Unlock成本高那么一点点,不过却在很大程度上保证了代码的整洁性。大多数情况下对于并发程序来说,代码的整洁性比过度的优化更重要。如果可能的话尽量使用defer来将临界区扩展到函数的结束

考虑一下下面的Withdraw函数。成功的时候,它会正确地减掉余额并返回true。但如果银行记录资金对交易来说不足,那么取款就会恢复余额,并返回false。

// note: not atomic 英文注释意为不满足原子性
func Withdraw(amount int) bool {
    Deposit(-amount)
    if Balance() < 0 {
        Deposit(amount)
        return false. // insufficient funds
    }
    return true
}

函数终于给出了正确的结果,但是还有一点讨厌的副作用。当过多的取款操作同时执行时,balance可能会瞬时被减到0以下。这可能会引起一个并发的取款被不合逻辑地拒绝(笔者注:因为不管能不能减,都先减了,发现负值再回退,这导致有大额付款时,原本能进行的小额付款可能因为大额付款产生的负值而导致回退操作)。所以如果Bob尝试买一辆sports car时,Alice可能就没办法为她的早咖啡付款了。这里的问题是取款不是一个原子操作:它包含了三个步骤,每一步都需要去获取并释放互斥锁,但任何一次锁都不会锁上整个取款流程

理想情况下,取款应该只在整个操作中获得一次互斥锁。下面这样的尝试也是是错误的:

// note: incorrect
func Withdraw(amount int) bool {
    mu.Lock()
    defer mu.Unlock()
    Deposit(-amount)
    if Balance() < 0 {
        Deposit(amount)
        return false
    }
    return true
}

上面这个例子中,Deposit会调用mu.Lock()第二次去获取互斥锁,但因为mutex已经锁上了,而无法被重入(译注:go里没有重入锁,关于重入锁的概念,请参考java)–也就是说无法对一个已经锁上的mutex来再次上锁–这会导致程序死锁,没法继续执行下去,Withdraw会永远阻塞下去。

关于Go的mutex不能重入这一点我们有很充分的理由:mutex的目的是确保共享变量在程序执行时的关键点上能够保证不变性。不变性的其中之一是“没有goroutine访问共享变量”,但实际上这里对于mutex保护的变量来说,不变性还包括其它方面。当一个goroutine获得了一个互斥锁时,它会断定这种不变性能够被保持。在其获取并保持锁期间,可能会去更新共享变量,这样不变性只是短暂地被破坏。然而当其释放锁之后,它必须保证不变性已经恢复原样。尽管一个可以重入的mutex也可以保证没有其它的goroutine在访问共享变量,但这种方式没法保证这些变量额外的不变性。

一个通用的解决方案是将一个函数分离为多个函数,比如我们把Deposit分离成两个:一个不导出的函数deposit,这个函数假设锁总是会被保持并去做实际的操作,另一个是导出的函数Deposit,这个函数会调用deposit,但在调用前会先去获取锁。同理我们可以将Withdraw也表示成这种形式:

func Withdraw(amount int) bool {
    mu.Lock()
    defer mu.Unlock()
    deposit(-amount)  // 变化在这里 Withdraw调用的是函数deposit而不是导出函数Deposit
    if balance < 0 {
        deposit(amount)
        return false  // insufficient funds
    }
    return true
}

func Deposit(amount int) {
    mu.Lock()
    defer mu.Unlock()
    deposit(amount)
}

func Balance() int {
    mu.Lock()
    defer mu.Unlock()
    return balance
}

// This function requires that the lock to be held
func deposit(amount int) { balance += amount } 

笔者注:读者可能会疑惑区别究竟在哪里?事实上,是将加锁操作从原有的Deposit中独立出来,每个函数单独加锁,防止加锁操作被重复调用导致死锁。

当然,这里的存款deposit函数很小,实际上取款Withdraw函数不需要理会对它的调用,尽管如此,这里的表达还是表明了规则。

封装(§6.6), 用限制一个程序中的意外交互的方式可以使我们获得数据结构的不变性。因为某种原因,封装还帮我们获得了并发的不变性

当你使用mutex时确保mutex和其保护的变量没有被导出(在go里也就是小写,且不要被大写字母开头的函数访问),无论这些变量是包级的变量还是一个struct的字段

sync.RWMutex 读写锁

笔者注:读不互斥,写互斥,称为读写锁,Java中也有类似的ReadWriteLock。这是因为,只读数据不修改是不会引起并发问题的,但写会。所以我们在写时加锁,读时不加锁,既满足并发的需求,也保证了并发的安全性。

如果100刀的存款可能会消失时不做任何记录多少还是会让我们有一些恐慌,于是乎Bob写了一个程序,每秒运行几百次来检查他的银行余额。他会在家,在工作中,甚至会在他的手机上来运行这个程序。银行注意到这些陡增的流量使得存款和取款有了延时,因为所有的余额查询请求是顺序执行的,这样会互斥地获得锁,并且会暂时阻止其它的goroutine运行。

由于Balance函数只需要读取变量的状态,所以我们同时让多个Balance调用并发运行事实上是安全的,只要在运行的时候没有存款或者取款操作就行。在这种场景下我们需要一种特殊类型的锁,其允许多个只读操作并行执行,但写操作会完全互斥。这种锁叫作“多读单写”锁(multiple readers, single writer lock),Go语言提供的这样的锁是sync.RWMutex:

var mu sync.RWMutex
var balance int
func Balance() int {
    mu.RLock()  // readers lock 读锁
    defer mu.RUnlock()
    return Balance
}

// 笔者值:Balance函数只需要读所以加读锁即可 读锁不互斥

Balance函数现在调用了RLock和RUnlock方法来获取和释放一个读取或者共享锁。Deposit函数没有变化,会调用mu.Lock和mu.Unlock方法来获取和释放一个写或互斥锁。

在这次修改后,Bob的余额查询请求就可以彼此并行地执行并且会很快地完成了。锁在更多的时间范围可用,并且存款请求也能够及时地被响应了。

RLock只能在临界区共享变量没有任何写入操作时可用。一般来说,我们不应该假设逻辑上的只读函数/方法也不会去更新某一些变量。比如一个方法功能是访问一个变量,但它也有可能会同时去给一个内部的计数器+1,或者去更新缓存–使即时的调用能够更快。在任何有疑惑的情况下,请使用互斥锁

RWMutex只有当获得锁的大部分goroutine都是读操作,而锁在竞争条件下,也就是说,goroutine们必须等待才能获取到锁的时候,RWMutex才是最能带来好处的。RWMutex需要更复杂的内部记录,所以会让它比一般的无竞争锁的mutex(即上述sync.Mutex)慢一些。

内存同步

你可能比较纠结为什么上一节的Balance方法会需要用到互斥条件,无论是基于channel还是基于互斥量。毕竟和存款操作不一样,查询余额只由一个简单的操作组成(笔者注:是读操作,并不会修改数据),所以不会碰到其它goroutine在其执行“期间”执行其它逻辑的风险。这里使用mutex有两方面考虑。第一Balance不会在其它操作比如Withdraw“中间”执行第二(更重要的)是“同步”不仅仅是一堆goroutine执行顺序的问题,同样也会涉及到内存的问题

在现代计算机中可能会有很多处理器,每一个都会有其对应的本地缓存(local cache)。为了效率,对内存的写入一般会临时存在在每一个处理器的缓存中,并在必要时一起flush到主存这种情况下这些数据可能会以与当初goroutine写入顺序不同的顺序被提交到主存。像channel通信或者互斥量操作这样的原语会使处理器将其聚集地写入flush并commit(笔者注:直接提交能避免写入顺序和预期不一致的情况,虽然这会使得缓存失效,损失一点效率,但能保证正确),这样goroutine在某个时间点上的执行结果才能被其它处理器上运行的goroutine得到。

考虑一下下面代码片段的可能输出:

var x, y int
go func() {
    x = 1                    // A1
    fmt.Print("y:", y, " ")  // A2
}()

go func() {
    y = 1                    // B1
    fmt.Print("x": x, " ")   // B2
}()

因为两个goroutine是并发执行,并且访问共享变量时也没有互斥,会存在数据竞争,所以程序的运行结果没办法预测的话也请不要惊讶。我们可能希望它能够打印出下面这四种结果中的一种,相当于几种不同的交错执行时的情况:

y:0 x:1
x:0 y:1
x:1 y:1
y:1 x:1

第四行可以被解释为执行顺序为A1,B1,A2,B2或者B1,A1,A2,B2的执行结果。然而实际运行时还是有些情况让我们有点惊讶,就比如下面的结果:

x:0 y:0
y:0 x:0

(笔者注:这也是可能会出现的情况,因为x, y没有也确实有可能在没有被赋值之前就被另外的goroutine打印了。)

在一个独立的goroutine中,每一个语句的执行顺序是可以被保证的,也就是说goroutine内顺序是连贯的。但是在不使用channel且不使用mutex这样的显式同步操作时,我们就没法保证事件在不同的goroutine中看到的执行顺序是一致的了。尽管goroutine A中一定需要观察到x=1执行成功之后才会去读取y,但它没法确保自己观察得到goroutine B中对y的写入,所以A还可能会打印出y的一个旧版的值。

尽管去理解并发的一种方法是尝试是去将其运行理解为不同goroutine语句之间的交错执行,但看看上面的例子,这已经不是现代的编译器和cpu的工作方式了。因为赋值和打印指向不同的变量,编译器可能会断定两条语句的顺序不会影响执行结果并且会交换两个语句的执行顺序。如果两个goroutine在不同的CPU上执行,每一个核心有自己的缓存,这样一个goroutine的写入对于其它goroutine的Print,在主存同步之前就是不可见的了。

(笔者注:这里强调一下加粗部分的内容。现代编译器为了提升程序运行效率可能会在判断如果调整语句执行顺序不会影响结果时更改语句的执行顺序,比如java的volatile关键字的一个重要功能是防止指令重排影响并发的安全性)

所有并发问题都可以用一致的、简单的既定的模式来规避

  • 可能的话,将变量限定在goroutine内部
  • 如果是多个goroutine都需要访问的变量,使用互斥条件来访问

sync.Once惰性初始化

如果初始化成本比较高的话,那么将初始化延迟到需要的时候再去做就是一个比较好的选择
如果在程序启动的时候就去做这类初始化的话,会增加程序的启动时间,并且因为执行的时候可能也并不需要这些变量,所以实际上有一些资源浪费。让我们来看在本章早一些时候的icons变量:

var icons map[string]image.Image

这个版本的Icon用到了懒初始化(lazy initialization):

func loadIcons() {
    icons = map[string]image.Image{
        "spades.png":   loadIcon("spades.png")
        "hearts.png":   loadIcon("hearts.png")
        "diamonds.png": loadIcon("diamonds.png")
        "clubs.png":    loadIcon("clubs.png")
    }
}

// note: not concurrency-safe
func Icon(name string) image.Image {
    if icons == nil {
        loadIcons()  // one-time initialization
    }
    return icons[name]
}

这里介绍的内容是惰性计算的思想,详情可参考笔者python系列的一篇博文:
python惰性序列

如果一个变量只被一个单独的goroutine所访问的话,我们可以使用上面的这种模板,但这种模板在Icon被并发调用时并不安全。就像前面银行的那个Deposit(存款)函数一样,Icon函数也是由多个步骤组成的:首先测试icons是否为空,然后load这些icons,之后将icons更新为一个非空的值。直觉会告诉我们最差的情况是loadIcons函数被多次访问会带来数据竞争。当第一个goroutine在忙着loading这些icons的时候,另一个goroutine进入了Icon函数,发现变量是nil,然后也会调用loadIcons函数。

不过这种直觉是错误的。(我们希望你从现在开始能够构建自己对并发的直觉,也就是说对并发的直觉总是不能被信任的!),回忆一下9.4节。因为缺少显式的同步,编译器和CPU是可以随意地去更改访问内存的指令顺序,以任意方式,只要保证每一个goroutine自己的执行顺序一致。其中一种可能loadIcons的语句重排是下面这样。它会在填写icons变量的值之前先用一个空map来初始化icons变量。

func loadIcons() {
    icons = make(map[string]image.Image)
    icons["spades.png"] = loadIcon("spades.png")
    icons["hearts.png"] = loadIcon("hearts.png")
    icons["diamonds.png"] = loadIcon("diamonds.png")
    icons["clubs.png"] = loadIcon("clubs.png")
}

因此,一个goroutine在检查icons是否为空时,并不能就假设这个变量的初始化流程已经完成。

(笔者注:可能翻译成中文后理解起来有些困难,作者的意思是:当前goroutine中Icon函数检查icons是否为空之后,可能马上有另外一个goroutine初始化了icon,这时候loadIcons被当前goroutine调用,再次使用make函数初始化了一个空map,导致其他goroutine的初始化的map丢失)

最简单且正确的保证所有goroutine能够观察到loadIcons效果的方式,是用一个mutex来进行同步检查。

var mu sync.Mutex  // guards icons
var icons map[string]iamge.Image

// concurrency-safe 因为加锁了 所以并行安全
func Icon(name string) image.Image {
    mu.Lock()  // 加锁 互斥锁 保证了同一个时间段内只有一个goroutine调用loadIcons函数
    defer mu.Unlock()
    if icons == nil {
        loadIcons()
    }
    return icons[name]
}

然而使用互斥访问icons的代价就是没有办法对该变量进行并发访问,即使变量已经被初始化完毕且再也不会进行变动。这里我们可以引入一个允许多读的锁:

var mu sync.RWMutex  // guards icons
var icons map[string]image.Image
// concurrency-safe
func Icon(name string) image.Image {
    mu.RLock()
    if icons != nil {
        icon := icons[name]
        mu.RUnlock()
        return icon
    }
    mu.RUnlock()
    
    // acquire an exclusive lock
    mu.Lock()
    if icons == nil {  // note: must recheck for nil 
    // 笔者注:初始化之前 再检查一遍 同java的双重校验单例模式 根本原因是因为上面的代码已经释放了读锁 处于无锁状态 执行到这一行时 有可能有另外的goroutine初始化了icons 这种情况下就不需要再次初始化
        loadIcons()
    }
    icon := icons[name]
    mu.Unlock()
    return icon
}

上面的代码有两个临界区。goroutine首先会获取一个读锁,查询map,然后释放锁。如果条目被找到了(一般情况下),那么会直接返回;如果没有找到,那goroutine会获取一个写锁。不释放共享锁的话,也没有任何办法来将一个共享锁升级为一个互斥锁,所以我们必须重新检查icons变量是否为nil,以防止在执行这一段代码的时候,icons变量已经被其它gorouine初始化过了。

上面的模板使我们的程序能够更好的并发,但是有一点太复杂且容易出错。幸运的是,sync包为我们提供了一个专门的方案来解决这种一次性初始化的问题:sync.Once。概念上来讲,一次性的初始化需要一个互斥量mutex和一个boolean变量来记录初始化是否已经完成;互斥量用来保护boolean变量和客户端数据结构。Do这个唯一的方法需要接收初始化函数作为其参数。让我们用sync.Once来简化前面的Icon函数吧:

var loadIconsOnce sync.Once
var icons map[string] image.Image
// concurrent-safe
func Icon(name string) image.Image {
    loadIconsOnce.Do(loadIcons)
    return icons[name]
}

每一次对Do(loadIcons)的调用都会锁定mutex,并会检查boolean变量(译注:Go1.9及之后会先判断boolean变量是否为1(true),只有不为1才锁定mutex,不再需要每次都锁定mutex)。在第一次调用时,boolean变量的值是false,Do会调用loadIcons并会将boolean变量设置为true。随后的调用什么都不会做,但是mutex同步会保证loadIcons对内存产生的效果能够对所有goroutine可见。用这种方式来使用sync.Once的话,我们能够避免在变量被构建完成之前和其它goroutine共享该变量。

笔者补充sync.Once源码:

// 笔者写的代码分析写在开头和结尾 尽量不破坏对源码的阅读体验
// 现行Go版本的sync.Once没有使用boolean值 而是使用uint32模拟了一个布尔值 0表示Once所服务的函数未执行过 1表示执行过
// 原因可能是希望借助atomic包的LoadUint32来进行原子操作 百分百保证并发的安全
// 另外整型也能比布尔值表示更多的状态 便于之后扩展

// sync/once.go

type Once struct {
    done uint32
    m    Mutex
}

func (O *Once) Do(f func()) {
    if atomic.LoadUint32(&o.done) == 0 {
        // Outlined slow-path to allow inlining of the fast-path
        o.doSlow(f)
    }
}

func (o *Once) doSlow(f func()) {
    o.m.Lock()
    defer o.m.Unlock()
    
    if o.done == 0 {
        defer atomic.StoreUint32(&o.done, 1)
        f()
    }
}

// done小写 不是包共享变量 注意
// 将整个操作拆分成slow和doSlow两个函数来做是希望针对o.done的操作和加锁操作分隔开 这么做的好处 前面也有类似的例子 即避免可能产生的死锁
// 一个函数内有多个defer的时候 执行顺序是后调用的先执行(栈类型操作)
// 因此atomic.StoreUint32会先执行 o.m.Unlock会后执行
// 代码整体采用了和java单例模型一样的双重校验机制 原因前面也介绍过

竞争条件检测

即使我们小心到不能再小心,但在并发程序中犯错还是太常见了。幸运的是,Go的runtime和工具链为我们装备了一个复杂但好用的动态分析工具,竞争检查器(the race detector)

只要在go buildgo run或者go test命令后面加上-race的flag,就会使编译器创建一个你的应用的“修改”版或者一个附带了能够记录所有运行期对共享变量访问工具的test,并且会记录下每一个读或者写共享变量的goroutine的身份信息。除此之外,修改版的程序会记录下所有的同步事件,比如go语句,channel操作,以及对(*sync.Mutex).Lock,(*sync.WaitGroup).Wait等等的调用。(完整的同步事件集合是在The Go Memory Model文档中有说明,该文档是和语言文档放在一起的。译注:https://golang.org/ref/mem)

竞争检查器会检查这些(同步)事件,会寻找在哪一个goroutine中出现了这样的case,例如其读或者写了一个共享变量,这个共享变量是被另一个goroutine在没有进行干预同步操作便直接写入的。这种情况也就表明了是对一个共享变量的并发访问,即数据竞争。这个工具会打印一份报告,内容包含变量身份,读取和写入的goroutine中活跃的函数的调用栈。这些信息在定位问题时通常很有用。下一节中会有一个竞争检查器的实战样例。

竞争检查器会报告所有的已经发生的数据竞争。然而,它只能检测到运行时的竞争条件,并不能证明之后不会发生数据竞争所以为了使结果尽量正确,请保证你的测试并发地且完整地覆盖到了你的包

由于需要额外的记录,因此构建时加了竞争检测的程序跑起来会慢一些,且需要更大的内存。即便是这样,这些代价对于很多生产环境的工作来说还是可以接受的。对于一些偶发的竞争条件来说,让竞争检查器来干活可以节省无数日夜的debugging

示例: 并发的非阻塞缓存

笔者注:
memoizing或者memoization,常见的翻译是记忆化(也有备忘这种叫法),Go语言中文版的翻译是缓存,但跟cache还是有所区别。这里统一使用记忆化,读者应当了解这一点。
记忆化(memoization,或译备忘法)是递归以及动态规划中典型的通过减少重复计算来降低复杂度的思路。它的核心思想是使用数组或者其他数据结构将已有的计算结果保存起来(称为备忘),下次再计算时,先去查备忘里是否有已经有结果,如果有结果,直接取结果参与后续的计算,如果没有,再调用计算步骤计算出结果并保存起来(维基百科及其他标准解释是函数调用,这里泛化为计算步骤,函数调用就是调用计算步骤,但实际上不一定会把所有的计算步骤都封装为函数。下文所说的缓存,你都可以理解为备忘)。

本节中我们会做一个无阻塞的缓存,这种工具可以帮助我们来解决现实世界中并发程序出现但没有现成的库可以解决的问题。这个问题叫作记忆化(memoizing)函数,也就是说,我们需要缓存函数的返回结果,这样在对函数进行调用的时候,我们就只需要一次计算,之后只要返回计算的结果就可以了。我们的解决方案是并发安全且会避免对整个缓存加锁而导致所有操作都去争一个锁的设计

我们将使用下面的httpGetBody函数作为我们需要缓存的函数的一个样例。这个函数会去进行HTTP GET请求并且获取http响应body。对这个函数的调用本身开销是比较大的,所以我们尽量避免在不必要的时候反复调用。

func httpGetBody(url string) (interface{}, error) {
    resp, err := http.Get(url)
    if err != nil {
        return nil, err
    }
    defer resp.Body.Close()
    return ioutil.ReadAll(resp.Body)
}

最后一行稍微隐藏了一些细节。ReadAll将会返回两个结果,一个[]byte数组和一错误,不过这两个对象可以被赋值给httpGetBody的返回声明里的interface{}和error类型,所以我们也就可以这样返回结果而不需要额外的工作了。我们在httpGetBody中选用这种返回类型是为了使其可以与缓存匹配

下面是我们要设计的cache的第一个“草稿”:

// gopl.io/ch9/memo1

// Package memo provides a concurrency-unsafe memoization of a function of type Func

package memo

// A Memo caches the results of calling a Func
type Memo struct {
    f       Func
    cache   map[string]result
}

// Func is the type of the function to memoize
type Func func(key string) (interface{}, error)

type result struct {
    value interface{}
    err   error
}

// note: not currency safe
func (memo *Memo) Get(key string) (interface{}, error) {
    res, ok := memo.cache[key]
    if !ok {
        res.value, res.err = memo.f(key)
        memo.cache[key] = res
    }
    return res.value, res.err
}

Memo实例会记录需要缓存的函数f(类型为Func),以及缓存内容(里面是一个string到result映射的map)。每一个result都是简单的函数返回的一对值-一个值和一个错误值。继续下去我们会展示一些Memo的变种,不过所有的例子都会遵循上面的这些简单例子。

下面是一个使用Memo的例子。对于流入的URL的每一个元素我们都会调用Get,并打印调用延时以及其返回的数据大小的log:

m := memo.New(httpGetBody)  // 笔者注:New函数在下面第四版程序能找得到
for url := range incomingURLs() {
    start := time.Now()
    value, err := m.Get()
    if err != nil {
        log.Print(err)
    }
    fmt.Printf("%s, %s, %d bytes\n",
    url, time.Since(start), len(value.([]byte)))  // 笔者注: value.([]byte)还记得吗 是类型断言
}

我们可以使用测试包(第11章的主题)来系统地鉴定缓存的效果。从下面的测试输出,我们可以看到URL流包含了一些重复的情况,尽管我们第一次对每一个URL的(*Memo).Get的调用都会花上几百毫秒,但第二次就只需要花1毫秒就可以返回完整的数据了(已有的结果直接返回,因而耗时短)。

$ go test -v gopl.io/ch9/memo1
=== RUN   Test
https://golang.org, 175.026418ms, 7537 bytes
https://godoc.org, 172.686825ms, 6878 bytes
https://play.golang.org, 115.762377ms, 5767 bytes
http://gopl.io, 749.887242ms, 2856 bytes
https://golang.org, 721ns, 7537 bytes
https://godoc.org, 152ns, 6878 bytes
https://play.golang.org, 205ns, 5767 bytes
http://gopl.io, 326ns, 2856 bytes
--- PASS: Test (1.21s)
PASS
ok  gopl.io/ch9/memo1   1.257s

这个测试是顺序地进行所有的调用的。

由于这种彼此独立的HTTP请求可以很好地并发,我们可以把这个测试改成并发形式。可以使用sync.WaitGroup来等待所有的请求都完成之后再返回。

m := memo.New(httpGetBody)
var n sync.WaitGroup  // 笔者注:计数信号量 用于等待所有goroutine返回结果
for url := range incomingURLs() {
    n.Add(1)
    go func(url string) {
        start := time.Now()
        value, err := m.Get(url)
        if err != nil {
            log.Print(err)
        }
        fmt.Printf("%s, %s, %d bytes\n",
        url, time.Start(start), len(value.([]byte)))
        n.Done()
    }(url)  // 别忘了 括号和参数 表示匿名函数声明后立即调用
}
n.Wait()

这次测试跑起来更快了,然而不幸的是貌似这个测试不是每次都能够正常工作。我们注意到有一些意料之外的cache miss(缓存未命中),或者命中了缓存但却返回了错误的值,或者甚至会直接崩溃。

但更糟糕的是,这个程序还是有时候能正确的运行,不太容易发生错误,所以我们甚至可能都不会意识到这个程序有bug。但是我们可以使用-race这个flag来运行程序,竞争检测器(§9.6)会打印像下面这样的报告:

$ go test -run=TestConcurrent -race -v gopl.io/ch9/memo1
=== RUN   TestConcurrent
...
WARNING: DATA RACE
Write by goroutine 36:
  runtime.mapassign1()
      ~/go/src/runtime/hashmap.go:411 +0x0
  gopl.io/ch9/memo1.(*Memo).Get()
      ~/gobook2/src/gopl.io/ch9/memo1/memo.go:32 +0x205
  ...
Previous write by goroutine 35:
  runtime.mapassign1()
      ~/go/src/runtime/hashmap.go:411 +0x0
  gopl.io/ch9/memo1.(*Memo).Get()
      ~/gobook2/src/gopl.io/ch9/memo1/memo.go:32 +0x205
...
Found 1 data race(s)
FAIL    gopl.io/ch9/memo1   2.393s

memo.go的32行出现了两次(参加下面带行号的代码),说明有两个goroutine在没有同步干预的情况下更新了cache map。这表明Get不是并发安全的,存在数据竞争。

28  func (memo *Memo) Get(key string) (interface{}, error) {
29      res, ok := memo.cache(key)
30      if !ok {
31          res.value, res.err = memo.f(key)
32          memo.cache[key] = res
33      }
34      return res.value, res.err
35  }

最简单的使cache并发安全的方式是使用基于监控的同步。只要给Memo加上一个mutex,在Get的一开始获取互斥锁,return的时候释放锁,就可以让cache的操作发生在临界区内了:

// gopl.io/ch9/memo2

type Memo struct {
    f       Func
    mu      sync.Mutex  // guards cache
    cache   map[string] result
}

// Get is concurrency-safe
func (memo *Memo) Get(key string) (value interface{}, err error) {
    memo.mu.Lock()
    res, ok := memp.cache[key]
    if !ok {
        res.value, res.err = memo.f(key)
        memo.cache[key] = res
    }
    memo.mu.Unlock()
    return res.value, res.err
}

测试依然并发进行,但这回竞争检查器“沉默”了。不幸的是对于Memo的这一点改变使我们完全丧失了并发的性能优点。每次对f的调用期间都会持有锁,Get将本来可以并行运行的I/O操作串行化了。我们本章的目的是完成一个无锁缓存,而不是现在这样的将所有请求串行化的函数的缓存

下一个Get的实现,调用Get的goroutine会两次获取锁:查找阶段获取一次,如果查找没有返回任何内容,那么进入更新阶段会再次获取。在这两次获取锁的中间阶段,其它goroutine可以随意使用cache。

// gopl.io/ch9/memo3

func (memo *Memo) Get(key string) (value interface{}, err error) {
    memo.mu.Lock()
    res, ok := memo.cache[key]
    memo.mu.Unlock()
    if !ok {
        res.value, res.err = memo.f(key)
        
        // Between the two critical sections, several goroutines may race to compute f(key) and update the map
        memo.mu.Lock()
        memo.cache[key] = res
        memo.mu.Unlock()
    }
    return res.value, res.err
}

笔者注:本质上是通过细化加锁的粒度来实现的。

这些修改使性能再次得到了提升,但有一些URL被获取了两次。这种情况在两个以上的goroutine同一时刻调用Get来请求同样的URL时会发生。多个goroutine一起查询cache,发现没有值,然后一起调用f这个执行起来非常缓慢的函数。在得到结果后,也都会去更新map。其中一个获得的结果会覆盖掉另一个的结果。

理想情况下是应该避免掉多余的工作的。而这种“避免”工作一般被称为duplicate suppression(重复抑制/避免)。下面版本的Memo每一个map元素都是指向一个条目的指针。每一个条目包含对函数f调用结果的内容缓存。与之前不同的是这次entry还包含了一个叫ready的channel。在条目的结果被设置之后,这个channel就会被关闭,以向其它goroutine广播(§8.9)去读取该条目内的结果是安全的了。

// gopl.ioo/ch9/memo4

type entry struct {
    res     result
    ready   chan struct{}  // closed wen res is ready
}

func New(f Func) *Memo {
    return &Memo{f: f, cache: make(map[string]*entry)}
}

type Memo struct {
    f       Func
    mu      sync.Mutex  // guards cache
    cache   map[string]*entry
}

func (memo *Memo) Get(key string) (value interface{}, err error) {
    memo.mu.Lock()
    e := memo.cache[key]
    if e == nil {
        // This is the first request for this key
        // This goroutine becomes responsible for computing
        // the value and braodcasting the ready condition
        e = &entry{ready: make(chan struct)}
        memo.cache[key] = e
        memo.mu.Unlock()  // 笔者注:对象e创建后就给key赋值并解锁 但不意味着其他goroutine就能够修改e 这是下面else分支中ready起的作用
        
        e.res.value, e.res.err = memo.f(key)
        
        close(e.ready)  // broadcast ready condition
        
    } else {
        // This is a repeat request for this key
        memo.mu.Unlock()
        
        <-e.ready  // wait for ready condition
                  // 笔者注:这步是关键 重复读取时其他goroutine必须等待第一个读取的goroutine close掉channel
    }
    return e.res.value, e.res.err
}

现在Get函数包括下面这些步骤了:获取互斥锁来保护共享变量cache map,查询map中是否存在指定条目,如果没有找到那么分配空间插入一个新条目,释放互斥锁。如果存在条目的话且其值没有写入完成(也就是有其它的goroutine在调用f这个慢函数)时,goroutine必须等待值ready之后才能读到条目的结果。而想知道是否ready的话,可以直接从ready channel中读取,由于这个读取操作在channel关闭之前一直是阻塞。

如果没有条目(item,指map中的键值对)的话,需要向map中插入一个没有准备好的条目,当前正在调用的goroutine就需要负责调用慢函数(指f)、更新map中的条目值值以及向其它所有goroutine广播条目已经ready可读的消息了。

条目中的e.res.value和e.res.err变量是在多个goroutine之间共享的。创建条目的goroutine同时也会设置条目的值,其它goroutine在收到"ready"的广播消息之后立刻会去读取条目的值。尽管会被多个goroutine同时访问,但却并不需要互斥锁。ready channel的关闭一定会发生在其它goroutine接收到广播事件之前,因此第一个goroutine对这些变量的写操作是一定发生在这些读操作之前的,不会发生数据竞争

这样并发、不重复、无阻塞的cache就完成了。

上面这样Memo的实现使用了一个互斥量来保护多个goroutine调用Get时的共享map变量。不妨把这种设计和前面提到的把map变量限制在一个单独的monitor goroutine的方案做一些对比,后者在调用Get时需要发消息。

Func、result和entry的声明和之前保持一致,如下:

// Func is the type of the function to memoize.
type Func func(key string) (interface{}, error)

// A result is the result of calling a Func.
type result struct {
    value interface{}
    err   error
}

type entry struct {
    res   result
    ready chan struct{} // closed when res is ready
}

不一样的地方在于Memo类型现在包含了一个叫做requests的channel,Get的调用方用这个channel来和monitor goroutine来通信。requests channel中的元素类型是request。Get的调用方会把这个结构中的两组key都填充好,实际上用这两个变量来对函数进行缓存的。另一个叫response的channel会被拿来发送响应结果。这个channel只会传回一个单独的值。

// gopl.io/ch9/memo5

// A request is a message requesting that the Func be applied to key
type request struct {
    key      string
    response chan<- result  // the clients wants a single result
}

type Memo struct { requests chan request }
// New returns a memoization of f. Clients must subsequently call Close
func New(f Func) *Memo {
    memo = &Memo{requests: make(chan request)}
    go memo.server(f)
    return memo
}

func (memo *Memo) Get(key string) (interface{}, error) {
    response := make(chan result)
    memo.requests <- request{key, response}
    res := <- response
    return res.value, res.err
}

func (memo *Memo) Close { close(memo.requests) }

上面的Get方法,会创建一个response channel,把它放进request结构中,然后发送给monitor goroutine,然后马上又会接收response的输出(笔者注:以channel实现同步)。

cache变量被限制在了monitor goroutine的(*Memo).server中,下面会看到。monitor会在循环中一直读取请求,直到request channel被Close方法关闭。每一个请求都会去查询cache,如果没有找到条目的话,那么就会创建/插入一个新的条目。

func (memo *Memo) server(f Func) {
    cache := make(map[string]*entry)
    for req := range memo.requests {
        e := cache[req.key]
        if e == nil {
            e = &entry{ready: make(chan struct{})}
            cache[req.key] = e
            go e.call(f, req.key)  // call f(key)
        }
        go e.deliver(req.response)
    }
}

func (e *entry) call(f Func, key string) {
    // evaluate the function
    e.res.value, e.res.err = f(key)
    // broadcase the ready condition
    close(e.ready)
}

func (e *entry) deliver(response chan<- result) {
    // wait for the ready condition
    <-e.ready
    // send the result to the client
    response <- e.res
}

和基于互斥量的版本类似,第一个对某个key的请求需要负责去调用函数f并传入这个key,将结果存在条目里,并关闭ready channel来广播条目的ready消息。使用(*entry).call来完成上述工作。

紧接着对同一个key的请求会发现map中已经有了存在的条目,然后会等待结果变为ready,并将结果从response发送给客户端的goroutine。

上述工作是用(*entry).deliver来完成的。对call和deliver方法的调用必须让它们在自己的goroutine中进行以确保monitor goroutines不会因此而被阻塞住而没法处理新的请求。

这个例子说明我们无论用,还是通信来建立并发程序都是可行的。

笔者注:锁和通道是Go语言中主要的并发控制机制。其中锁是用来控制对共享变量的访问实现同步,通道则是在gouroutine之间传递信息以实现同步。3、4、5这个三个版本的memo是本节作者列举的三种实现,其中,版本3只有锁,版本4锁和通道都用,版本5只有通道。通过这三个版本的对比,也能看出锁和通道实现并发的区别:锁实现起来简单,但加锁的粒度会限制并发的效率;通道实现起来复杂很多,但并发的效果最好。锁和通道哪个更好没有绝对,合适的场景下选择合适的方法即可。

Goroutines和线程

在上一章中我们说goroutine和操作系统的线程区别可以先忽略。尽管两者的区别实际上只是一个量的区别,但量变会引起质变的道理同样适用于goroutine和线程。现在正是我们来区分开两者的最佳时机。

动态栈

每一个OS线程都有一个固定大小的内存块(一般会是2MB)来做栈,这个栈会用来存储当前正在被调用或挂起(指在调用其它函数时)的函数的内部变量。这个固定大小的栈可以说很大也可以说很小。

每一个OS线程都有一个固定大小的内存块(一般会是2MB)来做栈,这个栈会用来存储当前正在被调用或挂起(指在调用其它函数时)的函数的内部变量。这个固定大小的栈同时很大又很小。然而2MB的栈对于一个小小的goroutine来说是很大的内存浪费,比如对于我们用到的,一个只是用来WaitGroup之后关闭channel的goroutine来说。而对于go程序来说,同时创建成百上千个goroutine是非常普遍的,如果每一个goroutine都需要这么大的栈的话,那这么多的goroutine就不太可能了。除去大小的问题之外,固定大小的栈对于更复杂或者更深层次的递归函数调用来说显然是不够的

修改固定的大小可以提升空间的利用率,允许创建更多的线程,并且可以允许更深的递归调用,不过这两者是没法同时兼备的

一个goroutine会以一个很小的栈开始其生命周期,一般只需要2KB。一个goroutine的栈,和操作系统线程一样,会保存其活跃或挂起的函数调用的本地变量。但是和OS线程不太一样的是,一个goroutine的栈大小并不是固定的,它会根据需要动态地扩展或收缩。goroutine的栈的最大值有1GB,比传统的固定大小的线程栈要大得多,尽管一般情况下,大多goroutine都不需要这么大的栈。

笔者注:一句话总结goroutine和线程在栈上的区别:操作系统线程使用固定大小(2MB)的栈来保存函数执行的上下文,而goroutine则使用起始容量为2KB,最大能扩展到2GB的动态栈

Goroutine调度

OS线程会被操作系统内核调度。每几毫秒,一个硬件计时器会中断处理器,中断后会调用一个叫作scheduler的内核函数。这个函数会挂起当前执行的线程并将它的寄存器内容保存到内存中,检查线程列表并决定下一次哪个线程可以被运行,并从内存中恢复该线程的寄存器信息,然后恢复执行该线程的现场并开始执行线程。因为操作系统线程是被内核所调度,所以从一个线程向另一个“移动”需要完整的上下文切换,也就是说,保存一个用户线程的状态到内存,恢复另一个线程的到寄存器,然后更新调度器的数据结构。这几步操作很慢,因为其局部性很差需要几次内存访问,并且会增加运行的cpu周期。

(笔者注:调用操作系统内核实现线程切换,不仅如上面讲的,而且还涉及操作系统从用户态到内核态的切换,这个切换会消耗大量的时间。为此,在高并发的场景下,我们会尽量避免线程的切换,比如Java的线程池等等高并发机制都是这个目的)

Go的运行时包含了其自己的调度器,这个调度器使用了一些技术手段,比如m:n调度,因为其会在n个操作系统线程上多工(调度)m个goroutine。Go调度器的工作和内核的调度是相似的,但是这个调度器只关注单独的Go程序中的goroutine(译注:按程序独立。笔者注:即调度的基本单位不是线程而是goroutine)。

和操作系统的线程调度不同的是,Go调度器并不是用一个硬件定时器,而是被Go语言“架构”本身进行调度的。例如当一个goroutine调用了time.Sleep,或者被channel调用或者mutex操作阻塞时,调度器会使其进入休眠并开始执行另一个goroutine,直到时机到了再去唤醒第一个goroutine。因为这种调度方式不需要进入内核的上下文(内核态),所以重新调度一个goroutine比调度一个线程代价要低得多

笔者注:一句话总结goroutine和线程在调度上的区别:goroutine调度非硬件,调度的基本单位是goroutine,并支持m个线程对n个rgoroutine的多对多调度,不需要进入内核态,代价小得多

GOMAXPROCS

Go的调度器使用了一个叫做GOMAXPROCS的变量来决定会有多少个操作系统的线程同时执行Go的代码。其默认的值是运行机器上的CPU的核心数,所以在一个有8个核心的机器上时,调度器一次会在8个OS线程上去调度GO代码。(GOMAXPROCS是前面说的m:n调度中的n)。在休眠中的或者在通信中被阻塞的goroutine是不需要一个对应的线程来做调度的在I/O中或系统调用中或调用非Go语言函数时是需要一个对应的操作系统线程的但是GOMAXPROCS并不需要将这几种情况计算在内

你可以用GOMAXPROCS的环境变量来显式地控制这个参数,或者也可以在运行时用runtime.GOMAXPROCS函数来修改它。我们在下面的小程序中会看到GOMAXPROCS的效果,这个程序会无限打印0和1。

for {
    go fmt.Print(0)
    fmt.Print(1)
}

$ GOMAXPROCS=1 go run hacker-cliché.go
111111111111111111110000000000000000000011111...

$ GOMAXPROCS=2 go run hacker-cliché.go
010101010101010101011001100101011010010100110...

在第一次执行时,最多同时只能有一个goroutine被执行。初始情况下只有main goroutine被执行,所以会打印很多1。过了一段时间后,GO调度器会将其置为休眠,并唤醒另一个goroutine,这时候就开始打印很多0了,在打印的时候,goroutine是被调度到操作系统线程上的。在第二次执行时,我们使用了两个操作系统线程,所以两个goroutine可以一起被执行,以同样的频率交替打印0和1。我们必须强调的是goroutine的调度是受很多因子影响的,而runtime也是在不断地发展演进的,所以这里的你实际得到的结果可能会因为版本的不同而与我们运行的结果有所不同。

笔者注:goroutine底层也是依赖操作系统线程实现的,逻辑上和线程存在前面两个小节所叙述的区别。

Goroutine没有ID号

在大多数支持多线程的操作系统和程序语言中,当前的线程都有一个独特的身份(即线程id),并且这个身份信息可以以一个普通值的形式被很容易地获取到,典型的可以是一个integer或者指针值。

这种情况下我们做一个抽象化的thread-local storage(线程本地存储,多线程编程中不希望其它线程访问的内容)就很容易,只需要以线程的id作为key构建一个map就可以解决问题,每一个线程以其id就能从中获取到值,且和其它线程互不冲突(比如Java的ThreadLocalMap)。

goroutine没有可以被程序员获取到的身份(id)的概念,这一点是设计上故意而为之。由于thread-local storage总是会被滥用。比如说,一个web server是用一种支持TLS的语言实现的,而非常普遍的是很多函数会去寻找HTTP请求的信息,这代表它们就是去其存储层(这个存储层有可能是TLS)查找的。这就像是那些过分依赖全局变量的程序一样,会导致一种非健康的“距离外行为”,在这种行为下,一个函数的行为可能并不仅由自己的参数所决定,而是由其所运行在的线程所决定。因此,如果线程本身的身份改变——比如一些worker线程之类的——那么函数的行为就会变得神秘莫测

Go鼓励更为简单的模式,这种模式下参数(译注:外部显式参数和内部显式参数。TLS中的内容算是"外部"隐式参数)对函数的影响都是显式的。这样不仅使程序变得更易读,而且会让我们自由地向一些给定的函数分配子任务时不用担心其身份信息影响行为。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值