golang 并发编程

知识点

并发

多线程程序在一个cpu上调度交替时间运行

并行

多线程程序在多个cpu上同段时间运行

进程

程序执行过程,系统分配资源和调度的基本单位

线程

cpu运算调度的最小单位(KSE,Kernal Scheduling Entity),进程至少有一个主线程

协程

主线程开启的逻辑上轻量级线程,独立栈空间,共享堆空间,调度由用户空间控制

通信模型

CSP communicating sequential process

顺序通信进程模型,使用通道收发减少协程间共享内存带来的锁开销。

share memory

共享内存进行线程间通信,需要利用内存屏障(锁)保证内存的多线程共享内存可见一致性。

线程模型

1. 用户级线程模型M:1

M个用户线程映射到1个内核线程(KSE),用户空间上进行线程管理调度

优点:
1. 用户线程切换上下文比内核线程模态切换性能更高
缺点:
1. 内核线程被某个用户线程阻塞后(如IO)会阻塞整个程序
2. 本质单内核线程,需要多进程才能充分使用多核CPU资源

2. 内核级线程模型1:1

用户线程1:1映射到内核线程(KSE),内核调度器进行管理调度

优点:
1. 多线程充分使用多核CPU资源,不会因单个用户线程阻塞影响程序
缺点:
1. 每个用户线程都需要创建一个内核线程,创建线程的开销大,性能低。
2. 多进程使用多核CPU开销大。

3. 两级线程模型M:N

M个用户线程映射到N个内核线程(KSE),用户空间上进行用户线程管理调度,内核空间由内核调度内核线程。

优点:
1. 大部分调度切换发生在用户空间,开销小性能高
2. 充分利用多核cpu,没有线程阻塞影响整个程序风险
缺点:
1. 依赖用户空间调度器优化

调度 GPM

使用两级线程模型改进

  1. M(Main Thread): go封装的虚拟用户线程,对应1个内核线程(KSE)

    1. 启动程序后的编号为0的主线程M0。
      • 在全局变量runtime.m0,不需要在heap分配
      • 负责执行初始化调度器,启动第一个G,之后与其他M一样
    2. M绑定有效P,M会启动一个内核线程KSE进入调度循环,处理P管理的G。
    3. LRQ空,(work stealing机制),M窃取G,详见Shedule。
    4. G阻塞,当前M释放P进入睡眠,(hand off机制),P没有空闲M可用会创建M,新M接管P。
    5. 没有的P需要空闲M则回收M。
    6. M默认上限10000,debug.SetMaxThreads()设置,实际由P决定。
  2. P(Processor):go封装的"CPU",P的数量即为协程最大并行数量

    1. P最大数量由GOMAXPROCS配置,默认为CPU核心数,启动程序后初始化所有P。
    2. 处理器
      1. G执行环境(Context)
      2. 内存分配(mcahe)
      3. 本地队列(LRQ) 最大256
    3. LRQ满则放至G的全局队列(GRQ)
  3. G(Goroutine):go封装的调度单元

    1. go func 关键字创建G
    2. 协程结构体
      1. 运行堆栈
      2. 状态
      3. 函数及参数
    3. G绑定P才能被调度执行
    4. G0是每一个启动的M第一个创建的G
      1. G0深度参与调度G

      2. 调度或者系统调用时M切换G0,使用G0的栈空间调度

        g0-and-g

  4. Sched:go封装的调度器

    1. 调度器
      1. G的全局队列(GRQ)
      2. M的全局队列
      3. 调度器状态
        img

调度策略

  1. 复用线程

    1. 作用: 避免频繁的创建、销毁线程,而是对线程的复用,减小开销。
    2. work stealing机制
      当M无可运行的G时,尝试从其他M绑定的P偷取G,而不是销毁线程。
    3. hand off机制
      当M因为G进行系统调用阻塞时,线程释放绑定的P,把P转移给其他空闲的M执行。
  2. 利用并行

    1. 作用: 提高运行效率
    2. P = GOMAXPROCS <= CPU 核 M>=P。
  3. 抢占

    1. 作用: 保证公平,G超时,防止其他G饿死
    2. G最多占用CPU 10ms,切换g0进入调度循环。
    • _Prunning下的g,多半是死循环导致,会放置到全局队列
    • _Psyscall下的g,多半是阻塞性系统调用引起的
  4. 全局G队列

    1. 作用: 本地G队列相当于全局G队列的缓存,用于放置无法消化的G
    2. work stealing机制/抢占均使用到

源码分析

G

详见goroutine

M

// runtime2.go/runtime.m
type m struct {
  // G相关
  g0   *g   //持有调度栈的goroutine(深度参与M调度)  
	curg *g   //当前M运行的用户goroutine

 
  // P相关
  p             puintptr   //当前M正在运行的处理器
	nextp         puintptr   //暂存的处理器
	oldp          puintptr   //执行系统调用之前处理器
  
  // M相关
  spinning      bool       // 自旋状态
  
    
  // 信号处理
  gsignal       *g   // signal-handling g
  
  //其他字段
	...
}

// ------- M 初始化 ----------
// Pre-allocated ID may be passed as 'id', or omitted by passing -1.
func mcommoninit(mp *m, id int64) {
	_g_ := getg()

	// g0 stack won't make sense for user (and is not necessary unwindable).
	if _g_ != _g_.m.g0 {
		callers(1, mp.createstack[:])
	}

	lock(&sched.lock)

	if id >= 0 {
		mp.id = id
	} else {
		mp.id = mReserveID()
	}

	mp.fastrand[0] = uint32(int64Hash(uint64(mp.id), fastrandseed))
	mp.fastrand[1] = uint32(int64Hash(uint64(cputicks()), ^fastrandseed))
	if mp.fastrand[0]|mp.fastrand[1] == 0 {
		mp.fastrand[1] = 1
	}

	mpreinit(mp)
	if mp.gsignal != nil {
		mp.gsignal.stackguard1 = mp.gsignal.stack.lo + _StackGuard
	}

  // 添加到 allm 中,从而当它刚保存到寄存器或本地线程存储时候 GC 不会释放 g.m
	mp.alllink = allm

  // NumCgoCall() 会在没有使用 schedlock 时遍历 allm,等价于 allm = mp
	atomicstorep(unsafe.Pointer(&allm), unsafe.Pointer(mp))
	unlock(&sched.lock)

  //其他代码
	...
}

P

// runtime2.go/runtime.p
const (
	// P status 状态
	// 处理器没有运行用户代码或者调度器,被空闲队列或者改变其状态的结构持有,运行队列为空
	_Pidle = iota
	// 被线程 M 持有,并且正在执行用户代码或者调度器
	_Prunning
	// 没有执行用户代码,当前线程陷入系统调用
	_Psyscall
	// 被线程 M 持有,当前处理器由于垃圾回收被停止
	_Pgcstop
	// 当前处理器已经不被使用
	_Pdead
)
// runtime2.go/runtime.p
type p struct {
  // P 自身
  id       int32
  status   uint32
    
  // M 相关
	m           muintptr    //当前持有P的M(nil 则表示 idle)
  mcache      *mcache     //
  pcache      pageCache

  // G 相关
  lock     mutex  
	runqhead uint32         //本地队列头
	runqtail uint32         //本地队列尾
	runq     [256]guintptr  //P本地G队列 256 缓存友好
	runnext guintptr        //下一个需要执行的G 局部性原理,为了尽量保证新创建G尽量在同一个P中
  
  //其他字段
	...
}

schedt

// runtime/runtime2.go/runtime.schedt
type schedt struct {

  // G相关
	lock mutex
	runq     gQueue //  全局G队列,链表
	runqsize int32
  gFree struct {		// 有效 dead G 的全局缓存.
		lock    mutex
		stack   gList	// 包含栈的 Gs
		noStack gList	// 没有栈的 Gs
		n       int32
	}
  
  // P相关
  pidle      puintptr	// 空闲 p 链表
	npidle     uint32	// 空闲 p 数量
  
  // M相关
  nmspinning uint32	// 自旋状态的 M 的数量

  // 其他代码
  ...
}

//--------------------- 调度器启动 ---------------------
// runtime/proc.go/schedinit
func schedinit() {
  // 其他代码
  ...
	_g_ := getg()             // g0
  // 其他代码
  ...
	sched.maxmcount = 10000  // 线程默认上限数
  mcommoninit(_g_.m, -1)   // 初始化M
  // 其他代码
  ...
	procs := ncpu           // 初始化P
	if n, ok := atoi32(gogetenv("GOMAXPROCS")); ok && n > 0 {
		procs = n
	}
	if procresize(procs) != nil {
		throw("unknown runnable goroutine during bootstrap")
	}

  // 其他代码
  ...
}


//--------------------- 调度循环 ---------------------
//  1.P每61循环,尝试获取平分全局G
//  2.P尝试P的runnext局部优先获取G
//  3.P本地G尝试获取G
//  4.P尝试从全局G平分G
//  5.P尝试从网络轮询器获取G
//  6.P尝试从其他P窃取1半G到自己本地G队列
// runtime/proc.go/schedule 
func schedule() {
	_g_ := getg()

	// 其他代码
  ...
  
top:

	// 其他代码
  ...

	var gp *g
	var inheritTime bool

	// 其他代码
  ...

	if gp == nil {
		// 1. 每执行61次循环看一下全局队列。为了保证公平,避免全局队列一直没有得到执行。
		if _g_.m.p.ptr().schedtick%61 == 0 && sched.runqsize > 0 {
			lock(&sched.lock)
			gp = globrunqget(_g_.m.p.ptr(), 1)
			unlock(&sched.lock)
		}
	}
	if gp == nil {
    // 2. 先尝试从p的runnext和本地队列查找G
		gp, inheritTime = runqget(_g_.m.p.ptr())
	}
	if gp == nil {
    // 3. 本地g先找
    // 4. 仍找不到,去全局队列中查找G
    // 5. 找不到,去网络轮询器中查找G
    // 6. 找不到,去其他g中窃取G
		gp, inheritTime = findrunnable()
	}

	// 其他代码
  ...

  //调用execute,继续调度循环
	execute(gp, inheritTime)
}

//--------------------- 运行G ---------------------
// 1. 准备G的
// 2. 调度M执行
// runtime/proc.go/execute
func execute(gp *g, inheritTime bool) {
  
  // 1. 准备G的
	_g_ := getg()
	_g_.m.curg = gp
	gp.m = _g_.m
	casgstatus(gp, _Grunnable, _Grunning)
	gp.waitsince = 0
	gp.preempt = false
	gp.stackguard0 = gp.stack.lo + _StackGuard
	if !inheritTime {
		_g_.m.p.ptr().schedtick++
	}
	// 其他代码
  ...
  
  // 2.调度M执行
	gogo(&gp.sched)
}



//--------------------- 全局队列G ---------------------
// 1.窃取G = 全局G/P+1
// 2.窃取G <= P/2 = 128
// 3.更新P的本地队列
// runtime/proc.go/globrunqget
func globrunqget(_p_ *p, max int32) *g {
	assertLockHeld(&sched.lock)

	if sched.runqsize == 0 {
		return nil
	}

  // 1. 计算窃取g个数 = 全局g数量/p数量+1
	n := sched.runqsize/gomaxprocs + 1
	if n > sched.runqsize {
		n = sched.runqsize
	}
	if max > 0 && n > max {
		n = max
	}
  
  // 1.2 窃取g个数最大为当前g的一半即128个
	if n > int32(len(_p_.runq))/2 {
		n = int32(len(_p_.runq)) / 2
	}

  // 2. 窃取g到本地队列,返回窃取的第1个
	sched.runqsize -= n

	gp := sched.runq.pop()
	n--
	for ; n > 0; n-- {
		gp1 := sched.runq.pop()
		// 1.2. 更新p的本地队列
		runqput(_p_, gp1, false)
	}
	return gp
}

//--------------------- worksteal机制 ---------------------
// 1.本地G找
// 2.全局G平分
// 3.轮询器中查找G
// 4.窃取其他P一半G
//   a.4次尝试
//   b.P选择使用伪随机保证公平
//   c.最后一次尝试,如果发现定时器则尝试本地查找,否则进入新的调度循环
// runtime/proc.go/findrunnable
func findrunnable() (gp *g, inheritTime bool) {
	_g_ := getg()

top:
	_p_ := _g_.m.p.ptr()
	// 其他代码
  ...
 
	// 1.本地G找
	if gp, inheritTime := runqget(_p_); gp != nil {
		return gp, inheritTime
	}

	// 2.全局G窃取
	if sched.runqsize != 0 {
		lock(&sched.lock)
		gp := globrunqget(_p_, 0)
		unlock(&sched.lock)
		if gp != nil {
			return gp, false
		}
	}

	// 3.轮询器中查找G
	if netpollinited() && atomic.Load(&netpollWaiters) > 0 && atomic.Load64(&sched.lastpoll) != 0 {
		if list := netpoll(0); !list.empty() { // non-blocking
			gp := list.pop()
			injectglist(&list)
			casgstatus(gp, _Gwaiting, _Grunnable)
			if trace.enabled {
				traceGoUnpark(gp, 0)
			}
			return gp, false
		}
	}

	// 4.窃取其他P一半g
	procs := uint32(gomaxprocs)
	ranTimer := false
	// If number of spinning M's >= number of busy P's, block.
	// This is necessary to prevent excessive CPU consumption
	// when GOMAXPROCS>>1 but the program parallelism is low.
	if !_g_.m.spinning && 2*atomic.Load(&sched.nmspinning) >= procs-atomic.Load(&sched.npidle) {
		goto stop
	}
	if !_g_.m.spinning {
		_g_.m.spinning = true
		atomic.Xadd(&sched.nmspinning, 1)
	}
	const stealTries = 4 // 4.1尝试4次偷取
	for i := 0; i < stealTries; i++ {
		stealTimersOrRunNextG := i == stealTries-1

		for enum := stealOrder.start(fastrand()); !enum.done(); enum.next() {
			if sched.gcwaiting != 0 {
				goto top
			}
			p2 := allp[enum.position()]
			if _p_ == p2 {
				continue
			}

			// 第四次循环检查定时器
			if stealTimersOrRunNextG && timerpMask.read(enum.position()) {
				tnow, w, ran := checkTimers(p2, now)
				now = tnow
				if w != 0 && (pollUntil == 0 || w < pollUntil) {
					pollUntil = w
				}
				if ran {
					// 如果存在定时器,大概率本地有g,从新获取一次本地G
					if gp, inheritTime := runqget(_p_); gp != nil {
						return gp, inheritTime
					}
          // 没有则从新进入循环
					ranTimer = true
				}
			}

			// 4.2 p2不空闲,则窃取G
			if !idlepMask.read(enum.position()) {
				if gp := runqsteal(_p_, p2, stealTimersOrRunNextG); gp != nil {
					return gp, false
				}
			}
		}
	}
	if ranTimer {
		// 重新进入调度循环
		goto top
	}

stop:
   // 其他代码
  ...
  
}

//--------------------- 窃取g ---------------------
// runtime/proc.go/runqsteal
func runqsteal(_p_, p2 *p, stealRunNextG bool) *g {
	t := _p_.runqtail
  // 1. 窃取P2g到当前p本地队列
	n := runqgrab(p2, &_p_.runq, t, stealRunNextG)
	if n == 0 {
		return nil
	}
  
  // 2. 窃取1个直接返回
	n--
	gp := _p_.runq[(t+n)%uint32(len(_p_.runq))].ptr()
	if n == 0 {
		return gp
	}
  
  // 2.1 多个需要处理锁
	h := atomic.LoadAcq(&_p_.runqhead) // load-acquire, synchronize with consumers
	if t-h+n >= uint32(len(_p_.runq)) {
		throw("runqsteal: runq overflow")
	}
	atomic.StoreRel(&_p_.runqtail, t+n) // store-release, makes the item available for consumption
	return gp
}

//--------------------- 窃取g ---------------------
//  1. 计算窃取G数量  n = n - n/2 
//  2. n = 0 如果偷取达到四次且有定时器等,尝试获取runnext
//  3. n > 当前P的G队列,溢出从新计算
//  4. 拷贝G到当前P的G队列
// runtime/proc.go/runqgrab
func runqgrab(_p_ *p, batch *[256]guintptr, batchHead uint32, stealRunNextG bool) uint32 {
	for {
		h := atomic.LoadAcq(&_p_.runqhead) // load-acquire, synchronize with other consumers
		t := atomic.LoadAcq(&_p_.runqtail) // load-acquire, synchronize with the producer
		n := t - h       // 计算本地队列有多少G
		n = n - n/2      // 取一半的G
		if n == 0 {
			if stealRunNextG {
				// Try to steal from _p_.runnext.
				if next := _p_.runnext; next != 0 {
					if _p_.status == _Prunning {
						if GOOS != "windows" {
							usleep(3)
						} else {
							osyield()
						}
					}
					if !_p_.runnext.cas(next, 0) {
						continue
					}
					batch[batchHead%uint32(len(batch))] = next
					return 1
				}
			}
			return 0
		}
		if n > uint32(len(_p_.runq)/2) { // read inconsistent h and t
			continue
		}
		for i := uint32(0); i < n; i++ {
			g := _p_.runq[(h+i)%uint32(len(_p_.runq))]
			batch[(batchHead+i)%uint32(len(batch))] = g
		}
		if atomic.CasRel(&_p_.runqhead, h, h+n) { // cas-release, commits consume
			return n
		}
	}
}

触发调度

  • 线程启动
  • 协程执行结束
  • 主动挂起
  • 系统调用
  • 协作式调度
  • 系统监控

线程启动

runtime/proc.go/mstart - > runtime/proc.go/mstart1

// 线程启动时会触发此函数
// runtime/proc.go/mstart
func mstart() {
	_g_ := getg()

	osStack := _g_.stack.lo == 0
	if osStack {
		size := _g_.stack.hi
		if size == 0 {
			size = 8192 * sys.StackGuardMultiplier
		}
		_g_.stack.hi = uintptr(noescape(unsafe.Pointer(&size)))
		_g_.stack.lo = _g_.stack.hi - size + 1024
	}

	_g_.stackguard0 = _g_.stack.lo + _StackGuard
	_g_.stackguard1 = _g_.stackguard0
	mstart1()

	if mStackIsSystemAllocated() {
		osStack = true
	}
	mexit(osStack)
}

// runtime/proc.go/mstart1
func mstart1() {
	_g_ := getg()

	if _g_ != _g_.m.g0 {
		throw("bad runtime·mstart")
	}

	save(getcallerpc(), getcallersp())
	asminit()
	minit()

	if _g_.m == &m0 {
		mstartm0()
	}

	if fn := _g_.m.mstartfn; fn != nil {
		fn()
	}

	if _g_.m != &m0 {
		acquirep(_g_.m.nextp.ptr())
		_g_.m.nextp = 0
	}
	schedule()  // 触发调度循环
}

协程执行结束

runtime/proc.go/goexit0

// runtime/proc.go/goexit0
func goexit0(gp *g) {
	_g_ := getg()

  // 1.修改G 为_Gdead状态
	casgstatus(gp, _Grunning, _Gdead)  
	if isSystemGoroutine(gp, false) {
		atomic.Xadd(&sched.ngsys, -1)
	}
  
   // 2.清理G内容
	gp.m = nil
	locked := gp.lockedm != 0
	gp.lockedm = 0
	_g_.m.lockedg = 0
	gp.preemptStop = false
	gp.paniconfault = false
	gp._defer = nil // should be true already but just in case.
	gp._panic = nil // non-nil for Goexit during panic. points at stack-allocated data.
	gp.writebuf = nil
	gp.waitreason = 0
	gp.param = nil
	gp.labels = nil
	gp.timer = nil

	if gcBlackenEnabled != 0 && gp.gcAssistBytes > 0 {
		assistWorkPerByte := float64frombits(atomic.Load64(&gcController.assistWorkPerByte))
		scanCredit := int64(assistWorkPerByte * float64(gp.gcAssistBytes))
		atomic.Xaddint64(&gcController.bgScanCredit, scanCredit)
		gp.gcAssistBytes = 0
	}

  // 3.M和G解除
	dropg()

	if GOARCH == "wasm" { // no threads yet on wasm
		gfput(_g_.m.p.ptr(), gp)
		schedule() // never returns
	}

	if _g_.m.lockedInt != 0 {
		print("invalid m->lockedInt = ", _g_.m.lockedInt, "\n")
		throw("internal lockOSThread error")
	}
  // 4.将G放入P的缓存队列
	gfput(_g_.m.p.ptr(), gp)
	if locked {
		if GOOS != "plan9" { // See golang.org/issue/22227.
			gogo(&_g_.m.g0.sched)
		} else {
			_g_.m.lockedExt = 0
		}
	}
	schedule()  // 触发调度循环
}

主动挂起

runtime/proc.go/gopark - > runtime/proc.go/park_m

// runtime/proc.go/gopark
// 当前G暂停
func gopark(unlockf func(*g, unsafe.Pointer) bool, lock unsafe.Pointer, reason waitReason, traceEv byte, traceskip int) {
	//其他代码
  ...
	mp := acquirem()
	gp := mp.curg
	status := readgstatus(gp)
	//其他代码
  ...
	mp.waitlock = lock
	mp.waitunlockf = unlockf
	gp.waitreason = reason
	mp.waittraceev = traceEv
	mp.waittraceskip = traceskip
	releasem(mp)
	mcall(park_m)
}

// runtime/proc.go/park_m
// 1.当前G切换为Gwiting
// 2.移除G和M的关系
// 3.触发调度
func park_m(gp *g) {
	_g_ := getg()

	//其他代码
  ...

	casgstatus(gp, _Grunning, _Gwaiting)
	dropg()

	//其他代码
  ...
  
	schedule() // 触发调度循环
}
// runtime/proc.go/goready
// g唤醒
func goready(gp *g, traceskip int) {
	systemstack(func() {
		ready(gp, traceskip, true)
	})
}

// runtime/proc.go/ready
// 1.当前G切换为_Grunnable
// 2.放入当前运行队列中
// 3.唤醒
func ready(gp *g, traceskip int, next bool) {
  //其他代码
  ...
	status := readgstatus(gp)
	_g_ := getg()
  //其他代码
  ...
  // 1.当前G切换为_Grunnable
	casgstatus(gp, _Gwaiting, _Grunnable)
  // 2.放入当前运行队列中
	runqput(_g_.m.p.ptr(), gp, next)
  // 3.唤醒
	wakep()
 //其他代码
  ...
}

系统调用

runtime/proc.go/exitsyscall -> runtime/proc.go/exitsyscall0

// runtime/proc.go/exitsyscall
//系统调用结束后会调用此函数
// 1.为当前G重新分配资源
// 2.切换调度器G0 触发 调度
func exitsyscall() {
	_g_ := getg()
 //其他代码
  ...
  // 1.为当前G重新分配资源
	oldp := _g_.m.oldp.ptr()
	_g_.m.oldp = 0
  // 1.2 如果原有P处于_Psyscall,通过wirep将G于原有处理取重新关联
  // 1.3 如果没有,调度存在限制处理器会acquirp获取闲置处理器于当前G关联
	if exitsyscallfast(oldp) {
		 //其他代码
     ...
		_g_.m.p.ptr().syscalltick++
		// We need to cas the status and scan before resuming...
		casgstatus(_g_, _Gsyscall, _Grunning)
    //其他代码
    ...
		return
	}
 //其他代码
  ...
  //2.如果没有合适的P 切换G0调度
	mcall(exitsyscall0)
 //其他代码
  ...
	_g_.m.p.ptr().syscalltick++
	_g_.throwsplit = false
}

// 如果没有合适的P 切换G0调度
// runtime/proc.go/exitsyscall0
func exitsyscall0(gp *g) {
	_g_ := getg()
  // 1. 切换G 为_Grunnable 状态
	casgstatus(gp, _Gsyscall, _Grunnable)
  // 2. 移除M和G的关联
	dropg()
	lock(&sched.lock)
	var _p_ *p
  // 3. 获取闲置处理器P
	if schedEnabled(_g_) {
		_p_ = pidleget()
	}
  // 3. 没有限制处理器则放入全局队列
	if _p_ == nil {
		globrunqput(gp)
	} else if atomic.Load(&sched.sysmonwait) != 0 {
		atomic.Store(&sched.sysmonwait, 0)
		notewakeup(&sched.sysmonnote)
	}
	unlock(&sched.lock)
  
  // 4. 获取成功 直接执行
	if _p_ != nil {
		acquirep(_p_)
		execute(gp, false) // Never returns.
	}
	if _g_.m.lockedg != 0 {
		stoplockedm()
		execute(gp, false) // Never returns.
	}
	stopm()
	schedule() // 触发调度循环
}
// runtime/proc.go/exitsyscall
// 系统调用前会运行此函数
func entersyscall() {
	reentersyscall(getcallerpc(), getcallersp())
}

// runtime/proc.go/reentersyscall
// 完成系统调用准备工作
func reentersyscall(pc, sp uintptr) {
	_g_ := getg()
	_g_.m.locks++             
	_g_.stackguard0 = stackPreempt        // 禁止其他M抢占
	_g_.throwsplit = true                 // 禁止当前函数栈分裂 增长


	save(pc, sp)                          // 保存当前程序计数器PC和栈指针SP内容
	_g_.syscallsp = sp
	_g_.syscallpc = pc
	casgstatus(_g_, _Grunning, _Gsyscall) // 将G状态改为 _Gsyscall
 //其他代码
  ...

	_g_.m.syscalltick = _g_.m.p.ptr().syscalltick
	_g_.sysblocktraced = true
	pp := _g_.m.p.ptr()              
	pp.m = 0                              // PM暂时分离
	_g_.m.oldp.set(pp)                    // M记录旧P        
	_g_.m.p = 0                           // M解除P
	atomic.Store(&pp.status, _Psyscall)   // P状态改为_Psyscall
	if sched.gcwaiting != 0 {
		systemstack(entersyscall_gcwait)
		save(pc, sp)
	}

	_g_.m.locks--                        
}

协作式调度

runtime/proc.go/Gosched - >runtime/proc.go/gosched_m->runtime/proc.go/goschedImpl

// runtime/proc.go/Gosched
func Gosched() {
 //其他代码
  ...
  // g0
	mcall(gosched_m)
}

// runtime/proc.go/gosched_m
// g0运行
func gosched_m(gp *g) {
  //其他代码
  ...
	goschedImpl(gp)
}

// runtime/proc.go/goschedImpl
// 1. 将G状态改为 _Grunnable
// 2. 移除M和G的关联
// 3. 将G放置全局队列
func goschedImpl(gp *g) {
  //其他代码
  ...
  // 1. 将G状态改为 _Grunnable
	casgstatus(gp, _Grunning, _Grunnable)
  // 2. 移除M和G的关联
	dropg()
	lock(&sched.lock)
  // 3. 将G放置全局队列
	globrunqput(gp)
	unlock(&sched.lock)

	schedule()  // 触发调度循环
}

系统监控

  • 独立M上运行
  • 抢占P/G
  • 触发GC
  • 清理堆span
// runtime/proc.go/sysmon
// 系统监控在一个独立的 m 上运行
// 总是在没有 P 的情况下运行,因此不能出现写屏障
//go:nowritebarrierrec
func sysmon() {
	lock(&sched.lock)
	sched.nmsys++ // 不计入死锁的系统 m 的数量
	checkdead()   // 死锁检查
	unlock(&sched.lock)
	atomic.Store(&sched.sysmonStarting, 0)

	lasttrace := int64(0)
	idle := 0 // how many cycles in succession we had not wokeup somebody
	delay := uint32(0)

	for {
		if idle == 0 { // 每次启动先休眠 20us
			delay = 20
		} else if idle > 50 { // 1ms 后就翻倍休眠时间
			delay *= 2
		}
		if delay > 10*1000 { // 增加到 10ms
			delay = 10 * 1000
		}
		usleep(delay) // 休眠
		mDoFixup()

   // 如果在 STW,则暂时休眠
		now := nanotime()
		if debug.schedtrace <= 0 && (sched.gcwaiting != 0 || atomic.Load(&sched.npidle) == uint32(gomaxprocs)) {
			lock(&sched.lock)
			if atomic.Load(&sched.gcwaiting) != 0 || atomic.Load(&sched.npidle) == uint32(gomaxprocs) {
				syscallWake := false
				next, _ := timeSleepUntil()
				if next > now {
					atomic.Store(&sched.sysmonwait, 1)
					unlock(&sched.lock)
          // 确保 wake-up 周期足够小从而进行正确的采样
					sleep := forcegcperiod / 2
					if next-now < sleep {
						sleep = next - now
					}
					shouldRelax := sleep >= osRelaxMinNS
					if shouldRelax {
						osRelax(true)
					}
					syscallWake = notetsleep(&sched.sysmonnote, sleep)
					mDoFixup()
					if shouldRelax {
						osRelax(false)
					}
					lock(&sched.lock)
					atomic.Store(&sched.sysmonwait, 0)
					noteclear(&sched.sysmonnote)
				}
				if syscallWake {
					idle = 0
					delay = 20
				}
			}
			unlock(&sched.lock)
		}

		lock(&sched.sysmonlock)
		now = nanotime()

	 // 需要时触发 libc interceptor
		if *cgo_yield != nil {
			asmcgocall(*cgo_yield, nil)
		}
		// 如果超过 10ms 没有 poll,则 poll 一下网络
		lastpoll := int64(atomic.Load64(&sched.lastpoll))
		if netpollinited() && lastpoll != 0 && lastpoll+10*1000*1000 < now {
			atomic.Cas64(&sched.lastpoll, uint64(lastpoll), uint64(now))
			list := netpoll(0) // 非阻塞,返回 Goroutine 列表
			if !list.empty() {
				// 需要在插入 g 列表前减少空闲锁住的 m 的数量(假装有一个正在运行)
				// 否则会导致这些情况:
				// injectglist 会绑定所有的 p,但是在它开始 M 运行 P 之前,另一个 M 从 syscall 返回,
				// 完成运行它的 G ,注意这时候没有 work 要做,且没有其他正在运行 M 的死锁报告。
				incidlelocked(-1)
				injectglist(&list)
				incidlelocked(1)
			}
		}
		mDoFixup()
		if GOOS == "netbsd" {
			if next, _ := timeSleepUntil(); next < now {
				startm(nil, false)
			}
		}
		if atomic.Load(&scavenge.sysmonWake) != 0 {
			wakeScavenger()
		}
    
    // 抢夺在 syscall 中阻塞的 P、运行时间过长的 G
		if retake(now) != 0 {
			idle = 0
		} else {
			idle++
		}
    
    // 检查是否需要强制触发 GC
		if t := (gcTrigger{kind: gcTriggerTime, now: now}); t.test() && atomic.Load(&forcegc.idle) != 0 {
			lock(&forcegc.lock)
			forcegc.idle = 0
			var list gList
			list.push(forcegc.g)
			injectglist(&list)
			unlock(&forcegc.lock)
		}
		if debug.schedtrace > 0 && lasttrace+int64(debug.schedtrace)*1000000 <= now {
			lasttrace = now
			schedtrace(debug.scheddetail > 0)
		}
		unlock(&sched.sysmonlock)
	}
}


// runtime/proc.go/retake
// 抢占P
func retake(now int64) uint32 {
	n := 0
	// 防止 allp 数组发生变化,除非我们已经 STW,此锁将完全没有人竞争
	lock(&allpLock)
	for i := 0; i < len(allp); i++ {
		_p_ := allp[i]
		if _p_ == nil {
			continue
		}
		pd := &_p_.sysmontick
		s := _p_.status
		sysretake := false
		if s == _Prunning || s == _Psyscall {
			// 如果 G 运行时时间太长则进行抢占
			t := int64(_p_.schedtick)
			if int64(pd.schedtick) != t {
				pd.schedtick = uint32(t)
				pd.schedwhen = now
			} else if pd.schedwhen+forcePreemptNS <= now {
        // 对于 syscall 的情况,因为 M 没有与 P 绑定,
				// preemptone() 不工作
				preemptone(_p_)
				sysretake = true
			}
		}
    
    // 对阻塞在系统调用上的 P 进行抢占
		if s == _Psyscall {
      // 如果已经超过了一个系统监控的 tick(20us),则从系统调用中抢占 P
			t := int64(_p_.syscalltick)
			if !sysretake && int64(pd.syscalltick) != t {
				pd.syscalltick = uint32(t)
				pd.syscallwhen = now
				continue
			}
      // 一方面,在没有其他 work 的情况下,我们不希望抢夺 P
			// 另一方面,因为它可能阻止 sysmon 线程从深度睡眠中唤醒,所以最终我们仍希望抢夺 P  
			if runqempty(_p_) && atomic.Load(&sched.nmspinning)+atomic.Load(&sched.npidle) > 0 && pd.syscallwhen+10*1000*1000 > now {
				continue
			}
			// 解除 allpLock,从而可以获取 sched.lock
			unlock(&allpLock)
     	// 在 CAS 之前需要减少空闲 M 的数量(假装某个还在运行)
			// 否则发生抢夺的 M 可能退出 syscall 然后再增加 nmidle ,进而发生死锁
			// 这个过程发生在 stoplockedm 中
			incidlelocked(-1)
			if atomic.Cas(&_p_.status, s, _Pidle) { // 将 P 设为 idle,从而交于其他 M 使用
				if trace.enabled {
					traceGoSysBlock(_p_)
					traceProcStop(_p_)
				}
				n++
				_p_.syscalltick++
				handoffp(_p_)
			}
			incidlelocked(1)
			lock(&allpLock)
		}
	}
	unlock(&allpLock)
	return uint32(n)
}


// runtime/proc.go/preemptone
func preemptone(_p_ *p) bool {
  // 检查 M 与 P 是否绑定
	mp := _p_.m.ptr()
	if mp == nil || mp == getg().m {
		return false
	}
	gp := mp.curg
	if gp == nil || gp == mp.g0 {
		return false
	}

  // 将 G 标记为抢占
	gp.preempt = true

  // 一个 Goroutine 中的每个调用都会通过比较当前栈指针和 gp.stackgard0
	// 来检查栈是否溢出。
	// 设置 gp.stackgard0 为 StackPreempt 来将抢占转换为正常的栈溢出检查。
	gp.stackguard0 = stackPreempt

	// 请求该 P 的异步抢占
	if preemptMSupported && debug.asyncpreemptoff == 0 {
		_p_.preempt = true
		preemptM(mp)
	}

	return true
}

// todo 抢占

协程 goroutine

对比

  1. 内存上:

    1. 内核线程通常2MB栈内存
    2. 协程通常2KB内存(根据需要自动调整)。
  2. 调度上:

    1. 协程使用M:N线程模型,m个协程分配到n个内核线程上,用户态runtime均匀调度,调度切换成本低,重分利用硬件资源。
    2. 用户线程:内核线程KSE=1:1,由os内核调度,调度切换成本高。

状态转移

golang-goroutine-state-transition

// runtime2.go/runtime.g
// defined constants
const (
	// G status G状态
	// 刚刚被分配并且还没有被初始化
	_Gidle = iota // 0
	// 没有执行代码,没有栈的所有权,存储在运行队列中
	_Grunnable // 1
	// 可以用户执行代码,拥有栈的所有权,被赋予了内核线程 M 和处理器 P
	_Grunning // 2
	// 正在执行系统调用,拥有栈的所有权,没有执行用户代码,被赋予了内核线程 M 但是不在运行队列上
	_Gsyscall // 3
	// 由于运行时而被阻塞,没有执行用户代码并且不在运行队列上,但是可能存在于 Channel 的等待队列上
	_Gwaiting // 4
	// _Gmoribund_unused is currently unused, but hardcoded in gdb
	// scripts.
	_Gmoribund_unused // 5
  //	没有被使用,没有执行代码,可能有分配的栈。可能刚被初始化或者刚退出
	_Gdead // 6
	// _Genqueue_unused is currently unused.
	_Genqueue_unused // 7
	// 栈正在被拷贝,没有执行代码,不在运行队列上
	_Gcopystack // 8
	// 由于抢占而被阻塞,没有执行用户代码并且不在运行队列上,等待唤醒
	_Gpreempted // 9
	// GC 正在扫描栈空间,没有执行代码,可以与其他状态同时存在
	_Gscan          = 0x1000
	_Gscanrunnable  = _Gscan + _Grunnable  // 0x1001
	_Gscanrunning   = _Gscan + _Grunning   // 0x1002
	_Gscansyscall   = _Gscan + _Gsyscall   // 0x1003
	_Gscanwaiting   = _Gscan + _Gwaiting   // 0x1004
	_Gscanpreempted = _Gscan + _Gpreempted // 0x1009
)

源码分析

// runtime2.go/runtime.g
// G goroutine结构体
// 存储goroutine运行数据
type g struct {
 //栈相关
	stack       stack   //当前goroutine内存范围[stack.lo,stack.hi)
	stackguard0 uintptr //用于抢占式调度
	
	//抢占调度
	preempt       bool // 抢占信号
	preemptStop   bool // 抢占时将状态修改成 `_Gpreempted`
	preemptShrink bool // 在同步安全点收缩栈
	
	//defer/panic栈
	_panic       *_panic // 最内侧的panic结构体链表
	_defer       *_defer // 最内侧的延迟函数结构体链表
	
	//调度相关
	m              *m      //当前goroutine占用的线程 可能为空
	sched          gobuf   //goroutine调度相关数据,保存g的上下文
	atomicstatus   uint32  //goroutine的状态
	goid           int64   //goroutine的id
  gopc           uintptr //goroutine的入口函数
	startpc        uintptr //goroutine函数的地址
  
  //其他字段
  ...
}

// runtime2.go/runtime.g.gobuf
// goroutine调度相关数据
// 调度切换上下文,栈指针和程序计数器用来保持或者恢复寄存器的值 
type gobuf struct {
  
	sp   uintptr    // 栈指针
	pc   uintptr    // 运行到的程序位置
	g    guintptr   // 持有runtine.gobuf的goroutine
	ret  sys.Uintreg //系统调用返回值
  
  //其他字段
	...
}

// runtime2.go/runtime.g.stack
// goroutine栈
type stack struct{
  lo uintptr   // 栈的下界内存地址
  hi uintptr   // 栈的上界内存地址
}



//-------------------------- 创建G --------------------------- 
// go 关键字 映射runtime.newproc()
// 1.创建G
// 2.放置本地队列
// runtime/proc.go/newproc
func newproc(siz int32, fn *funcval) {
	argp := add(unsafe.Pointer(&fn), sys.PtrSize)
	gp := getg()
	pc := getcallerpc()
	systemstack(func() {
    // 1.创建G
		newg := newproc1(fn, argp, siz, gp, pc)

		_p_ := getg().m.p.ptr()
    // 2.放置本地队列
		runqput(_p_, newg, true)

		if mainStarted {
			wakep()
		}
	})
}

// ------------------------- 放置G ---------------------------
// 1. next为true 设置G为P的runnext
// 2. next为false 设置G为本地队列
// 2.1 如果P的本地队列没有空间则放全局队列
// runtime/proc.go/runqput
func runqput(_p_ *p, gp *g, next bool) {
	if randomizeScheduler && next && fastrand()%2 == 0 {
		next = false
	}
 
  // 1. next为true 设置G为P的runnext
	if next {
	retryNext:
		oldnext := _p_.runnext
		if !_p_.runnext.cas(oldnext, guintptr(unsafe.Pointer(gp))) {
			goto retryNext
		}
		if oldnext == 0 {
			return
		}
		gp = oldnext.ptr()
	}
  // 2. next为false 设置G为本地队列
retry:
	h := atomic.LoadAcq(&_p_.runqhead) // load-acquire, synchronize with consumers
	t := _p_.runqtail
	if t-h < uint32(len(_p_.runq)) {
		_p_.runq[t%uint32(len(_p_.runq))].set(gp)
		atomic.StoreRel(&_p_.runqtail, t+1) // store-release, makes the item available for consumption
		return
	}
  // 2.1 如果P的本地队列没有空间则放全局队列
	if runqputslow(_p_, gp, h, t) {
		return
	}
	goto retry
}

// ------------------------- 全局队列放置G ---------------------------
// 1.计算放置全局队列的个数
// 2.取本地队列一半+1的G到全局队列
// runtime/proc.go/runqputslow
func runqputslow(_p_ *p, gp *g, h, t uint32) bool {
	var batch [len(_p_.runq)/2 + 1]*g

	// 1.计算放置全局队列的个数
  // n = n /2 + 1
	n := t - h
	n = n / 2
	if n != uint32(len(_p_.runq)/2) {
		throw("runqputslow: queue is not full")
	}
	for i := uint32(0); i < n; i++ {
		batch[i] = _p_.runq[(h+i)%uint32(len(_p_.runq))].ptr()
	}
	if !atomic.CasRel(&_p_.runqhead, h, h+n) { // cas-release, commits consume
		return false
	}
	batch[n] = gp

	if randomizeScheduler {
		for i := uint32(1); i <= n; i++ {
			j := fastrandn(i + 1)
			batch[i], batch[j] = batch[j], batch[i]
		}
	}

	// 2.取本地队列一半+1的G到全局队列
	for i := uint32(0); i < n; i++ {
		batch[i].schedlink.set(batch[i+1])
	}
	var q gQueue
	q.head.set(batch[0])
	q.tail.set(batch[n])

	// Now put the batch on global queue.
	lock(&sched.lock)
	globrunqputbatch(&q, int32(n+1))
	unlock(&sched.lock)
	return true
}

//-------------------------- 创建G --------------------------- 
// 1.获取G的结构体
//   a.获取空闲G
//   b.创建新的G
// 2.拷贝fn argp参数到G的栈中
// 3.重置G的结构体参数。例如 指针/程序计数器/状态
// runtime/proc.go/newproc
func newproc1(fn *funcval, argp unsafe.Pointer, narg int32, callergp *g, callerpc uintptr) *g {
	_g_ := getg()
  
  //其他代码
	...
  
	siz := narg
	siz = (siz + 7) &^ 7

  //其他代码
	...
  
  // 1. 创建G
	_p_ := _g_.m.p.ptr()
  // 1.1 获取空闲G
	newg := gfget(_p_)
	if newg == nil {
     // 1.2 创建新的G
		newg = malg(_StackMin)
		casgstatus(newg, _Gidle, _Gdead)
		allgadd(newg) // publishes with a g->status of Gdead so GC scanner doesn't look at uninitialized stack.
	}
	
  //其他代码
	...

  // 2.拷贝fn argp参数到G的栈中
	totalSize := 4*sys.RegSize + uintptr(siz) + sys.MinFrameSize // extra space in case of reads slightly beyond frame
	totalSize += -totalSize & (sys.SpAlign - 1)                  // align to spAlign
	sp := newg.stack.hi - totalSize
	spArg := sp
 //其他代码
	...
	if narg > 0 {
		memmove(unsafe.Pointer(spArg), argp, uintptr(narg))
		 //其他代码
    	...
	}

  // 3.重置G的结构体参数。例如 指针/程序计数器/状态
	memclrNoHeapPointers(unsafe.Pointer(&newg.sched), unsafe.Sizeof(newg.sched))
	newg.sched.sp = sp
	newg.stktopsp = sp
	newg.sched.pc = funcPC(goexit) + sys.PCQuantum // +PCQuantum so that previous instruction is in same function
	newg.sched.g = guintptr(unsafe.Pointer(newg))
	gostartcallfn(&newg.sched, fn)
	newg.gopc = callerpc
	newg.ancestors = saveAncestors(callergp)
	newg.startpc = fn.fn
	if _g_.m.curg != nil {
		newg.labels = _g_.m.curg.labels
	}
	if isSystemGoroutine(newg, false) {
		atomic.Xadd(&sched.ngsys, +1)
	}
	casgstatus(newg, _Gdead, _Grunnable)
	if _p_.goidcache == _p_.goidcacheend {
		_p_.goidcache = atomic.Xadd64(&sched.goidgen, _GoidCacheBatch)
		_p_.goidcache -= _GoidCacheBatch - 1
		_p_.goidcacheend = _p_.goidcache + _GoidCacheBatch
	}
	newg.goid = int64(_p_.goidcache)
	_p_.goidcache++
	//其他代码
    	...

	return newg
}


//-------------------------- 获取空闲G --------------------------- 
// 从p中获取空闲G复用
// 1. 处理器P不存在空闲G且调取器存在空闲 调度器中获取空闲G到P
// 2. 获取P中空闲G
// runtime/proc.go/gfget
func gfget(_p_ *p) *g {
retry:
  // 1. 调度器中获取空闲G到P
	if _p_.gFree.empty() && (!sched.gFree.stack.empty() || !sched.gFree.noStack.empty()) {
		lock(&sched.gFree.lock)
		for _p_.gFree.n < 32 {
			gp := sched.gFree.stack.pop()
			if gp == nil {
				gp = sched.gFree.noStack.pop()
				if gp == nil {
					break
				}
			}
			sched.gFree.n--
			_p_.gFree.push(gp)
			_p_.gFree.n++
		}
		unlock(&sched.gFree.lock)
		goto retry
	}
  
  // 2. 获取P中空闲G
	gp := _p_.gFree.pop()
	if gp == nil {
		return nil
	}
	_p_.gFree.n--
	if gp.stack.lo == 0 {
		systemstack(func() {
			gp.stack = stackalloc(_FixedStack)
		})
		gp.stackguard0 = gp.stack.lo + _StackGuard
	} else {
		if raceenabled {
			racemalloc(unsafe.Pointer(gp.stack.lo), gp.stack.hi-gp.stack.lo)
		}
		if msanenabled {
			msanmalloc(unsafe.Pointer(gp.stack.lo), gp.stack.hi-gp.stack.lo)
		}
	}
	return gp
}


//-------------------------- 创建G --------------------------- 
// 初始化G
// 1. 创建G结构体
// 2. 申请栈内存
// runtime/proc.go/malg
func malg(stacksize int32) *g {
  //1. 创建G结构体
	newg := new(g)
	if stacksize >= 0 {
		stacksize = round2(_StackSystem + stacksize)
		systemstack(func() {
      //2. 申请栈内存
			newg.stack = stackalloc(uint32(stacksize))
		})
		newg.stackguard0 = newg.stack.lo + _StackGuard
		newg.stackguard1 = ^uintptr(0)
		*(*uintptr)(unsafe.Pointer(newg.stack.lo)) = 0
	}
	return newg
}

在这里插入图片描述

使用

//关键字go + 方法调用开启协程
go func([params ...])([values...])

//例子
//随机打印0~9
for i:=0;i<10;i++{
  go func(int a){
    fmt.Println(a)
  }(i)		
}

// 随机显示 0~9

通道 channel

  1. 先入先出队列FIFO,线程安全,锁保护。

  2. channel零值为nil,使用前必须make创建

  3. 双向通道可以转换为单向通道,反之不行。

动作\状态closenil无缓冲未读无缓冲未写缓冲满了缓冲未满
接收-阻塞正常阻塞正常正常
发送panic阻塞阻塞正常阻塞正常
closepanicpanic正常读零值正常读正常读

源码分析

// runtime.go/runtime.hchan
//维护协程之间通信同步队列,使用互斥锁保证同步
type hchan struct { 
  // chan相关
  closed   uint32   // channel是否关闭
	elemtype *_type   // channel能够收发的原属类型
  // 环形buf
	qcount   uint    //channel中元素个数
	dataqsiz uint    //channel中循环队列长度
	buf      unsafe.Pointer  //channel中缓冲区数据数据指针
	elemsize uint16   //channel能够收发的元素大小
	sendx    uint    //channel中发送操作处理到的位置
	recvx    uint    //channel中接收操作处理到的位置
  lock     mutex   //channel锁
  
  // G相关
	recvq    waitq   //channel缓冲不足阻塞的接收队列(双向链表)
	sendq    waitq   //channel缓冲不足阻塞的发送队列(双向链表)
 
}

// runtime.go/runtime.hchan.waitq
// 存储等待列表中的goroutine
type waitq struct {
	first *sudog   // 头
	last  *sudog   // 尾
}

// runtime.go/runtime.hchan.waitq.sudog
// 双向链表
type sudog struct{
  g *g                // 当前G
  next *sudog         // 下一个G
  prev *sudog         // 上一个G
  elem unsafe.Pointer // 指向信号
  c *hchan            // 当前通道
  // 其他代码
  ...
}


// ----------------创建通道 -----------------

使用

//声明 
var ch chan int

//初始化 make(chan type,[buffer])
//buffer不存在 为无缓冲 发送和接收为同步
//buffer存在 为有缓冲 发送和接收为异步
ch :=make(chan struct{})
ch1 :=make(chan struct{},1)
var ch2 chan<-struct{}=ch  //只写
var ch3 <-chan struct{}=ch //只读


//写通道数据
ch2<-struct{}{}
//读通道数据
<-ch3

//遍历通道数据
for i,ok:=range ch {
  //i 为接收数据
  //ok 是否还有数据
}


//关闭通道,关闭后无法写入否则panic
close(ch)

同步 sync

互斥锁 mutex

锁模式

  1. 正常模式。非公平锁,锁的初始模式
    1. goroutine在CAS4次后未获得锁进入锁的等待队列(FIFO)
    2. 被唤醒goroutine和新goroutine进行CAS争抢锁,大概率失败
    3. 等待队列中goroutine超过1ms没有获取锁则切换饥饿模式
  2. 饥饿模式。公平锁
    1. 释放锁的goroutine直接交给等待队列中队首goroutine
    2. 新goroutine直接加入等待队列队位
    3. 队尾goroutine获取锁或者等待时间小于1ms获取所择切换正常模式

锁状态

在这里插入图片描述

const (
	mutexLocked = 1 << iota   // 锁定
	mutexWoken                // 唤醒
	mutexStarving             // 饥饿
	mutexWaiterShift = iota   // 锁等待位
  starvationThresholdNs = 1e6 // 1ms// 互斥锁
// sync/mutex.go
type Mutex struct {
   // 29bit mutexWaiterShift  等待锁的协程数,判断是否需要释放信号量
   // 1bit  mutexStarving    1 表示饥饿
   // 1bit  mutexWoken       1 表示有协程被唤醒
   // 1bit  mutexLocked      1 表示锁定
    state int32              // 锁状态
  // 该地址是唯一的 取hash值可以在semtable中获取的semroot
  // semroot中 sulog保存了g的队列
    sema  uint32             // 信号量
}
 

上锁

在这里插入图片描述

// sync/mutex.go
func (m *Mutex) Lock() {
	// 1.获取锁
	if atomic.CompareAndSwapInt32(&m.state, 0, mutexLocked) {
		// 其他代码
			....
		return
	}
	// 2.锁失败 
	m.lockSlow()
}
  
// 2.锁失败后处理
func (m *Mutex) lockSlow() {
	var waitStartTime int64
	starving := false
	awoke := false
	iter := 0
	old := m.state
	for {
    // 1.符合自旋条件 且 正常模式 进行CAS自旋争抢
    // 饥饿模式跳过自旋争抢
		if old&(mutexLocked|mutexStarving) == mutexLocked && runtime_canSpin(iter) {
      // 1.2.主动自旋尝试唤醒
			if !awoke && old&mutexWoken == 0 
      && old>>mutexWaiterShift != 0 
      && atomic.CompareAndSwapInt32(&m.state, old, old|mutexWoken) {
        // 1.2.1 设置唤醒标志位
        awoke = true
			}
      // 1.3.调用系统自旋逻辑
      // 资源被锁
      // cpu核数>1
      // 该g自旋次数<4
      // 空闲p
      // 当前p本地g队列空,只有当前g
			runtime_doSpin() // 30次PASE
			iter++ 
			old = m.state
			continue
		}
    
    // 2.计算互斥锁状态
		new := old
    // 2.1 如果是正常模式,尝试标记获取锁
		if old&mutexStarving == 0 {
			new |= mutexLocked
		}
    
    // 2.2 如果已锁或者饥饿模式,等待位+1
		if old&(mutexLocked|mutexStarving) != 0 {
			new += 1 << mutexWaiterShift
		}
    
		// 2.3 如果等待超过1ms 尝试转为饥饿模式
		if starving && old&mutexLocked != 0 {
			new |= mutexStarving
		}
    
    // 2.4 如果之前唤醒锁 尝试重置标志位
		if awoke {
      // 其他代码
			....
			new &^= mutexWoken
		}
    
    // 3.尝试获取锁
    // 获取锁成功
		if atomic.CompareAndSwapInt32(&m.state, old, new) {
			if old&(mutexLocked|mutexStarving) == 0 {
        // 3.1 CAS获取锁成功 放行
				break 
			}
			queueLifo := waitStartTime != 0
			if waitStartTime == 0 {
				waitStartTime = runtime_nanotime()
			}
      
      // 3.2 系统通过信号量等待释放  
      // 等待锁的持有者唤醒 
			runtime_SemacquireMutex(&m.sema, queueLifo, 1)
      // 3.2.1 计算等待时间释放进入饥饿模式
			starving = starving || runtime_nanotime()-waitStartTime > starvationThresholdNs
			old = m.state
      // 3.2.2 饥饿模式处理
			if old&mutexStarving != 0 {
				...
        // 3.2.2.1 修改锁标志位
				delta := int32(mutexLocked - 1<<mutexWaiterShift)
        // 3.2.2.2 是否退出饥饿模式
        // g的执行等待时间<1ms
        // 等待队列只有当前g
				if !starving || old>>mutexWaiterShift == 1 {
					delta -= mutexStarving
				}
				atomic.AddInt32(&m.state, delta)
				break
			}
			awoke = true
			iter = 0
		} else {
      // 获取锁失败 继续cas循环
			old = m.state
		}
	}

// 其他代码
			....
}

解锁

在这里插入图片描述

// sync/mutex.go
func (m *Mutex) Unlock() {
	// 其他代码
	...

  // 1.轻松解锁
	new := atomic.AddInt32(&m.state, -mutexLocked)
	if new != 0 {
    // 2.其他解锁逻辑
		m.unlockSlow(new)
	}
}

func (m *Mutex) unlockSlow(new int32) {
	if (new+mutexLocked)&mutexLocked == 0 {
		throw("sync: unlock of unlocked mutex")
	}
  
  // 1. 正常模式
	if new&mutexStarving == 0 {
		old := new
		for {
      // 1.1 没有其他锁状态直接返回
			if old>>mutexWaiterShift == 0 || old&(mutexLocked|mutexWoken|mutexStarving) != 0 {
				return
			}
			// 1.2 有等待者 移交锁的所有权和唤醒
			new = (old - 1<<mutexWaiterShift) | mutexWoken
			if atomic.CompareAndSwapInt32(&m.state, old, new) {
				runtime_Semrelease(&m.sema, false, 1)
				return
			}
			old = m.state
		}
	} else {
    // 2. 饥饿模式
    // 尝试唤醒下一个
		runtime_Semrelease(&m.sema, true, 1)
	}
}

读写锁 RWMutex

待续

参考

golang修养之路

go语言设计与实现

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Mars'Ares

请我喝杯咖啡吧

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值