Go1.13 defer 的性能是如何提高的?

最近 Go1.13 终于发布了,其中一个值得关注的特性就是 defer 在大部分的场景下性能提升了30%,但是官方并没有具体写是怎么提升的,这让大家非常的疑惑。而我因为之前写过《深入理解 Go defer》 和 《Go defer 会有性能损耗,尽量不要用?》 这类文章,因此我挺感兴趣它是做了什么改变才能得到这样子的结果,所以今天和大家一起探索其中奥妙。

一、测试

Go1.12

$ go test -bench=. -benchmem -run=none	
goos: darwin	
goarch: amd64	
pkg: github.com/EDDYCJY/awesomeDefer	
BenchmarkDoDefer-4          20000000            91.4 ns/op        48 B/op          1 allocs/op	
BenchmarkDoNotDefer-4       30000000            41.6 ns/op        48 B/op          1 allocs/op	
PASS	
ok      github.com/EDDYCJY/awesomeDefer 3.234s

Go1.13

$ go test -bench=. -benchmem -run=none	
goos: darwin	
goarch: amd64	
pkg: github.com/EDDYCJY/awesomeDefer	
BenchmarkDoDefer-4          15986062            74.7 ns/op        48 B/op          1 allocs/op	
BenchmarkDoNotDefer-4       29231842            40.3 ns/op        48 B/op          1 allocs/op	
PASS	
ok      github.com/EDDYCJY/awesomeDefer 3.444s

在开场,我先以不标准的测试基准验证了先前的测试用例,确确实实在这两个版本中, defer 的性能得到了提高,但是看上去似乎不是百分百提高 30 %。

二、看一下

之前(Go1.12)

    0x0070 00112 (main.go:6)    CALL    runtime.deferproc(SB)	
    0x0075 00117 (main.go:6)    TESTL    AX, AX	
    0x0077 00119 (main.go:6)    JNE    137	
    0x0079 00121 (main.go:7)    XCHGL    AX, AX	
    0x007a 00122 (main.go:7)    CALL    runtime.deferreturn(SB)	
    0x007f 00127 (main.go:7)    MOVQ    56(SP), BP

现在(Go1.13)

    0x006e 00110 (main.go:4)    MOVQ    AX, (SP)	
    0x0072 00114 (main.go:4)    CALL    runtime.deferprocStack(SB)	
    0x0077 00119 (main.go:4)    TESTL   AX, AX	
    0x0079 00121 (main.go:4)    JNE 139	
    0x007b 00123 (main.go:7)    XCHGL   AX, AX	
    0x007c 00124 (main.go:7)    CALL    runtime.deferreturn(SB)	
    0x0081 00129 (main.go:7)    MOVQ    112(SP), BP

从汇编的角度来看,像是 runtime.deferproc 改成了 runtime.deferprocStack 调用,难道是做了什么优化,我们抱着疑问继续看下去。

三、观察源码

_defer

type _defer struct {	
    siz     int32	
    siz     int32 // includes both arguments and results	
    started bool	
    heap    bool	
    sp      uintptr // sp at time of defer	
    pc      uintptr	
    fn      *funcval	
    ...

相较于以前的版本,最小单元的 _defer 结构体主要是新增了 heap 字段,用于标识这个 _defer是在堆上,还是在栈上进行分配,其余字段并没有明确变更,那我们可以把聚焦点放在 defer 的堆栈分配上了,看看是做了什么事。

deferprocStack

func deferprocStack(d *_defer) {	
    gp := getg()	
    if gp.m.curg != gp {	
        throw("defer on system stack")	
    }	
    d.started = false	
    d.heap = false	
    d.sp = getcallersp()	
    d.pc = getcallerpc()	
    *(*uintptr)(unsafe.Pointer(&d._panic)) = 0	
    *(*uintptr)(unsafe.Pointer(&d.link)) = uintptr(unsafe.Pointer(gp._defer))	
    *(*uintptr)(unsafe.Pointer(&gp._defer)) = uintptr(unsafe.Pointer(d))	
    return0()	
}

这一块代码挺常规的,主要是获取调用 defer 函数的函数栈指针、传入函数的参数具体地址以及PC(程序计数器),这块在前文 《深入理解 Go defer》 有详细介绍过,这里就不再赘述了。

那这个 deferprocStack 特殊在哪呢,我们可以看到它把 d.heap 设置为了 false,也就是代表 deferprocStack 方法是针对将 _defer 分配在栈上的应用场景的。

deferproc

那么问题来了,它又在哪里处理分配到堆上的应用场景呢?

func newdefer(siz int32) *_defer {	
    ...	
    d.heap = true	
    d.link = gp._defer	
    gp._defer = d	
    return d	
}

那么 newdefer 是在哪里调用的呢,如下:

func deferproc(siz int32, fn *funcval) { // arguments of fn follow fn	
    ...	
    sp := getcallersp()	
    argp := uintptr(unsafe.Pointer(&fn)) + unsafe.Sizeof(fn)	
    callerpc := getcallerpc()	
    d := newdefer(siz)	
    ...	
}

非常明确,先前的版本中调用的 deferproc 方法,现在被用于对应分配到堆上的场景了。

小结

  • 第一点:可以确定的是 deferproc 并没有被去掉,而是流程被优化了。

  • 第二点:编译器会根据应用场景去选择使用 deferproc 还是 deferprocStack 方法,他们分别是针对分配在堆上和栈上的使用场景。

四、编译器如何选择

esc

// src/cmd/compile/internal/gc/esc.go	
case ODEFER:	
    if e.loopdepth == 1 { // top level	
        n.Esc = EscNever // force stack allocation of defer record (see ssa.go)	
        break	
    }

ssa

// src/cmd/compile/internal/gc/ssa.go	
case ODEFER:	
    d := callDefer	
    if n.Esc == EscNever {	
        d = callDeferStack	
    }	
    s.call(n.Left, d)

小结

这块结合来看,核心就是当 e.loopdepth==1 时,会将逃逸分析结果 n.Esc 设置为 EscNever,也就是将 _defer 分配到栈上,那这个 e.loopdepth 到底又是何方神圣呢,我想它应该是迭代深度的意思,我们可以来证实一下,代码如下:

func main() {	
    for p := 0; p < 10; p++ {	
        defer func() {	
            for i := 0; i < 20; i++ {	
                log.Println("EDDYCJY")	
            }	
        }()	
    }	
}

查看汇编情况:

$ go tool compile -S main.go	
"".main STEXT size=122 args=0x0 locals=0x20	
    0x0000 00000 (main.go:15)   TEXT    "".main(SB), ABIInternal, $32-0	
    ...	
    0x0048 00072 (main.go:17)   CALL    runtime.deferproc(SB)	
    0x004d 00077 (main.go:17)   TESTL   AX, AX	
    0x004f 00079 (main.go:17)   JNE 83	
    0x0051 00081 (main.go:17)   JMP 33	
    0x0053 00083 (main.go:17)   XCHGL   AX, AX	
    0x0054 00084 (main.go:17)   CALL    runtime.deferreturn(SB)	
    ...

显然,最终 defer 调用的是 runtime.deferproc 方法,也就是分配到堆上了,没毛病。

总结

从分析的结果上来看,官方说明的 Go1.13 defer 性能提高 30%,主要来源于其延迟对象的堆栈分配规则的改变,措施是由编译器通过对 deferfor-loop 迭代深度进行分析,如果 loopdepth 为 1,则设置逃逸分析的结果,将分配到栈上,否则分配到堆上。

的确,我个人觉得对大部分的使用场景来讲,是优化了不少,也解决了一些人吐槽 defer 性能 “差” 的问题。另外,我想从 Go1.13 起,你也需要稍微了解一下它这块的机制,别随随便便就来个狂野版嵌套迭代 defer,可能没法效能最大化。

如果你还想了解更多细节,可以看看 defer 这块的的提交内容,官方的测试用例也包含在里面。若是想看看我先前的文章,可以访问我的博客(https://github.com/EDDYCJY/blog)查看到相关的文章。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值