Golang append是并发安全的吗

本文讲述了在Golang中并发使用append操作可能导致的问题,包括数据不一致和偶然的服务崩溃。作者介绍了问题的原因——非原子性操作和slice底层结构,提供了加锁和预设固定容量两种解决方案,并探讨了导致panic的具体情况和解决方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

背景

最近开发的时候写了下面这段类似的代码。

func TestAppend() (result []int) {
	var wg sync.WaitGroup
	for i := 0; i < 100; i++ {
		v := i
		wg.Add(1)
		go func() {
			// other logic
			result = append(result, v)
			wg.Done()
		}()
	}

	wg.Wait()
	//fmt.Printf("%v\n", len(result))
	return result
}

 

就像这样,然后顺利通过测试到达生产环境。然后就出问题了。

预期情况下,len(result) = 100, 但是大多数情况下,这个数据会<=100。因为append这个函数不是并发安全的。也就是不能在多个goroutine里面对同一个slice使用append进行追加。

那么问题出在哪呢?

我们都知道slice是对数组一个连续片段的引用,当slice长度增加的时候,可能底层的数组会被换掉。在换底层数组之前,切片同时被多个goroutine拿到,并执行append操作。那么很多goroutine的append结果会被覆盖,导致n个gouroutine append后,长度小于n。

你以为这是最坏的影响吗,并不是的。数据出bug了是小事,最坏的影响是直接服务直接panic
append咋还导致服务panic呢?且往下看。

原因分析

要分析这个原因,我们需要了解slice的底层结构。

type slice struct {
    array unsafe.Pointer
    len   int
    cap   int
}

 

slice

可以看到,array 是一个指向具体数组的指针,len是当前已经使用的长度,使用append的时候会再下一个位置填充数据并且把len加1。不加锁的情况下,由于操作并非原子的,可能两个goroutine同时往同一个位置写数据,就会导致数据覆盖。最终的长度小于实际期待的长度。

问题解决

有两种方案解决这个问题。

方案1

可以给append操作加锁,这样就会保证操作操作的原子性。不会被另一个goroutine打断。

func TestAppendWithLock() (result []int) {
	var wg sync.WaitGroup
	var lock sync.Mutex
	for i := 0; i < 100; i++ {
		v := i
		wg.Add(1)
		go func() {
			defer wg.Done()
			lock.Lock()
			result = append(result, v)
			lock.Unlock()

		}()
	}

	wg.Wait()
	//fmt.Printf("%v\n", len(result))
	return result
}

 

方案2

如果slice的长度固定的情况下。可以直接使用make初始化固定长度,并使用下标赋值。

func TestSliceAppend() (result []int) {
	var wg sync.WaitGroup
	result = make([]int, 100)
	for i := 0; i < 100; i++ {
		wg.Add(1)
		go func(index int) {
			defer wg.Done()
			result[index] = index
		}(i)
	}

	wg.Wait()
	//fmt.Printf("%v\n", len(result))
	return result
}

 

panic原因

这个panic是概率性的,有非常小的概率会发生,但是在高并发场景下,是必定会发生的。

我们写个循环不停的执行并发append的函数:

func TestAppend() (result []int) {
	var wg sync.WaitGroup
	for i := 0; i < 100; i++ {
		v := i
		wg.Add(1)
		go func() {
			// other logic
			result = append(result, v)
			wg.Done()
		}()
	}

	wg.Wait()
	//fmt.Printf("%v\n", len(result))
	return result
}

func main() {
	for a := 0; a < 100000; a++ {
		res := TestAppend()
		println("len(res):", len(res))
	}
}

 

使用循环不停的执行并发append操作。过一段时间你就会发现:

panic: runtime error: invalid memory address or nil pointer dereference
[signal SIGSEGV: segmentation violation code=0x1 addr=0x0 pc=0x108933f]

goroutine 9278997 [running]:
main.TestAppend.func1(0xc00020e050, 0xc0005da040, 0x3)
        /Users/left_pocket/concurrency_append/main.go:20 +0x6f
created by main.TestAppend
        /Users/left_pocket/concurrency_append/main.go:18 +0xa6

Process finished with exit code 2

的报错。 正是

result = append(result, v)

 

这一行。

这个报错曾经导致生产环境的service偶尔crash,这个概率非常低。 我们使用*-race*的参数执行函数

go run -race main.go

可以看到DATA RACE的报错。

==================
WARNING: DATA RACE
Read at 0x00c000100000 by goroutine 8:
  runtime.growslice()
      /Users/left_pocket/go1.14/src/runtime/slice.go:76 +0x0
  main.TestAppend.func1()
      /Users/left_pocket/src/github.com/left-pocket/go-practice/concurrency_append/main.go:20 +0x179

找到go语言库的代码。

func growslice(et *_type, old slice, cap int) slice {  //line 76
}

 

发现了RACE CONDITION。 使用goland的debug模式继续分析。 

debug_append

发现是在growslice函数里面调用memmove的时候发生了panic。可以确认是在slice扩容的过程中panic。
也就是恰好在append扩容的时候,两个goroutine同时进行memmove。

可以在TestAppend里面加一行代码,预先分配容量,来间接验证是扩容会产生panic。

func TestAppend() (result []int) {
	var wg sync.WaitGroup
	result = make([]int, 0, 100) //set capacity first, will not add capacity anymore
	for i := 0; i < 100; i++ {
		v := i
		wg.Add(1)
		go func() {
			defer wg.Done()
			result = append(result, v)
		}()
	}

	wg.Wait()
	return result
}

 

如果调用前初始化了capacity,就不会导致panic。

总结

Golang append并不是并发安全的,我相信使用过Golang的同学大部分都是知道的,但是他有概率会导致服务crash,这才是更大的风险。

golang中使用gorm进行并发请求时,可以通过goroutine和channel的方式来实现。 首先,我们需要确保已经正确地导入了gorm和相应的数据库驱动程序。然后,我们可以使用goroutine来创建并发请求。 假设我们有一个名为User的结构体,表示数据库中的用户表,其中包括id和name两个字段。 ```go type User struct { gorm.Model Name string } ``` 然后,我们可以创建一个用于处理请求的goroutine函数,如下所示: ```go func fetchUser(id int, result chan<-User, db *gorm.DB) { var user User db.First(&user, id) result <- user } ``` 在主函数中,我们可以创建一个用于保存结果的result通道,并启动多个goroutine来处理数据库查询: ```go func main() { db, err := gorm.Open("mysql", "user:password@tcp(host:port)/database") if err != nil { panic("failed to connect database") } defer db.Close() var result []User resultChan := make(chan User) go fetchUser(1, resultChan, db) go fetchUser(2, resultChan, db) go fetchUser(3, resultChan, db) for i := 0; i < 3; i++ { user := <-resultChan result = append(result, user) } // 处理结果 fmt.Println(result) } ``` 在以上示例中,我们创建了三个goroutine同时查询数据库,并将结果通过通道发送回主函数。主函数通过从通道中接收结果来等待所有查询完成,并将结果保存在result切片中。 这样,我们就可以实现并发查询数据库的功能。注意在使用gorm时要确保数据库连接的线程安全性。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值