Go协程处理数据注意事项

3 篇文章 0 订阅

前言

        我们在开发后台项目常常会遇到一个情况,功能模块列表数据导出Excel功能,但列表中某个字段无法通过Sql联表查询,且一次性查询再匹对也不方便;此时对列表数据循环,再一个个查询结果加入列表,势必需要很长的时间,我们该怎么才能提升下载速度呢? (这里采用Go开发服务端)


一、Goroutine

       当然第一个想到可能是采用协程处理循环里面要查询的数据

type Card struct {
	Name    string  `json:"name"`
	Balance float64 `json:"balance"`
}

func main() {
	// 获取卡列表数据
	list := getList()

	var data = make([]Card, 0, len(list))
	for _, val := range list {
		go func(card Card) {
			// 查询业务,将值加入该记录中
			var balance = getBalance()
			data = append(data, Card{
				Name:    card.Name,
				Balance: balance,
			})
		}(val)
	}

	log.Printf("数据:%+v", data)
}

// 获取数据列表
func getList() []Card {
	var list = make([]Card, 0)
	for i := 0; i < 10000; i++ {
		list = append(list, Card{
			Name: "卡-" + strconv.Itoa(i+1),
		})
	}
	return list
}

// 获取余额
func getBalance() float64 {
	time.Sleep(time.Millisecond * 100)
	return float64(rand.Int63n(1000))
}

        运行上述代码,结果: "数据:[]",这是为什么呢?主要是协程处理业务需要时间,循环提前结束,所以才会出现这样的结果,该怎么让所有结果都处理结束才输出结果呢?

二、sync.WaitGroup

        此方法就是等待组进行多个任务的同步,等待组可以保证在并发环境中完成指定数量的任务

func main() {
	list := getList() // 获取卡列表数据

	var data = make([]Card, 0, len(list))
	var wg sync.WaitGroup // 声明一个等待组
	for _, val := range list {
		wg.Add(1) // 每一个任务开始时,将等待组增加1
		go func(card Card) {
			defer wg.Done() // 使用defer, 表示函数完成时将等待组值减1
			// 查询业务,休眠100微妙,将值加入该记录中
			var balance = getBalance()
			data = append(data, Card{
				Name:    card.Name,
				Balance: balance,
			})
		}(val)
	}
	wg.Wait() // 等待所有任务完成
	log.Printf("数据:%+v", data)
}

        运行结果会输出所有数据,但细心的我们会发现,这个时候数据的顺序是乱的,这个也符合业务需求,该怎么进一步改良呢?

三、数据排序

        上面讲到协程处理之后的额数据是无序的,这里我们知道数据跳数,直接初始化一个len和cap等于len(list)的空间,将之前append到data的数据改成通过下标复制,这样输出的数据就是list的数据顺序。

func main() {
	list := getList() // 获取卡列表数据

	var data = make([]Card, len(list), len(list))
	var wg sync.WaitGroup // 声明一个等待组
	for k, val := range list {
		wg.Add(1) // 每一个任务开始时,将等待组增加1
		go func(k int, card Card) {
			defer wg.Done() // 使用defer, 表示函数完成时将等待组值减1
			// 查询业务,休眠100微妙,将值加入该记录中
			var balance = getBalance()
			data[k] = Card{
				Name:    card.Name,
				Balance: balance,
			}
		}(k, val)
	}
	wg.Wait() // 等待所有任务完成
	log.Printf("数据:%+v", data)
}

        运行上述代码,虽然可以获取到想要的数据排序,但下次下载数据较多,开的协程过多,势必导致资源开销过大,带来一系列问题,那怎么优化限制协程个数呢?

四、限制协程数

        大家都知道协程过多,自然消耗过多资源,可能导致其他问题;这里我们借助chan限制协程个数

// 限制100个协程
type pool struct {
	queue chan int
	wg    *sync.WaitGroup
}

func main() {
	list := getList() // 获取卡列表数据

	var data = make([]Card, len(list), len(list))
	var gl = &pool{queue: make(chan int, 500), wg: &sync.WaitGroup{}} // 显示协程数最大500个
	for k, val := range list {
		gl.queue <- 1 // 每一个任务开始时, chan输入1个
		gl.wg.Add(1)  // 每一个任务开始时,将等待组增加1
		go func(k int, card Card) {
			defer func() {
				<-gl.queue   // 完成时chan取出1个
				gl.wg.Done() // 完成时将等待组值减1
			}()

			// 查询业务,休眠100微妙,将值加入该记录中
			var balance = getBalance()
			data[k] = Card{
				Name:    card.Name,
				Balance: balance,
			}
		}(k, val)
	}
	gl.wg.Wait() // 等待所有任务完成
	log.Printf("数据:%+v", data)
}

        通过使用chan,可以自己定义可协程最大数;现在看起来没有什么问题,但如果协程获取数据panic,会导致整个程序崩溃。

四、协程Panic处理

        针对协程的panic(),我们需要接收,使用recover处理

func main() {
	list := getList() // 获取卡列表数据

	var data = make([]Card, len(list), len(list))
	var gl = &pool{queue: make(chan int, 500), wg: &sync.WaitGroup{}} // 显示协程数最大500个
	for k, val := range list {
		gl.queue <- 1 // 每一个任务开始时, chan输入1个
		gl.wg.Add(1)  // 每一个任务开始时,将等待组增加1
		go func(k int, card Card) {
			// 解决协程panic,不至于程序崩溃
			defer func() {
				recover()
			}()

			defer func() {
				<-gl.queue   // 完成时chan取出1个
				gl.wg.Done() // 完成时将等待组值减1
			}()

			// 查询业务,休眠100微妙,将值加入该记录中
			var balance = getBalance()
			data[k] = Card{
				Name:    card.Name,
				Balance: balance,
			}
		}(k, val)
	}
	gl.wg.Wait() // 等待所有任务完成
	log.Printf("数据:%+v", data)
}

// 获取余额
func getBalance() float64 {
	panic("获取余额panic")
	time.Sleep(time.Millisecond * 100)
	return float64(rand.Int63n(1000))
}

         在协程中使用defer recover();这样协程抛出来的panic被接受,不会导致程序奔溃。


总结

  1. 协程在处理数据数据通过使用更多资源提升效率
  2. 协程过多会暂用其他服务资源,我们使用协程过多时需要考虑限制
  3. 协程中panic需要处理,不然会导致程序崩溃
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Golang 中,协程之间的数据共享可以通过共享内存的方式实现。但是需要注意的是,多个协程同时访问同一个共享变量时,可能会出现竞态条件(race condition)导致数据不一致的问题。 为了避免这种问题,Golang 提供了一些同步机制,如互斥锁(Mutex)、读写锁(RWMutex)和信道(Channel)等。 互斥锁是最基本的同步机制,它可以保证同时只有一个协程访问共享变量。当一个协程获得了互斥锁,其他协程就必须等待该协程释放互斥锁后才能访问共享变量。示例代码如下: ```go var mu sync.Mutex // 互斥锁 var count int // 共享变量 func increment() { mu.Lock() // 获得互斥锁 defer mu.Unlock() // 在函数退出时释放互斥锁 count++ } func main() { for i := 0; i < 1000; i++ { go increment() } time.Sleep(time.Second) fmt.Println(count) // 输出 1000 } ``` 读写锁是一种更高级的同步机制,它允许多个协程同时读取共享变量,但只允许一个协程写入共享变量。这样可以提高读取效率,同时保证数据一致性。示例代码如下: ```go var rwmu sync.RWMutex // 读写锁 var count int // 共享变量 func increment() { rwmu.Lock() // 获得写锁 defer rwmu.Unlock() // 在函数退出时释放锁 count++ } func read() { rwmu.RLock() // 获得读锁 defer rwmu.RUnlock() // 在函数退出时释放锁 fmt.Println(count) } func main() { for i := 0; i < 1000; i++ { go increment() } for i := 0; i < 10; i++ { go read() } time.Sleep(time.Second) } ``` 信道是一种更高级的同步机制,它可以让协程之间进行通信,同时避免竞态条件的问题。通过信道,一个协程可以向另一个协程发送数据,或者从另一个协程接收数据,这样就可以避免多个协程同时访问同一个共享变量的问题。示例代码如下: ```go var wg sync.WaitGroup func worker(id int, jobs <-chan int, results chan<- int) { defer wg.Done() for j := range jobs { fmt.Printf("worker %d started job %d\n", id, j) time.Sleep(time.Second) fmt.Printf("worker %d finished job %d\n", id, j) results <- j * 2 } } func main() { jobs := make(chan int, 100) results := make(chan int, 100) for w := 1; w <= 3; w++ { wg.Add(1) go worker(w, jobs, results) } for j := 1; j <= 9; j++ { jobs <- j } close(jobs) for a := 1; a <= 9; a++ { <-results } wg.Wait() } ``` 以上是几种常见的 Golang 协程共享数据的方式,具体使用时需要根据实际情况选择合适的同步机制。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值