如何用GO处理高峰期每分钟100万条数据请求

最近看了一篇文章,用go处理每分钟达百万条的数据请求

原文地址:http://marcio.io/2015/07/handling-1-million-requests-per-minute-with-golang/

翻译地址:https://www.jianshu.com/p/21de03ac682c

 

这里作者为处理高峰期高并发的数据请求,用了3个版本的处理方式,下面是自己的一些理解:

  第一种方式很简单,就是用go的协程处理请求,来一条请求开一个协程处理,由于每个请求是一个数据上传

任务,有一定的耗时和资源消耗,当高峰期请求突然增多达到每分钟百万条的时候,不可避免的造成了携程爆炸,系统崩溃。

 

   第二种方式用channel做了一个任务队列,来一条请求加到任务队列里,简单的生产者消费者模式,但这种方式治标不治本,高峰期的时候,任务队列长度一样会爆炸,造成内存不够用,所以也不太合适。

第三种方式就有点意思了,这里贴一下完整的代码,帮助理解。

package main

import (
"fmt"
"time"
   "runtime"
)

var (
   //最大任务队列数
   MaxWorker = 10
)

//有效载荷
type Payload struct {
   Num      int
   Test     string
}

//待执行的工作
type Job struct {
   Payload Payload
}


//任务队列channal
var JobQueue chan Job


//执行任务的工作者单元
type Worker struct {
   WorkerPool chan chan Job //工作者池--每个元素是一个工作者的私有任务channal
   JobChannel chan Job      //每个工作者单元包含一个任务管道 用于获取任务
   quit       chan bool     //退出信号
   no         int           //编号
}

// 停止信号
func (w Worker) Stop() {
   go func() {
      w.quit <- true
   }()
}


//调度中心
type Dispatcher struct {

   //工作者池(任务队列池)
   WorkerPool chan chan Job
   //工作者单元数量
   MaxWorkers int
}

//创建调度中心
func NewDispatcher(maxWorkers int) *Dispatcher {
   //创建工作者池,存放待处理的任务队列,maxWorkers为最大任务队列数
   pool := make(chan chan Job, maxWorkers)
   return &Dispatcher{WorkerPool: pool, MaxWorkers: maxWorkers}
}

//创建一个新工作者单元
func NewWorker(workerPool chan chan Job, no int) Worker {
   fmt.Println("创建一个新工作者单元")
   return Worker{
      WorkerPool: workerPool,
      JobChannel: make(chan Job),
      quit:       make(chan bool),
      no:         no,
   }
}

//循环  监听任务和结束信号
func (w Worker) Start() {
   //启动协程,监听任务
   go func() {
      for {
         // register the current worker into the worker queue.
         //工作者放回工作者池
         w.WorkerPool <- w.JobChannel
         //fmt.Println("w.WorkerPool <- w.JobChannel", w)
         select {
         case job := <-w.JobChannel:
            //fmt.Println("job := <-w.JobChannel")
            // 收到任务,执行打印任务
            fmt.Println(job.Payload.Test)
             //执行任务需要1秒时间
             time.Sleep(500 * time.Microsecond)
         case <-w.quit:
            // 收到退出信号,停止监听,结束该协程
            return
         }
      }
   }()
}


//调度,任务分发
func (d *Dispatcher) dispatch() {
   for {
      select {
      //从任务队列中获取任务
      case job := <-JobQueue:
         //fmt.Println("job := <-JobQueue:")
         go func(job Job) {
            //等待空闲worker (任务多的时候会阻塞这里)
            //从(10个)工作者池中获取一个任务队列channel,
            jobChannel := <-d.WorkerPool
            //fmt.Println("jobChannel := <-d.WorkerPool", reflect.TypeOf(jobChannel))
            // 将任务放到上述woker的私有任务channal中,jobChannel是一个无缓冲信道,每次只能放一个任务
            jobChannel <- job
            //fmt.Println("jobChannel <- job")
         }(job)
      }
   }
}

//工作者池的初始化,注意Run为Dispatcher结构体指针的方法,所以此方法内对Dispathcer的修改在方法外也可见

func (d *Dispatcher) Run() {
   // starting n number of workers
   //创建10个工作者单元
   for i := 1; i < d.MaxWorkers+1; i++ {
      worker := NewWorker(d.WorkerPool, i)
      worker.Start()
   }
   go d.dispatch()
}

//新建任务并放入任务队列
func addQueue() {
   for i := 0; i < 1000000; i++ {
      time.Sleep(10*time.Microsecond)
      fmt.Println("当前请求数:",i)
      // 新建一个任务
      payLoad := Payload{Num: 1, Test:"this is Test string"}
      work := Job{Payload: payLoad}
      // 任务放入任务队列channal
      fmt.Println("新任务入队列!")
      JobQueue <- work
      //fmt.Println("队列总长度:",cap(JobQueue))
      //fmt.Println("队列未消费任务数量:",len(JobQueue))
      //fmt.Println("JobQueue <- work")
      fmt.Println("当前协程数:", runtime.NumGoroutine())
      //time.Sleep(1 * time.Second)
   }
}

func main() {

   //建立任务队列,每个任务队列中可以放10个任务
   JobQueue = make(chan Job, 10)
   fmt.Println("成功建立任务队列!")
   //新建任务分发器
   dispatcher := NewDispatcher(MaxWorker)
   fmt.Println("成功建立任务分发器!")
   dispatcher.Run()

   //time.Sleep(1 * time.Second)
   go addQueue()
   time.Sleep(1000 * time.Second)
}

这种方式简单来说就是用一个两级channel作为一个任务队列池,队列池中存放多个任务队列,来一个任务后加入其中的一个任务队列,每个任务队列开一个协程处理数据上传任务,基本过程如下图所示:

 

       

      这种方式很好的解决了每个任务处理都要开协称协程造成协程太多的问题,因为总共只有10个协程在处理work,并且工作池中只有10个任务队列,每个任务队列只存放一个任务,所以也不存在队列长度爆炸的问题,但是这种方式也有问题,就是当工作池中没有任务队列空闲的时候,新来的任务只能开一个协程等待空闲的任务队列,如果访问高峰期过长或者任务处理很耗时,会造成等待任务队列的协程急剧增长,最后也会造成系统内存崩溃。这种方式的好处在于等待任务队列的协程都是轻量级协程,每个协程占用的内存资源很少,所以如果只是处理高峰期每分钟百万条的数据请求,是可以的,相当于高峰期把每个任务缓存在轻量级协程里了,过了高峰期,轻量级协程就会减少,不会造成协程爆炸导致内存崩溃。但是如果每分钟百万条数据请求是常态,这种方式肯定也会造成内存崩溃。

       解决的方式有两种:

     1.数据库级别的缓存作为任务队列,硬盘比内存更大更便宜,但是这种方式的延迟会很大

     2.就是加机器了做负载均衡了,没有什么高并发是加一台机器解决不了的,如果有,那就多加几台。

     另外补充一点,第一种方式和第三种方式的好坏取决于每个任务处理时间和工作池中任务队列的数量,以处理每个任务需要5秒为例子,假如每个任务都需要开一个协程处理,那当处理完第一个任务之后,系统的内存占用会稳定下来,因为新开的协程和结束的协程速度一样了,就像水池,进水速度和出水速度一样快,当然就不存在内存溢出问题。而第三种方式因为工作池只有10个任务队列处理任务,造成等待阻塞的协程过多,所以最终也会导致系统内存崩溃。但是如果此时我们把工作池中的任务队列数增加到1000个,那么任务处理速度明显增加,就不会遇到系统崩溃。再以每个任务处理需要50秒为例子,第一种方式因为不断的开协程,没等第一个任务处理完成,内存就崩溃了。但是第三种方式,还是将任务队列加到1000个,即使处理每个任务需要50秒,内存也能扛得住,因为处理任务的协程同样也增加到1000个了,所以可以更加均衡的分配内存。

      所以第三种方式的设计更加合理,可扩展性更强。

 

 

 

 

 

 

 

 

 

  • 2
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值