初步探索Nginx高并发原理

Nginx

首先要明白,Nginx采用的是多进程(单线程)&多路IO复用模型。使用了I/O多路复用技术的Nginx,就成了”并发事件驱动“的服务器。

这里写图片描述

多进程的工作模式

1、Nginx在启动后,master进程fork()多个相互独立的worker进程。
2、接收来自外界的信号,然向各worker进程发送信号,每个进程都有可能来处理这个连接。
3、 master进程能监控worker进程的运行状态,当worker进程退出后(异常情况下),会自动再fork()新worker进程。

注意worker进程数,一般会设置成机器cpu核数。因为更多的worker只会导致进程之间相互竞争cpu,从而带来不必要的上下文切换。

使用多进程模式,不仅能提高并发率,而且进程之间是相互独立的,一 个worker进程挂了不会影响到其他worker进程。

惊群现象

master进程首先通过socket()来创建一个监听描述符,然后fork()若干个worker,子进程将继承父进程的监听描述符,之后子进程在该监听描述符上accept()创建已连接描述符(connected descriptor),然后通过已连接描述符来与客户端通信。

那么,由于所有子进程都继承了父进程的 sockfd,那么当连接进来时,所有子进程都将收到通知并“争着”与它建立连接,这就叫“惊群现象”。大量的进程被激活又挂起,只有一个进程可以accept() 到这个连接,这当然会消耗系统资源。

Nginx对惊群现象的处理:

Nginx提供了一个accept_mutex这个东西,这是一个加在accept上的一把互斥锁。即每个worker进程在执行accept()之前都需要先获取锁,accept()成功之后再解锁。有了这把锁,同一时刻,只会有一个进程执行accpet(),这样就不会有惊群问题了。accept_mutex是一个可控选项,我们可以显示地关掉,默认是打开的。

worker进程工作流程

当一个 worker 进程在 accept() 这个连接之后,就开始读取请求,解析请求,处理请求,产生数据后,再返回给客户端,最后才断开连接,一个完整的请求。一个请求,完全由worker进程来处理,而且只会在一个worker进程中处理。

这样做带来的好处:

1、节省锁带来的开销。每个worker进程都彼此独立地工作,不共享任何资源,因此不需要锁。同时在编程以及问题排查上时,也会方便很多。

2、独立进程,减少风险。采用独立的进程,可以让互相之间不会影响,一个进程退出后,其它进程还在工作,服务不会中断,master进程则很快重新启动新的worker进程。当然,worker进程自己也能发生意外退出。

核心:Nginx采用的 IO多路复用模型epoll

多路复用,允许我们只在事件发生时才将控制返回给程序,而其他时候内核都挂起进程,随时待命。

epoll通过在Linux内核中申请一个简易的文件系统(文件系统一般用B+树数据结构来实现),其工作流程分为三部分:

1、调用 int epoll_create(int size)建立一个epoll对象,内核会创建一个eventpoll结构体,用于存放通过epoll_ctl()向epoll对象中添加进来的事件,这些事件都会挂载在红黑树中。
2、调用 int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event) 在 epoll 对象中为 fd 注册事件,所有添加到epoll中的事件都会与设备驱动程序建立回调关系,也就是说,当相应的事件发生时会调用这个sockfd的回调方法,将sockfd添加到eventpoll 中的双链表。
3、调用 int epoll_wait(int epfd, struct epoll_event * events, int maxevents, int timeout) 来等待事件的发生,timeout 为 -1 时,该调用会阻塞知道有事件发生

这样,注册好事件之后,只要有fd上事件发生,epoll_wait()就能检测到并返回给用户,用户执行阻塞函数时就不会发生阻塞了。

epoll()在中内核维护一个链表,epoll_wait直接检查链表是不是空就知道是否有文件描述符准备好了。顺便提一提,epoll与select、poll相比最大的优点是不会随着sockfd数目增长而降低效率,使用select()时,内核采用轮训的方法来查看是否有fd准备好,其中的保存sockfd的是类似数组的数据结构fd_set,key 为 fd,value为0或者1(发生时间)。

能达到这种效果,是因为在内核实现中epoll是根据每 sockfd 上面的与设备驱动程序建立起来的回调函数实现的。那么,某个sockfd上的事件发生时,与它对应的回调函数就会被调用,将这个sockfd加入链表,其他处于“空闲的”状态的则不会。在这点上,epoll 实现了一个"伪"AIO。

可以看出,因为一个进程里只有一个线程,所以一个进程同时只能做一件事,但是可以通过不断地切换来“同时”处理多个请求。

例子:Nginx 会注册一个事件:“如果来自一个新客户端的连接请求到来了,再通知我”,此后只有连接请求到来,服务器才会执行 accept() 来接收请求。又比如向上游服务器(比如 PHP-FPM)转发请求,并等待请求返回时,这个处理的 worker 不会在这阻塞,它会在发送完请求后,注册一个事件:“如果缓冲区接收到数据了,告诉我一声,我再将它读进来”,于是进程就空闲下来等待事件发生。

这样,基于 多进程+epoll, Nginx 便能实现高并发。

使用 epoll 处理事件的一个框架,代码转自:http://www.cnblogs.com/fnlingnzb-learner/p/5835573.html

for( ; ; )  //  无限循环
      {
          nfds = epoll_wait(epfd,events,20,500);  //  最长阻塞 500s
          for(i=0;i<nfds;++i)
          {
              if(events[i].data.fd==listenfd) //有新的连接
              {
                  connfd = accept(listenfd,(sockaddr *)&clientaddr, &clilen); //accept这个连接
                  ev.data.fd=connfd;
                 ev.events=EPOLLIN|EPOLLET;
                 epoll_ctl(epfd,EPOLL_CTL_ADD,connfd,&ev); //将新的fd添加到epoll的监听队列中
             }
             else if( events[i].events&EPOLLIN ) //接收到数据,读socket
             {
                 n = read(sockfd, line, MAXLINE)) < 0    //读
                 ev.data.ptr = md;     //md为自定义类型,添加数据
                 ev.events=EPOLLOUT|EPOLLET;
                 epoll_ctl(epfd,EPOLL_CTL_MOD,sockfd,&ev);//修改标识符,等待下一个循环时发送数据,异步处理的精髓
             }
             else if(events[i].events&EPOLLOUT) //有数据待发送,写socket
             {
                 struct myepoll_data* md = (myepoll_data*)events[i].data.ptr;    //取数据
                 sockfd = md->fd;
                 send( sockfd, md->ptr, strlen((char*)md->ptr), 0 );        //发送数据
                 ev.data.fd=sockfd;
                 ev.events=EPOLLIN|EPOLLET;
                 epoll_ctl(epfd,EPOLL_CTL_MOD,sockfd,&ev); //修改标识符,等待下一个循环时接收数据
             }
             else
             {
                 //其他的处理
             }
         }
     }

Nginx 与 多进程模式 Apache 的比较:

事件驱动适合于I/O密集型服务,多进程或线程适合于CPU密集型服务:
1、Nginx能够大量作为反向代理使用。
2、事件驱动服务器,最适合做的就是这种I/O密集型工作,如反向代理,它在客户端与WEB服务器之间起一个数据中转作用,纯粹是I/O操作,自身并不涉及到复杂计算。因为进程在一个地方进行计算时,那么这个进程就不能处理其他事件了。
3、Nginx只需要少量进程配合事件驱动,起几个进程跑libevent,不像 Apache传统多进程模型那样动辄数百的进程数。
4、Nginx处理静态文件效果也很好,那是因为读写文件和网络通信其实都是I/O操作,处理过程是一样的。

这里仅将Nginx与传统多进程工作模式下的Apache做比较,Apache也有事件驱动的工作模式。

参考 http://codinglife.sinaapp.com/?p=40

  • 9
    点赞
  • 27
    收藏
    觉得还不错? 一键收藏
  • 11
    评论
对于Nginx高并发的优化,可以从以下几个方面进行考虑和改进。 首先,通过优化Nginx的配置,提高其性能。可以采取一些措施,例如调整worker_processes参数来适配服务器的核数,增加worker_connections参数来提供更多的连接数。此外,还可以通过修改keepalive_timeout参数来优化连接的复用性,避免频繁建立和关闭连接,提高性能和效率。 其次,合理利用Nginx的缓存功能。可以通过开启代理服务器端的缓存来减轻后端服务器的压力,减少重复请求的网络和计算开销,提高响应速度。此外,还可以通过配置gzip压缩,减小传输的数据量,进一步提高性能。 再次,使用Nginx的负载均衡功能。通过将请求分发到多个后端服务器上,可以使得每个服务器的负载变得更均衡,提高并发处理的能力。可以根据具体情况选择不同的负载均衡算法,如轮询、IP Hash等。此外,还可以配合健康检查功能,及时剔除不可用的后端服务器,保证服务的稳定性和可靠性。 最后,合理设计和优化应用架构。可以将静态资源独立部署在Nginx上,通过Nginx直接提供,减轻后端服务器的负载。同时,可以使用异步非阻塞编程模型,利用Nginx提供的事件驱动机制,充分发挥其高并发性能。 综上所述,对于Nginx高并发的优化,不仅可以通过调整Nginx的配置和开启相应的功能来提高性能,还可以在应用架构上进行优化,充分发挥其特性和优势,提升系统的并发处理能力。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 11
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值