典型服务器模式原理分析与实践

本文作为自己学习网络编程的总结笔记。打算分析一下主流服务器模式的优缺点,及适用场景,每种模型实现一个回射服务器。客户端用同一个版本,服务端针对每种模型编写对应的回射服务器。

本文所有代码放在:github.com/oscarwin/mu…

单进程迭代服务器

单进程迭代服务器是我接触网络编程编写的第一个服务器模型,虽然代码只有几行,但是每一个套接字编程的函数都涉及到大量的知识,这里我并不打算介绍每个套接字函数的功能,只给出一个套接字编程的基础流程图。

有几点需要解释的是:

  • 服务器调用listen函数以后,客户端与服务端的3次握手是由内核自己完成的,不需要应用程序的干预。内核为所有的连接维护两个个队列,队列的大小之和由listen函数的backlog参数决定。服务端收到客户算的SYN请求后,会回复一个SYN+ACK给客户端,并往未完成队列中插入一项。所以未完成队列中的连接都是SYN_RCVD状态的。当服务器收到客户端的ACK应答后,就将该连接从未完成队列转移到已完成队列。

  • 当未完成队列和已完成队列满了后,服务器就会直接拒绝连接。常见的SYN洪水攻击,就是通过大量的SYN请求,占满了该队列,导致服务器拒绝其他正常请求达到攻击的目的。

  • accept函数会一直阻塞,直到已完成队列不为空,然后从已完成队列中取出一个完成连接的套接字。

多进程并发服务器

单进程服务器只能同时处理一个连接。新建立的连接会一直呆在已完成队列里,得不到处理。因此,自然想到通过多进程来实现同时处理多个连接。为每一个连接产生一个进程去处理,称为PPC模式,即process per connection。其流程图如下(图片来自网络,侵删):

这种模式下有几点需要注意:

  • 统一由父进程来accept连接,然后fork子进程处理读写
  • 父进程fork以后,立即关闭了连接套接字,而子进程则立即关闭了监听套接字。因为父进程只处理连接,子进程只处理读写。linux在fork了以后,子进程会继承父进程的文件描述符,父进程关闭连接套接字后,文件描述符的计数会减一,在子进程里并没有关闭,当子进程退出关闭连接套接字后,该文件描述符才被关闭

这种模式存在的问题:

  • fork开销大。进程fork的开销太大,在fork时需要为子进程开辟新的进程空间,子进程还要从父进程那里继承许多的资源。尽管linux采用了写时复制技术,总的来看,开销还是很大
  • 只能支持较少的连接。进程是操作系统重要的资源,每个进程都要分配独立的地址空间。在普遍的服务器上,该模式只能支持几百的连接。
  • 进程间通信复杂。虽然linux有丰富的进程间通信方法,但是这些方法使用起来都有些复杂。

核心代码段如下,完整代码在ppc_server目录。

    while(1)
    {
        clilen = sizeof(stCliAddr);
        if ((iConnectFd = accept(iListenFd, (struct sockaddr*)&stCliAddr, &clilen)) < 0)
        {
            perror("accept error");
            exit(EXIT_FAILURE);
        }

        // 子进程
        if ((childPid = fork()) == 0)
        {
            close(iListenFd);

            // 客户端主动关闭,发送FIN后,read返回0,结束循环
            while((n = read(iConnectFd, buf, BUFSIZE)) > 0)
            {
                printf("pid: %d recv: %s\n", getpid(), buf);
                fflush(stdout);
                if (write(iConnectFd, buf, n) < 0)
                {
                    perror("write error");
                    exit(EXIT_FAILURE);
                }
            }

            printf("child exit, pid: %d\n", getpid());
            fflush(stdout);
            exit(EXIT_SUCCESS);
        }
        // 父进程
        else
        {
            close(iConnectFd);
        }
    }
复制代码

预先派生子进程服务器

既然fork进程时的开销比较大,因此很自然的一种优化方式是,在服务器启动的时候就预先派生子进程,即prefork。每个子进程自己进行accept,大概的流程图如下(图片来自网络,侵删):

相比于pcc模式,prefork在建立连接时的开销小了很多,但是另外两个问题——连接数有限和进程间通信复杂的问题还是存在。除此之外,prefork模式还引入了新的问题,当有一个新的连接到来时,虽然只有一个进程能够accept成功,但是所有的进程都被唤醒了,这个现象被称为惊群。惊群导致不必要的上下文切换和资源的调度,应该尽量避免。好在linux2.6版本以后,已经解决了惊群的问题。对于惊群的问题,也可以在应用程序中解决,在accept之前加锁,accept以后释放锁,这样就可以保证同一时间只有一个进程阻塞accept,从而避免惊群问题。进程间加锁的方式有很多,比如文件锁,信号量,互斥量等。

无锁版本的代码在prefork_server目录。加锁版本的代码在prefork_lock_server目录,使用的是进程间共享的线程锁。

多线程并发服务器

线程是一种轻量级的进程(linux实现上派生进程和线程都是调用do_fork函数来实现),线程共享同一个进程的地址空间,因此创建线程时不需要像fork那样,拷贝父进程的资源,维护独立的地址空间,因此相比进程而言,多线程模型开销要小很多。多线程并发服务器模型与多进程并发服务器模型类似。

多线程并发服务器模型,与多进程并发服务器模型相比,开销小了很多。但是同样存在连接数很有限这个限制。除此之外,多线程程序还引入了新的问题

  • 多线程程序不如多进程程序稳定,一个线程崩溃可能导致整个进程崩溃,最终导致服务完全不可用。而多进程程序则不存在这样的问题
  • 多线程程序共享了地址空间,省去了多进程程序之间复杂的通信方法。但是却需要对共享资源同时访问时进行加锁保护
  • 创建线程的开销虽然比创建进程的开销小,但是整体来说还是有一些开销的。

预先派生线程服务器

和预先派生子进程相似,可以通过预先派生线程来消除创建线程的开销。

预先派生线程的代码在pthread_server目录。

reactor模式

前面提及的几种模式都没能解决的一个问题是——连接数有限。而IO多路复用就是用来解决海量连接数问题的,也就是所谓的C10K问题。

IO多路复用有三种实现方案,分别是select,poll和epoll,关于三者之间的区别就不在赘述,网络上已经有很多文章讲这个的了,比如这篇文章 Linux IO模式及 select、poll、epoll详解

epoll因为其可以打开的文件描述符不像select那样受系统的限制,也不像poll那样需要在内核态和用户态之间拷贝event,因此性能最高,被广泛使用。

epoll有两种工作模式,一种是LT(level triggered)模式,一种是ET(edge triggered)模式。LT模式下,假如来了4k的数据,但是程序只读了前面2k的数据,那么再次阻塞在epoll_wait上时,x系统还会再次通知该文件可读。而ET模式下,如果只读了2k的数据,然后就退出并重新阻塞在epoll上时,系统不会通知该文件可读,除非又有新的数据发送过来。因此,ET模式下每次通知可读时就要把发送过来的数据全部读完。这个特性使得ET模式下只能采用非阻塞IO,在while循环中读取这个文件描述符中的数据,直到read或write返回EAGAIN。如果采用阻塞IO,read或write在多次循环读完了数据,最后一次的读写操作会一直阻塞,导致进程或者线程没有阻塞在epoll_wait上,IO多路复用就失效了。非阻塞IO配合IO多路复用就是reactor模式。reactor是核反应堆的意思,光是听这名字我就觉得牛不不要不要的了。

epoll编码的核心代码,我直接从man命令里的说明里拷贝过来了,我们的实现在目录reactor_server里。

#define MAX_EVENTS 10
struct epoll_event ev, events[MAX_EVENTS];
int listen_sock, conn_sock, nfds, epollfd;

/* Set up listening socket, 'listen_sock' (socket(),bind(), listen()) */

// 创建epoll句柄
epollfd = epoll_create(10);
if (epollfd == -1) {
   perror("epoll_create");
   exit(EXIT_FAILURE);
}

// 将监听套接字注册到epoll上
ev.events = EPOLLIN;
ev.data.fd = listen_sock;
if (epoll_ctl(epollfd, EPOLL_CTL_ADD, listen_sock, &ev) == -1) {
   perror("epoll_ctl: listen_sock");
   exit(EXIT_FAILURE);
}

for (;;) {
    // 阻塞在epoll_wait
   nfds = epoll_wait(epollfd, events, MAX_EVENTS, -1);
   if (nfds == -1) {
       perror("epoll_pwait");
       exit(EXIT_FAILURE);
   }

   for (n = 0; n < nfds; ++n) {
       if (events[n].data.fd == listen_sock) {
           conn_sock = accept(listen_sock, (struct sockaddr *) &local, &addrlen);
           if (conn_sock == -1) {
               perror("accept");
               exit(EXIT_FAILURE);
           }
           
           // 将连接套接字设定为非阻塞、边缘触发,然后注册到epoll上
           setnonblocking(conn_sock);
           ev.events = EPOLLIN | EPOLLET;
           ev.data.fd = conn_sock;
           if (epoll_ctl(epollfd, EPOLL_CTL_ADD, conn_sock,
                       &ev) == -1) {
               perror("epoll_ctl: conn_sock");
               exit(EXIT_FAILURE);
           }
       } else {
           do_use_fd(events[n].data.fd);
       }
   }
}
复制代码

然后我们再分析一下epoll的原理。

epoll_create创建了一个文件描述符,这个文件描述符实际是指向的一个红黑树。当用epoll_ctl函数去注册文件描述符时,就是往红黑树中插入一个节点,该节点中存储了该文件描述符的信息。当某个文件描述符准备好了,回去调用一个回调函数ep_poll_callback将这个文件描述符准备好的信息放到rdlist里,epoll_wait则阻塞于rdlist直到其中有数据。

proactor模式

proactor模式就是采用异步IO加上IO多路复用的方式。使用异步IO,将读写的任务也交给了内核来做,当数据已经准备好了,用户线程直接就可以用,然后处理业务逻辑就OK了。

多种模式的服务器该如何选择

常量连接常量请求,如:管理后台,政府网站,可以使用ppc和tpc模式

常量连接海量请求,如:中间件,可以使用ppc和tpc模式

海量连接常量请求,如:门户网站,ppc和tpc不能满足需求,可以使用reactor模式

海量连接海量请求,如:电商网站,秒杀业务等,ppc和tpc不能满足需求,可以使用reactor模式

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值