I/O多路复用之select模型简析

1 I/O多路复用

1.1 主旨思想

  在之前使用多进程或多线程实现服务端与客户端的通信时,对于每一个连接成功的文件描述符都需要一个进程或线程来进行监控,因此需要消耗大量的系统资源。如果是使用非阻塞的I/O模型,则又需要采用轮询的方式,获取文件描述符状态,虽然一定程度上能够提高程序的执行效率,但却需要占用更多的CPU和系统资源。
  因此,解决这一问题比较好的方式就是采用I/O多路复用模型,将阻塞过程提前到select/poll/epoll中,不必建立新的进程或线程,直接让内核去等待,只需要主进程去直接询问内核哪些描述符准备好即可,能够极大地减少系统开销。其实现步骤大致可表述为:

  1. 首先构造文件描述符列表,将要监听的文件描述符添加到该列表中;
  2. 调用一个阻塞系统函数,监听该列表中的文件描述符,直到这些文件描述符中的一个或者多个进行I/O操作时,该函数才会返回。
  3. 函数返回后,进程会被告知有哪些描述符已准备好可以进行IO操作。

select(),poll(),epoll()都是I/O多路复用的机制。I/O多路复用通过一种机制,可以监视多个描述符,一旦某个描述符就绪(一般是读就绪或者写就绪,就是这个文件描述符进行读写操作之前),能够通知程序进行相应的读写操作。但select(),poll(),epoll()本质上都是同步I/O,因为他们都需要在读写事件就绪后自己负责进行读写,也就是说这个读写过程是阻塞的,而异步I/O则无需自己负责进行读写,异步I/O的实现会负责把数据从内核拷贝到用户空间。

2 select函数

2.1 函数原型

#include <sys/select.h>
#include <sys/time.h>
#include <sys/types.h>
#include <unistd.h>
int select(int nfds, fd_set *readfds, fd_set *writefds, fd_set *exceptfds, struct timeval *timeout);
  1. nfds:要监视的文件描述符的范围,一般取监视的最大文件描述符编号值+1;
  2. readfs、writefds、exceptfds:指向描述符集的指针,说明了可读、可写或处于异常条件的描述符集合,每个描述符集存储在一个fd_set数据类型中。对于fd_set数据类型,唯一可以进行的处理是:分配一个这种类型的变量,将这种类型的一个变量值赋给同类型的另一个变量,或通过以下四个宏进行设置:
void FD_ZERO(fd_set *fdset); //清空集合
void FD_SET(int fd, fd_set *fdset); //将一个给定的文件描述符加入集合
void FD_CLR(int fd, fd_set *fdset); //将一个给定的文件描述符从集合中删除
int FD_ISSET(int fd, fd_set *fdset);//检查集合中指定的文件描述符是否可以读写
  1. timeout:超时时间,它告知内核所指定的等待描述符就绪的时间:
struct timeval
{      
    long tv_sec;
    long tv_usec;   
};
//NULL : 永久等待,直到检测到有文件描述符就绪
//tv_sec = 0 tv_usec = 0, 不阻塞,检查描述符后立即返回,即轮询
//tv_sec > 0 tv_usec > 0, 等待固定时间
  1. 返回值:超时返回0;失败返回-1;成功返回大于0的整数,即就绪描述符的数目。

2.2 优缺点

优点:

  1. 移植性好,可跨平台运行;
  2. 超时时间设置精度高,可精确到微秒,而poll为毫秒。

缺点:

  1. 单个进程可监视的文件描述符数目上限为1024,若更改需修改内核相关代码;但由于select采用轮询的方式扫描文件描述符,文件描述符数量越多,效率也就越低;
  2. select每次调用时都要将文件描述符集合从用户态拷贝到内核态,开销较大;
  3. select每次调用都需要在内核遍历传递进来的文件描述符集合,当文件描述符数量很大时也会产生较大的开销;
  4. select返回的是含有整个句柄的数组,应用程序需要遍历整个数组才能发现哪些句柄发生了事件;

3 程序示例

3.1 服务端程序

#include <iostream>
#include <arpa/inet.h>
#include <stdlib.h>
#include <string.h>
#include <unistd.h>

#define SERVER_PORT 9998
#define MAX_CON 8

using namespace std;

int main() {
    sockaddr_in lskt, cskt;
    sockaddr_in Clientaddr[MAX_CON];
    int lfd, cfd;
    int Clientfds[MAX_CON];
    int rfd; //检测集合中就绪描述符个数
    int maxfd = 0; //最大文件描述符
    int i = 0;
    int maxi = 0; //Clientfds中最后一个成功连接的文件描述符的索引

    memset(&lskt, 0, sizeof(lskt));
    memset(&cskt, 0, sizeof(cskt));

    //创建服务端套接字
    if((lfd = socket(AF_INET, SOCK_STREAM, 0)) == -1) {
        perror("socket");
        exit(-1);
    }

    //初始化服务端地址结构信息
    lskt.sin_family = AF_INET;
    lskt.sin_port = htons(SERVER_PORT);
    lskt.sin_addr.s_addr = htonl(INADDR_ANY);

    //设置端口复用
    socklen_t optval = 1;
    setsockopt(lfd, SOL_SOCKET, SO_REUSEPORT, &optval, sizeof(optval));

    //绑定服务端地址信息
    if(bind(lfd, (sockaddr *)&lskt, sizeof(lskt)) == -1) {
        perror("bind");
        exit(-1);
    }

    //监听socket上的连接
    if(listen(lfd, MAX_CON) == -1) {
        perror("listen");
        exit(-1);
    }

    char ServerIP[16];
    inet_ntop(AF_INET, &lskt.sin_addr.s_addr, ServerIP, 16);
    cout << "init success" << endl;
    cout << "host ip: " << ServerIP << ", port: " << ntohs(lskt.sin_port) << endl;

    //创建fd_set集合
    fd_set fds; //fds表示所有被成功监控的
    fd_set fds1;//表示需要监控的所有文件描述符集合
    FD_ZERO(&fds);
    FD_ZERO(&fds1);
    FD_SET(lfd, &fds);
    maxfd = lfd;

    //初始化Clientfds结构体数组
    for(int i = 0; i < MAX_CON; i++) Clientfds[i] = -1;
    
    while(1) {
        fds1 = fds;
        /*
        fds1作为select参数时,表示需要监控的所有文件描述符集合,select返回时,
        fds1中存放的是成功监控的文件描述符。因此在select前后fds1是可能改变的,
        所以在调用select前将fds1置为所有需要被监控的文件描述符的集合,也就是fds
        */
        if((rfd = select(maxfd + 1, &fds1, NULL, NULL, NULL)) > 0) {  
            //表明检测到了有文件描述符对应的缓冲区的数据发生了变化
            if(FD_ISSET(lfd, &fds1)) {
                socklen_t len = sizeof(cskt);
                if((cfd = accept(lfd, (sockaddr *)&cskt, &len)) == -1) {
                    perror("accept");
                    exit(-1);
                }            
                //将新的文件描述符加入到集合中
                FD_SET(cfd, &fds);
                //将连接进来的客户端信息传入相应数组
                for(; i < MAX_CON; i++) {
                    if(Clientfds[i] == -1) {
                        Clientfds[i] = cfd;
                        Clientaddr[i] = cskt;
                        break;
                    }
                }
                //更新最大的文件描述符
                maxfd = maxfd > cfd ? maxfd : cfd;
                //更新最后一个成功连接的描述符的索引
                maxi = i > maxi ? i : maxi;
            }
        }
        else if(rfd == 0) {
            continue;
        }
        else if(rfd == -1) {
            perror("select");
            exit(-1);
        }
        for(int i = 0; i <= maxi; i++) {
            if(Clientfds[i] == -1) continue;
            if(FD_ISSET(Clientfds[i], &fds1)) {
                //输出客户端信息
                char ClientIP[16];
                inet_ntop(AF_INET, &Clientaddr[i].sin_addr.s_addr, ClientIP, 16);
                //通信
                int len = 0;
                char recvBuf[1024];
                if((len = read(Clientfds[i], recvBuf, sizeof(recvBuf))) > 0) {
                    cout << "(SERVER) recv client data: " << recvBuf << " (from client ip: " <<  ClientIP  << ", port: " << ntohs(Clientaddr[i].sin_port) << ")"<< endl;
                    int j = 0;
                    for(; j < len; j++) {
                        recvBuf[j] = toupper(recvBuf[j]);
                    }
                    recvBuf[j] = '\0';
                    write(Clientfds[i], recvBuf, strlen(recvBuf)); //转为大写后发回
                }
                else if(len == 0) {
                    cout << "(SERVER) client closed" << " (from client ip: " <<  ClientIP  << ", port: " << ntohs(Clientaddr[i].sin_port) << ")" << endl;
                    close(Clientfds[i]);
                    FD_CLR(Clientfds[i], &fds);
                    Clientfds[i] = -1;
                }
                else if(len == -1) {
                    perror("read");
                    exit(-1);
                }
            }
        }
    }
    close(lfd);
    return 0;
}

3.3 运行结果

在这里插入图片描述

4 参考

  1. Linux系统编程——I/O多路复用select、poll、epoll的区别使用
  2. Linux I/O多路复用——select模型实现服务端Socket通信
  3. linux应用编程:I/O复用之select poll epoll机制
  4. UNIX环境高级编程
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值