Linux下EPoll通信模型简析

转载自:http://www.sootoo.com/content/324757.shtml

简介:

  EPoll基于I/O的事件通知机制,由系统通知用户那些SOCKET触发了那些相关I/O事件,事件中包含对应的文件描述符以及事件类型,这样应用程序可以针对事件以及事件的source做相应的处理(Acception,Read,Write,Error)。相比原先的SELECT模型(用户主动依次检查SOCKET),变成被动等待系统告知处于活跃状态的SOCKET,性能提升不少(不需要依次遍历所有的SOCKET,而只是对活跃SOCKET进行事件处理)。

  基本步骤:

  擅长对大量并发用户的请求进行及时处理,完成服务器与客户端的数据交互。一个简单实现步骤如下:

  (1) 创建侦听socket:ListenSock,将该描述符设定为非阻塞模式,调用Listen()函数在该套接字上侦听连接请求。

  (2) 使用epoll_create()函数创建文件描述,设定可管理的最大socket描述符数目。

  (3) 将ListenSock注册进EPoll中进行监测

  (4) EPoll监视启动,epoll_wait()等待epoll事件发生。

  (5)如果epoll事件表明有新的连接请求,则调用accept()函数,并将新建立连接添加到EPoll中。若为读写或者报错等,调用对应的Handle进行处理。

  (6) 继续监视,直至停止。

  通信主体框架:

  注:上诉过程只是一个简单的线性实例,在实际的应用过程中,为了提高监视效率,常常将EPOLL监听到的事件交给其他专门的任务线程进行处理,以提高EPoll监视的效率。

  主要涉及API

  1.EPoll创建

  int epoll_create(int size)

  该函数生成一个epoll专用文件描述符,其中的参数是指定生成描述符的最大范围。在linux-2.4.32内核中根据size大小初始化哈希表的大小,在linux2.6.10内核中该参数无用,使用红黑树管理所有的文件描述符,而不是hash.

  2、epoll_ctl函数

  int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event)

  该函数用于控制某个文件描述符上的事件,可以注册事件,修改事件,删除事件。

  参数:epfd:由 epoll_create 生成的epoll专用文件描述符;

  op:操作类型,有如下取值:

  EPOLL_CTL_ADD 注册、

  EPOLL_CTL_MOD 修改、

  EPOLL_CTL_DEL 删除

  fd:要控制的文件描述符;

  event:指向epoll_event的指针; 如果调用成功返回0,不成功返回-1

  epoll_event 结构体的events字段是表示感兴趣的事件,取值为:

  EPOLLIN:表示对应的文件描述符可以读;

  EPOLLOUT:表示对应的文件描述符可以写;

  EPOLLPRI:表示对应的文件描述符有紧急的数据可读;

  EPOLLERR:表示对应的文件描述符发生错误;

  EPOLLHUP:表示对应的文件描述符被挂断;

  EPOLLET:表示对应的文件描述符有事件发生;

  3、事件等待函数

  int epoll_wait(int epfd,struct epoll_event * events,int maxevents,int timeout)

  该函数用于轮询I/O事件的发生;

  参数: epfd:由epoll_create 生成的epoll专用的文件描述符;

  epoll_event:用于回传等待处理的事件数组;

  maxevents:每次能处理的事件数;

  timeout:等待I/O事件发生的超时值(ms);-1永不超时,直到有事件产生才触发,0立即返回

  主要数据结构:

  typedef union epoll_data {

  void *ptr;

  int fd;

  __uint32_t u32;

  __uint64_t u64;

  } epoll_data_t;

  struct epoll_event {

  __uint32_t events; /* Epoll events */

  epoll_data_t data; /* User data variable */

  };

  一般我们在编程时,利用event变量存储事件对应的文件描述符以及事件类型。

  实例代码

  服务器段代码

 int EPollServer()

  {

  int srvPort = 6888;

  initSrvSocket(srvPort);

  /* 创建 epoll 句柄,把监听socket加入到epoll集合里 */

  epollfd = epoll_create(MAX_EVENTS);

  struct epoll_event event;

  event.events = EPOLLIN | EPOLLET;

  event.data.fd = srvfd;

  if ( epoll_ctl(epollfd, EPOLL_CTL_ADD, srvfd, &event) < 0 )

  {

  printf(“epoll Add Failed: fd=%d\n”, srvfd);

  return -1;

  }

  printf( “epollEngine startup:port %d”, srvPort);

  while(1)

  {

  /*等待事件发生*/

  int nfds = epoll_wait(epollfd, eventList, MAX_EVENTS, -1);

  if ( nfds == -1 )

  {

  printf( “epoll_wait” );

  continue;

  }

  /* 处理所有事件 */

  int n = 0;

  for (; n < nfds; n++)

  handleEvent(eventList + n);

  }

  close(epollfd);

  close(srvfd);

  };

在事件处理handleEvent中(分为连接事件处理以及数据接收发送事件)

void handleEvent(struct epoll_event* pEvent)

  {

  if (pEvent->data.fd == srvfd)

  {

  AcceptConn(srvfd);

  }else{

  RecvData(pEvent->data.fd);

  SendData(pEvent->data.fd);

  epoll_ctl(epollfd, EPOLL_CTL_DEL, pEvent->data.fd, pEvent);

  }

  }

  //从标准输入读取数据,发送给服务器端,服务器端在原样返回,客户端再接收并予以显示

  void handle(int sockfd)

  {

  char sendline[MAXLINE];

  char recvline[MAXLINE];

  int n;

  for (;;) {

  if (fgets(sendline, MAXLINE, stdin) == NULL)

  break;

  if (read(STDIN_FILENO, sendline, MAXLINE) == 0)

  break;

  n = write(sockfd, sendline, strlen(sendline));

  n = read(sockfd, recvline, MAXLINE);

  if (n == 0) {

  printf(“echoclient: server terminated prematurely\n”);

  break;

  }

  write(STDOUT_FILENO, recvline, n);

  //如果用标准库的缓存流输出有时会出现问题

  //fputs(recvline, stdout);

  }

  }

运行结果(Linux下截图麻烦,直接复制控制台结果)

  客户端:

  administrator@ubuntu:~$ ./echoclient

  welcome to echoclient

  123456

  123456

  服务器端:

  administrator@ubuntu:~/source/EPollProject$ ./EPoll

  epollEngine startup port 6888

  handleEvent function, HANDLE: 3, EVENT is 1

  Accept Connection: 5

  handleEvent function, HANDLE: 5, EVENT is 1

  RecvData function

  SOCKET HANDLE: 5: CONTENT: 123456

  content is 123456

  SendData function

  SendData: 123456

  注:

  1.此处只是学习了EPoll基本模型,在实际应用中,为了提高EPoll模型的监视效率,一般在监视线程中只做监视,不过事件处理工作,而是将事件交付其他线程处理。

  2. 为了提高事件处理的效率,所以我们尽量避免在有事件时开辟线程处理,处理完关闭,一般在系统启动时会创建线程池,将事件交与线程池中的空闲线程进行处理。在事件的处理过程中不会有线程的创建、销毁等操作。效率也提高了。



在这里最重要的莫过于select模型和Asynchronous I/O模型。从理论上说,AIO似乎是最高效的,你的IO操作可以立即返回,然后等待os告诉你IO操作完成。但是一直以来,如何实现就没有一个完美的方案。最著名的windows完成端口实现的AIO,实际上也只是内部用线程池实现的罢了,最后的结果是IO有个线程池,你的应用程序也需要一个线程池...... 很多文档其实已经指出了这引发的线程context-switch所带来的代价。在linux 平台上,关于网络AIO一直是改动最多的地方,2.4的年代就有很多AIO内核patch,最著名的应该算是SGI。但是一直到2.6内核发布,网络模块的AIO一直没有进入稳定内核版本(大部分都是使用用户线程模拟方法,在使用了NPTL的linux上面其实和windows的完成端口基本上差不多了)。2.6内核所支持的AIO特指磁盘的AIO---支持io_submit(),io_getevents()以及对Direct IO的支持(即:就是绕过VFS系统buffer直接写硬盘,对于流服务器在内存平稳性上有相当的帮助)。 所以,剩下的select模型基本上就成为我们在linux上面的唯一选择,其实,如果加上no-block socket的配置,可以完成一个"伪"AIO的实现,只不过推动力在于你而不是os而已。不过传统的select/poll函数有着一些无法忍受的缺点,所以改进一直是2.4-2.5开发版本内核的任务,包括/dev/poll,realtime signal等等。 最终,Davide Libenzi开发的epoll进入2.6内核成为正式的解决方案。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值