Epoll模型
Select模型的缺点:
调用select函数后常见的针对所有文件描述符的循环语句。
每次调用select函数时都需要向该函数传递监视对象信息。
调用select 函数后,并不是把发生变化的文件描述符单独集中到一起,而是通过观察作为监视对象的fd_set变量的变化,找出发生变化的文件描述符,因此无法避免针对所有监视对象的循环语句。而且,作为监视对象的fd_set变量会发生变化,所以调用select函数前应复制并保存原有信息,并在每次调用select函数时传递新的监视对象信息。
那到底哪些因素是提高性能的更大障碍?是调用select函数后常见的针对所有文件描述符对象的循环语句?还是每次需要传递的监视对象信息?
只看代码的话很容易认为是循环。但相比于循环语句,更大的障碍是每次传递监视对象信息。因为传递监视对象信息具有如下含义∶
“每次调用select函数时向操作系统传递监视对象信息。”
应用程序向操作系统传递数据将对程序造成很大负担,而且无法通过优化代码解决,因此将成为性能上的致命弱点。
“那为何需要把监视对象信息传递给操作系统呢?”
有些函数不需要操作系统的帮助就能完成功能,而有些则必须借助于操作系统。假设各位定义了四则运算相关函数,此时无需操作系统的帮助。但select函数与文件描述符有关,更准确地说,是监视套接字变化的函数。而套接字是由操作系统管理的,所以select函数绝对需要借助于操作系统才能完成功能。
select函数的这一缺点可以通过这种方式弥补∶
“向操作系统传递1次监视对象,监视范围或内容发生变化只通知发生变化的事项。”
这样就无需每次调用select函数时都向操作系统传递监视对象信息,但前提是操作系统支持这种处理方式(每种操作系统支持的程度和方式存在差异)。Linux的支持方式是epoll,Windows 的支持方式是IOCP。
Epoll的三大函数:epoll_create,epoll_wait, epoll_ctl
epoll_create
#include<sys/epoll.h>
int epoll_create(int size);
→成功时返回epoll文件描述符,失败时返回-1。
size:epoll实例的大小。
该函数从2.3.2版本的开始加入的,2.6版开始引入内核
Linux最新的内核稳定版本已经到了5.8.14,长期支持版本到了5.4.70
从2.6.8内核开始的Linux,会忽略这个参数,但是必须要大于0
这个是Linux独有的函数
epoll_ctl
#include<sys/epoll.h>
int epoll_ctl(int epfd, int op, int fd, struct epoll_event* event);
→成功时返回0,失败时返回-1。
●epfd 用于注册监视对象的epoll例程的文件描述符。
●op 用于指定监视对象的添加、删除或更改等操作。
EPOLL_CTL_ADD,EPOLL_CTL_MOD,EPOLL_CTL_DEL
● fd 需要注册的监视对象文件描述符。
● event 监视对象的事件类型。
EPOLLIN∶需要读取数据的情况。
EPOLLOUT∶输出缓冲为空,可以立即发送数据的情况。
EPOLLPRI∶收到OOB数据的情况。
EPOLLRDHUP∶断开连接或半关闭的情况,这在边缘触发方式下非常有用。
EPOLLERR∶发生错误的情况。
EPOLLET∶以边缘触发的方式得到事件通知。
EPOLLONESHOT∶发生一次事件后,相应文件描述符不再收到事件通知。因此需要向
epoll_ctl函数的第二个参数传递
EPOLLCTL_MOD,再次设置事件。
epoll_wait:
#include <sys/epoll.h>
int epoll_wait(int epfd, struct epoll_event*events,int maxevents,int timeout);
→成功时返回发生事件的文件描述符数,失败时返回-1。
epfd 表示事件发生监视范围的epol例程的文件描述符
events 保存发生事件的文件描述符集合的结构体地址值。
maxevents 第二个参数中可以保存的最大事件数目。
Timeout:以1/1000秒为单位的等待时间,传递-1时,一直等待直到发生事件。
Epoll实战案例
服务端:
#include <stdio.h>
#include <stdlib.h>
#include <string.h>
#include <unistd.h>
#include <arpa/inet.h>
#include <sys/socket.h>
#include <sys/epoll.h>
#define BUF_SIZE 100
#define EPOLL_SIZE 50
void error_handling(char *buf);
int main(int argc, char *argv[])
{
int serv_sock, clnt_sock;
struct sockaddr_in serv_adr, clnt_adr;
socklen_t adr_sz;
int str_len, i;
char buf[BUF_SIZE];
struct epoll_event *ep_events;
struct epoll_event event;
int epfd, event_cnt;
if(argc!=2) {
printf("Usage : %s <port>\n", argv[0]);
exit(1);
}
serv_sock=socket(PF_INET, SOCK_STREAM, 0);
memset(&serv_adr, 0, sizeof(serv_adr));
serv_adr.sin_family=AF_INET;
serv_adr.sin_addr.s_addr=htonl(INADDR_ANY);
serv_adr.sin_port=htons(atoi(argv[1]));
if(bind(serv_sock, (struct sockaddr*) &serv_adr, sizeof(serv_adr))==-1)
error_handling("bind() error");
if(listen(serv_sock, 5)==-1)
error_handling("listen() error");
epfd=epoll_create(EPOLL_SIZE);
ep_events=malloc(sizeof(struct epoll_event)*EPOLL_SIZE);
event.events=EPOLLIN;//默认是设置条件触发方式
event.data.fd=serv_sock;
epoll_ctl(epfd, EPOLL_CTL_ADD, serv_sock, &event);
while(1)
{
event_cnt=epoll_wait(epfd, ep_events, EPOLL_SIZE, -1);
if(event_cnt==-1)
{
puts("epoll_wait() error");
break;
}
for(i=0; i<event_cnt; i++)
{
if(ep_events[i].data.fd==serv_sock)
{
adr_sz=sizeof(clnt_adr);
clnt_sock=
accept(serv_sock, (struct sockaddr*)&clnt_adr, &adr_sz);
event.events=EPOLLIN;
event.data.fd=clnt_sock;
epoll_ctl(epfd, EPOLL_CTL_ADD, clnt_sock, &event);
printf("connected client: %d \n", clnt_sock);
}
else
{
str_len=read(ep_events[i].data.fd, buf, BUF_SIZE);
if(str_len==0) // close request!
{
epoll_ctl(
epfd, EPOLL_CTL_DEL, ep_events[i].data.fd, NULL);
close(ep_events[i].data.fd);
printf("closed client: %d \n", ep_events[i].data.fd);
}
else
{
write(ep_events[i].data.fd, buf, str_len); // echo!
}
}
}
}
close(serv_sock);
close(epfd);
return 0;
}
void error_handling(char *buf)
{
fputs(buf, stderr);
fputc('\n', stderr);
exit(1);
}