epoll的使用
实现原理
在网上整理了一些博客的内容,百度了一些内容,加了点自己的理解,现在的理解还过于浅显,对于具体的细节还一头雾水,过一段时间在重新过来修改
在之前我学习的进行tcp的套接字编程之中,使用的是select进行的多路复用,服务器端大概流程为
1.创建一个套接字create
2.初始化服务端的套接字地址结构
3.进行绑定band
4.化被动为主动,进行监听listen
5.通过accept()函数接收客户端的connect连接请求(udp的数据传输则不需要套接字处于连接状态)
当accept()连接成功后,就可以通过send和recv进行数据传输了
由于单个进程可监视的fd数量被限制,32位机默认1024,64位默认2048,并不能处理过大数目的socket描述符,当套接字比较多的时候,每次select()都要通过遍历FD_SETSIZE个Socket来完成调度,不管哪个Socket是活跃的,都遍历一遍。对系统CPU的利用率并不高。而epoll最大的优点就在于它只管你“活跃”的连接,而跟连接总数无关。
通过创建一个epoll模型,它能显著提高程序在大量并发连接中只有少量活跃的情况下的系统CPU利用率,它无须遍历整个被侦听的描述符集,只要遍历那些被内核IO事件异步唤醒而加入Ready队列的描述符集合就行了。
将服务端的套接字从listen的监听,变成加入epoll 的监视,创建事件数组,客户端发送一个 connect请求连接时,响应的不是服务端的accept .而是epoll.
当服务端接受到一个 connect时,内核监测的到有响应,会将其加入到 epoll 的请求队列,
然后 accept再从请求队列里进行连接。
那为什么epoll如此高效呢,主要原因有以下两点?
-
epoll对于句柄事件的选择不是遍历的,是事件响应的,就是句柄上事件来就马上选择出来,不需要遍历整个句柄链表,因此效率非常高,内核将句柄用红黑树保存的,IO效率不随FD数目增加而线性下降。
-
内存拷贝, select让内核把 FD 消息通知给用户空间的时候使用了内存拷贝的方式,开销较大,但是Epoll 在这点上使用了共享内存的方式,这个内存拷贝也省略了。
主要使用的函数
int epoll_create(int size);
int epoll_create1(int flags);
int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);
int epoll_wait(int epfd, struct epoll_event *events, int maxevents, int timeout);
epoll_create和epoll_create1
#include <sys/epoll.h>
int epoll_create(int size);
epoll_create 相当于创建了一个根结点(内部是红黑树);
size 为epoll 监听的最大个数
对于epoll_create1 的flag参数:
可以设置为0 或EPOLL_CLOEXEC。
为0时函数表现与epoll_create一致。
EPOLL_CLOEXEC标志与open 时的O_CLOEXEC 标志类似,即进程被替换时会关闭打开的文件描述符
(需要注意的是,epoll_create与epoll_create1当创建好epoll句柄后,它就是会占用一个fd值,
在linux下如果查看/proc/<pid>/fd/,是能够看到这个fd的,所以在使用完epoll后,**必须调用
close()关闭,否则可能导致fd被耗尽**)。
epoll_wait
#include <sys/epoll.h>
int epoll_wait(int epfd, struct epoll_event * events, int maxevents, int timeout);
epfd 根节点
events:结构体指针, 一般是一个数组
epoll_event结构体;
struct epoll_event
{
uint32_t events; /* Epoll events */
epoll_data_t data; /* User data variable */
};
typedef union epoll_data
{