epoll模型设计海量级连接服务器

最近在参与一个海量级(20000以上)远程连接的服务器设计,由于用户要求的硬件平台仅限于Linux,因此选择了epoll模型来实现对海量客户端连接的处理。
先聊一下epoll模型的基本情况。(一般来说,非海量级客户端连接的服务器,可能用不到epoll模型。一方面是由于epoll模型不能跨平台,另一方面初学者面露难色)。使用到epoll_create,epoll_ctl,epoll_wait,close 4个函数。
Epoll较之select优越的点,有两个方面:
1)select操作的socket对象的集合,要受到FD_SETSIZE的限制,各平台的缺省值也不一样(Windows上是64,AIX、Linux、HP、Solaris上为1024或2048不等);而epoll操作的socket对象集合仅受系统的句柄限制,一般来说,可以达到65535
2) select和epoll的核心实现机制不同。Select实现中,kernel每次都要遍历FD_SET中的socket,检测是否可读,花费的时间和FD_SET中的socket个数成正比;epoll实现中,当有socket可读时,由核心激活epoll订阅的一个事件,因此节省了sys cpu从而节约了资源,自然就提高了效率
epoll模型提供了二种工作模式:
1) Edge Triggered (ET)
ET是高速工作方式,只支持no-block socket。当IO事件发生时内核通知事件后不再发送更多的通知,直到用户执行的操作导致那个socket(或文件描述符)事件的改变,也就是说如果用户不对socket(或文件描述符)进行IO操作,那么内核也不会再通知事件。
2) Level Triggered (LT)
LT是缺省的工作方式,同时支持block和no-block socket。内核通知事件一个文件描述符是否就绪了,然后可以对这个就绪的fd进行IO操作。如果用户不作任何读、写操作,内核还是会继续通知事件的。
更详细的epoll定义或信息,参照相关网络信息或书籍即可。下面,我来描述一下,这个需求中的epoll模型的设计。
一、业务需求如下图,要求满足高并发、高性能、高可靠等属性。
epoll模型设计海量级连接服务器



二、流程设计:
1) 主进程
epoll模型设计海量级连接服务器


1) Net_recv_thfunc工作线程


epoll模型设计海量级连接服务器

Handle_NetRecv函数流程

epoll模型设计海量级连接服务器


2) Net_send_thfunc工作线程

epoll模型设计海量级连接服务器
Epoll模型使用中,注意以下几个点:
1)避免多个线程操作同一个epoll对象,否则会出现惊群现象,即当一个可读EPOLLIN或EPOLLOUT事件到达时,所有线程都返回这个事件,但只有一个线程真正能拿到这个事件,其他的线程将返回EWOULDBLOCK
2)操作epoll对象的线程和操作socket的线程是否分开,应视后续的处理效率而定。如果接受到socket数据的后续处理性能高,则可以在同一线程里来搞定;否则,需要创建另一类线程池,来参与socket数据的后续处理。
3)毕竟,一个进程内的句柄数也有限。如果要适应更加海量的客户端连接,可采取在同一台设备(硬件资源足够的情况下)或多台设备上,部署多套“接入管理Server”。
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
epoll的优点 支持一个进程打开大数 目的socket描述符(FD) select 最不能忍受的是一个进程所打开的FD是有一定限制的,由FD_SETSIZE设置,默认值是2048。对于那些需要支持的上万连接数目的IM服务器来说显 然太少了。这时候你一是可以选择修改这个宏然后重新编译内核,不过资料也同时指出这样会带来网络效率的下降,二是可以选择多进程的解决方案(传统的 Apache方案),不过虽然linux上面创建进程的代价比较小,但仍旧是不可忽视的,加上进程间数据同步远比不上线程间同步的高效,所以也不是一种完 美的方案。不过 epoll则没有这个限制,它所支持的FD上限是最大可以打开文件的数目,这个数字一般远大于2048,举个例子,在1GB内存的机器上大约是10万左 右,具体数目可以cat /proc/sys/fs/file-max察看,一般来说这个数目和系统内存关系很大。 IO 效率不随FD数目增加而线性下降 传统的select/poll另一个致命弱点就是当你拥有一个很大的socket集合,不过由于网络延时,任一时间只有部分的socket是"活跃"的, 但是select/poll每次调用都会线性扫描全部的集合,导致效率呈现线性下降。但是epoll不存在这个问题,它只会对"活跃"的socket进行 操作---这是因为在内核实现中epoll是根据每个fd上面的callback函数实现的。那么,只有"活跃"的socket才会主动的去调用 callback函数,其他idle状态socket则不会,在这点上,epoll实现了一个"伪"AIO,因为这时候推动力在os内核。在一些 benchmark中,如果所有的socket基本上都是活跃的---比如一个高速LAN环境,epoll并不比select/poll有什么效率,相 反,如果过多使用epoll_ctl,效率相比还有稍微的下降。但是一旦使用idle connections模拟WAN环境,epoll的效率就远在select/poll之上了。 使用mmap加速内核 与用户空间的消息传递。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值