五种网络IO模型

前言

网络IO指的是网络通讯时,socket读取的过程,具体包括数据从硬件接口传递到内核态,再从内核态拷贝到用户态。在服务器中存在大量的网络连接,这些网络连接带来了大量的IO消耗,因此了解网络模型对我们编写服务器程序是十分必要的。

阻塞式IO模型

TCP(三)中,我们给出了一个利用TCP进行client-server通信的例子,在这个例子中,server调用listen后,将等待client的连接,如果没有client连接,server将一直阻塞。
这种阻塞等待IO信号的方式,被称为阻塞式IO,阻塞式IO是最原始的IO方式,弊端很明显:如果没有接收到IO信号,服务器就什么也做不了,当然可以通过多线程或多进程的方式来提高并发量,但这种提高是很有限的:

  1. 操作系统的资源是有限的,为了保护操作系统,线程或进程的数目也是有上限的;
  2. 操作系统的端口数和文件描述符也是有上限的;
  3. 进程或线程运行需要占据CPU,而进程或线程数多于CPU数目时,需要进行进程或线程的上下文切换,这种频繁切换的消耗是很大的,进程或线程数过多,反而会由于切换过多降低并发量。

非阻塞式IO模型

阻塞式IO的问题是必须一直等待IO,等待IO的过程中,CPU有大量时间处于空闲状态,而非阻塞式IO则只读取一次IO数据,如果此时缓冲区没有数据,则直接返回,并将errno设置为EWOULDBLOCK或EAGAIN,过一段时间再来询问内核是否有数据,若询问时有数据,则将缓冲区中的数据读出。非阻塞式IO解放了等待IO的进程或线程,使得进程或线程在没有IO请求时可以处理其他事务,但每个连接仍然需要独占端口和线程/进程,阻塞式IO对线程/进程数和端口的限制依然存在。

多路复用模型

多路复用实现了端口的复用,多个IO请求,都可以通过一个端口来监听,实现了一对一到多对一,极大地节省了资源。
在这里插入图片描述
使用多路复用技术的程序调用内核来监听网络socket,或者使用更广泛的概念,监听fd。多路复用技术通常使用select或poll函数,应用程序可以在用户态设置select或poll函数监听的fd,select使用数组储存这些fd,poll使用链表储存这些fd,然后将这些fd拷贝到内核态进行监听,用户需要轮询这些fd,以找到发生了IO事件的fd。使用多路复用技术,仅需要单个线程或进程(通常是线程)用来遍历fd,找到需要处理的fd再传递给线程池或者进程池处理即可。

信号驱动模型

使用select/poll,只要有fd上发生了IO事件,select/poll函数就会返回,但需要不断轮询所有fd,这些消耗是不必要的,可以使用信号驱动模型来解决这个问题。信号驱动模型使用epoll函数,可以认为epoll是进化的多路复用技术,因为epoll只在有IO事件发生时提示用户,而select/poll需要不断地轮询。
epoll使用红黑树和就绪队列作为数据容器,将监听的文件描述符放在红黑树上,当红黑树上的文件描述符有IO事件发生时,相应的fd被放到就绪队列中返回给应用程序,因此epoll不仅只在有事件发生时返回,返回的数据也全部是需要处理的fd,基于epoll的种种优点,目前在服务器中被广泛使用。

异步IO模型

前面介绍的所有IO模型,都需要应用程序来获取fd并将IO数据拷贝到用户态,有没有可能,应用程序只需要告诉内核我需要监听这些fd上的IO事件,然后内核会选出有IO事件发生的fd,将数据拷贝到用户态,最后告诉应用程序所有工作都完成了,请享用数据把!
这种IO模型就是异步IO模型,目前Linux下还没有真正的异步IO模型,windows server已经实现了异步IO,但也没有被广泛使用,目前主流的网络IO方法还是使用epoll函数。

总结

本文介绍了五种IO模型,需要注意的是,并不是越往后的IO模型越好,在某些情况下select/poll也可能比epoll效率更高,比如监听的fd都是非常活跃的fd,轮询时都有IO事件发生时,使用select/poll更合适,选择IO模型时,需要结合实际场景考虑。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值