1.Linux网络I/O模型概述

Linux网络I/O模型概述

      Linux内核将所有的外部设备都看成一个文件来操作,对一个文件的读写操作会调用内核提供的系统命令,返回一个file descriptor(fd,文件描述符)。

       而对一个socket的读写也会有相应的描述符,称为socketfd(socket描述符),描述符就是一个数字,它指向内核中的一个结构体(文件路径,数据区等属性)。

       UNIX提供了5种I/O模型,分别如下:

阻塞I/O模型

       最常用的I/O模型,缺省情况下,所有文件操作都是阻塞的。

       我们以套接字接口为例来讲解此模型:在进程空间中调用recvfrom,其系统调用直到数据包到达且被复制到应用进程的缓冲区中或者发生错误时才返回,在此期间会一直等到。进程从调用recvfrom开始到它返回的整段时间内都是阻塞的,因此被称为阻塞I/O模型。


非阻塞I/O模型

       recvfrom从应用层到内核的时候,如果该缓冲区没有数据的话,就直接返回一个EWOULDBLCOK错误,一般都对非阻塞I/O模型进行轮询检查这个状态,看内核是不是有数据到来。


I/O复用模型

       Linux提供select/poll,进程通过将一个或者多个fd传递给select或poll系统调用,阻塞在select操作上,这样select/poll可以帮我们检查多个fd是否处于就绪状态。

       select/poll是顺序扫描fd是否就绪,而且支持的fd数量有限,因此它的使用受到了一些制约。Linux还提供了一个epoll系统调用,epoll使用基于事情驱动方式代替顺序扫描,因此性能更高、当有fd就绪时,立即回调函数rollback。


信号驱动I/O模型

      首先开启套接口信号驱动I/O功能,并通过系统调用sigaction执行一个信号处理函数(此系统调用立即返回,进程继续工作,它是非阻塞的)。当数据准备就绪时,就为该进程生成一个SIGIO信号,通过信号回调通知应用程序调用recvfrom来读取数据,并通知主循环函数处理数据。


异步I/O

      告知内核启动某个操作,并让内核在整个操作完成后(包括将数据从内核复制到用户自己的缓冲区)通知我们。这种模型与信号驱动模型的主要区别是:信号驱动I/O由内核通知我们何时可以开始一个I/O操作:异步I/O模型由内核通知我们I/O操作何时已经完成。


I/O多路复用技术

       Java NIO的核心类库多路复用器Selector是基于epoll的多路复用技术实现的。

      当需要同时处理多个客户端接入请求时,可以利用多线程或者I/O多路复用技术进行处理。I/O多路复用技术通过把多个I/O的阻塞复用到同一个select的阻塞上,从而使得系统在单线程的情况下可以同时处理多个客户端的请求。

       与多线程/多进程模型比,I/O多路复用的最大优势是系统开销小,系统不需要创建新的额外进程或线程,也不需要维护这些进程和线程的运行,降低了系统的维护工作量,节省了系统资源。

       I/O多路复用的主要场景如下:

      1.服务器需要同时处理多个处于监听状态或者多个连接状态的套接字;

      2.服务器需要同时处理多种网络协议的套接字;

      目前支持I/O多路复用的系统调用有select,pselect,poll,epoll。之前很长的一段时间内,都使用select做轮询和网络事件通知,然而select具有一些缺陷,最终选择了epoll。

      epoll和select,原理类似,但epoll做了很多的改进,如下:

支持一个进程打开的socket描述符(FD)不受限制(仅受限于操作系统的最大文件句柄数)

       select最大的缺陷是单个进程所打开的FD是有一定限制的,它有FD_SETSIZE设置,默认值是1024.

       这对于那些需要支持上万个TCP连接的大型服务器来说太少了。可以选择修改这个宏,然后重新编译内核,不过这会带来网络效率的下降。

       我们可以选择多进程来解决这个问题,但创建进程需要一定的代价,而且进程间的数据交换非常麻烦。

       对于Java来说,没有共享内存,需要通过Socket通信或者其他方式进行数据同步,这会带来性能损耗,增加了程序的复杂度。

       而,epoll支持的FD上限是操作系统的最大文件句柄数,这远远大于1024。这个值与内存大小有关。

I/O效率不会随着FD数目的增加而线性下降

      对于select/poll来说,当你拥有一个很大的socket集合时,由于网络延时或者链路空闲,任一时刻只有少部分的socket是活跃的,但是select/poll每次调用都会线性扫描全部的集合,导致效率下降。

      epoll只会对活跃的socket进行操作,因为epoll是根据每个fd上的callback函数实现的。所以,只有活跃的socket才会主动地调用callback函数,其他idle状态的socket不会。

使用mmap加速内核与用户空间的消息传递

     无论是select,poll还是epoll都需要内核把FD消息通知给用户,为了避免不必要的内存复制,epoll是通过内核和用户空间mmap同一块内存来说实现的。

epoll的API更简单

     包括创建一个epoll描述符,添加监听事件,阻塞等待所监听的事件发生,关闭epoll描述符等。

     Mark:这个地方还需要补充;

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值