redis网络模型 select、poll、epoll

redis 网络模型

用户空间和内核空间

任何Linux发行版,内核都是Linux。
在这里插入图片描述
进程的寻址空间:内核空间、用户空间 0-2^32

用户空间只能执行受限的命令(Ring3),而且不能直接调用系统资源,必须通过内核提供的接口来访问
内核空间可以执行特权命令(Ring0),调用一切系统资源

redis 网络模型:阻塞IO

阻塞IO就是两个阶段都必须阻塞等待:
在这里插入图片描述

redis 网络模型:非阻塞IO

非阻塞IO的recvfrom操作会立即返回结果,而不会一直阻塞用户进程
在这里插入图片描述
然而并没有什么用,反而会让CPU使用率暴增。但在某些特殊场景,会有好的表现。比如IO多路复用

IO多路复用

无论是阻塞IO还是非阻塞IO,用户应用在一阶段都需要调用recvfrom来获取数据,差别在于无数据时的处理方案:

  1. 如果调用recvfrom时,恰好没有数据,阻塞IO会使CPU阻塞,非阻塞IO使CPU空转,都不能充分发挥CPU的作用。
  2. 如果调用recvfrom时,恰好有数据,则用户进程可以直接进入第二阶段,读取并处理数据

而在单线程情况下,只能依次处理IO事件,如果正在处理的IO事件恰好未就绪(数据不可读或不可写),线程就会被阻塞,所有IO事件都必须等待,性能自然会很差。

要提高效率有几种办法?
方案一:增加更多服务员(多线程)
方案二:不排队,谁想好了吃什么(数据就绪了),服务员就给谁点餐(用户应用就去读取数据)

用户进程如何知道内核中数据是否就绪呢?

我们从文件描述符开始说起:
文件描述符(File Descriptor):简称FD,是一个从0 开始的无符号整数,用来关联Linux中的一个文件。在Linux中,一切皆文件,例如常规文件、视频、硬件设备等,当然也包括网络套接字(Socket)。
**IO多路复用:**是利用单个线程来同时监听多个FD,并在某个FD可读、可写时得到通知,从而避免无效的等待,充分利用CPU资源。
在这里插入图片描述
在这里插入图片描述
阶段一:
用户进程调用select,指定要监听的FD集合
内核监听FD对应的多个socket
任意一个或多个socket数据就绪则返回readable
此过程中用户进程阻塞
阶段二:
用户进程找到就绪的socket
依次调用recvfrom读取数据
内核将数据拷贝到用户空间
用户进程处理数据

不同监听FD的方式:

select

// 定义类型别名 __fd_mask,本质是 long int
typedef long int __fd_mask;
/* fd_set 记录要监听的fd集合,及其对应状态 */
typedef struct {
    // fds_bits是long类型数组,长度为 1024/32 = 32
    // 共1024个bit位,每个bit位代表一个fd,0代表未就绪,1代表就绪
    __fd_mask fds_bits[__FD_SETSIZE / __NFDBITS];
    // ...
} fd_set;
// select函数,用于监听fd_set,也就是多个fd的集合
int select(
    int nfds, // 要监视的fd_set的最大fd + 1    当遍历到这个值的时候,表示已经到达上线了
    fd_set *readfds, // 要监听读事件的fd集合
    fd_set *writefds,// 要监听写事件的fd集合
    fd_set *exceptfds, // // 要监听异常事件的fd集合
    // 超时时间,null-用不超时;0-不阻塞等待;大于0-固定等待时间
    struct timeval *timeout
);

在这里插入图片描述
没有直观的告诉用户哪个就绪了,都需要遍历一次fd_set读取,这也是select性能相对较差的原因
select模式存在的问题:
(1)需要将整个fd_set从用户空间拷贝到内核空间,select结束还要再次拷贝回用户空间
(2)select无法得知具体是哪个fd就绪,需要遍历整个fd_set
(3)fd_set监听的fd数量不能超过1024

poll

// pollfd 中的事件类型
#define POLLIN     //可读事件
#define POLLOUT    //可写事件
#define POLLERR    //错误事件
#define POLLNVAL   //fd未打开

// pollfd结构
struct pollfd {
    int fd;     	  /* 要监听的fd  */
    short int events; /* 要监听的事件类型:读、写、异常 */
    short int revents;/* 实际发生的事件类型 */
};
// poll函数
int poll(
    struct pollfd *fds, // pollfd数组,可以自定义大小  其实就是我们需要监听的文件描述符的集合,没有上限
    nfds_t nfds, // 数组元素个数
    int timeout // 超时时间
);

流程
(1)创建pollfd数组,向其中添加关注的fd信息,数组大小自定义
(2)调用poll函数,将pollfd数组拷贝到内核空间,转链表存储,无上限
(3)内核遍历fd,判断是否就绪
(4)数据就绪或超时后,拷贝pollfd数组到用户空间,返回就绪fd数量n
(5)用户进程判断n是否大于0
(6)大于0则遍历pollfd数组,找到就绪的fd
与select对比:
select模式中的fd_set大小固定为1024,而pollfd在内核中采用链表,理论上无上限
监听FD越多,每次遍历消耗时间也越久,性能反而会下降

epoll

struct eventpoll {
    //...
    struct rb_root  rbr; // 一颗红黑树,记录要监听的FD
    struct list_head rdlist;// 一个链表,记录就绪的FD
    //...
};
// 1.创建一个epoll实例,内部是event poll,返回对应的句柄epfd
int epoll_create(int size);
// 2.将一个FD添加到epoll的红黑树中,并设置ep_poll_callback
// callback触发时,就把对应的FD加入到rdlist这个就绪列表中
int epoll_ctl(
    int epfd,  // epoll实例的句柄
    int op,    // 要执行的操作,包括:ADD、MOD、DEL
    int fd,    // 要监听的FD
    struct epoll_event *event // 要监听的事件类型:读、写、异常等
);
// 3.检查rdlist列表是否为空,不为空则返回就绪的FD的数量
int epoll_wait(
    int epfd,                   // epoll实例的句柄
    struct epoll_event *events, // 空event数组,用于接收就绪的FD
    int maxevents,              // events数组的最大长度
    int timeout   // 超时时间,-1用不超时;0不阻塞;大于0为阻塞时间
);

在这里插入图片描述

差异:

  1. select和poll只会通知用户进程有FD就绪,但不确定具体是哪个FD,需要用户进程逐个遍历FD来确认
  2. epoll则会在通知用户进程FD就绪的同时,把已就绪的FD写入用户空间

select模式存在的三个问题:
(1)能监听的FD最大不超过1024
(2)每次select都需要把所有要监听的FD都拷贝到内核空间
(3)每次都要遍历所有FD来判断就绪状态
poll模式的问题:
poll利用链表解决了select中监听FD上限的问题,但依然要遍历所有FD,如果监听较多,性能会下降
epoll模式中如何解决这些问题的?
(1)基于epoll实例中的红黑树保存要监听的FD,理论上无上限,而且增删改查效率都非常高
(2)每个FD只需要执行一次epoll_ctl添加到红黑树,以后每次epol_wait无需传递任何参数,无需重复拷贝FD到内核空间
(3)利用ep_poll_callback机制来监听FD状态,无需遍历所有FD,因此性能不会随监听的FD数量增多而下降

IO多路复用的事件通知机制

当FD有数据可读时,我们调用epoll_wait(或者select、poll)可以得到通知。但是事件通知的模式有两种:
(1)LevelTriggered:简称LT,也叫做水平触发。只要某个FD中有数据可读,每次调用epoll_wait都会得到通知。
(2)EdgeTriggered:简称ET,也叫做边沿触发。只有在某个FD有状态变化时,调用epoll_wait才会被通知。
注:
(1)ET模式避免了LT模式可能出现的惊群现象
(2)ET模式最好结合非阻塞IO读取FD数据,相比LT会复杂一些
(3)select和poll仅支持LT模式,epoll可以自由选择LT和ET两种模式

IO多路复用-web服务流程

在这里插入图片描述

信号驱动IO

信号驱动IO是与内核建立SIGIO的信号关联并设置回调,当内核有FD就绪时,会发出SIGIO信号通知用户,期间用户应用可以执行其它业务,无需阻塞等待。
在这里插入图片描述
当有大量IO操作时,信号较多,SIGIO处理函数不能及时处理可能导致信号队列溢出,而且内核空间与用户空间的频繁信号交互性能也较低。

异步IO

异步IO的整个过程都是非阻塞的,用户进程调用完异步API后就可以去做其它事情,内核等待数据就绪并拷贝到用户空间后才会递交信号,通知用户进程。
在这里插入图片描述
在高并发下,累计过多业务,因为IO读写的效率是比较低的,每增加一个任务有可能就有大量内存的消耗,会导致整个系统的内存占用过多导致系统的崩溃。要使用异步IO,要做好限流,但是增加了复杂度。
虽然也有使用,但是还是IO多路复用更好。
在这里插入图片描述

redis的网络模型

redis是单线程还是多线程?

(1)如果仅仅聊Redis的核心业务部分(命令处理),答案是单线程
(2)如果是聊整个Redis,那么答案就是多线程
在Redis版本迭代过程中,在两个重要的时间节点上引入了多线程的支持:
Redis v4.0:引入多线程异步处理一些耗时较旧的任务,例如异步删除命令unlink
Redis v6.0:在核心网络模型中引入 多线程,进一步提高对于多核CPU的利用率
因此,对于Redis的核心网络模型,在Redis 6.0之前确实都是单线程。是利用epoll(Linux系统)这样的IO多路复用技术在事件循环中不断处理客户端情。

为什么redis要采用单线程?

(1)抛开持久化不谈,Redis是纯内存操作,执行速度非常快,它的性能瓶颈是网络延迟而不是执行速度,因此多线程并不会带来巨大的性能提升。
(2)多线程会导致过多的上下文切换,带来不必要的开销
(3)引入多线程会面临线程安全问题,必然要引入线程锁这样的安全手段,实现复杂度增高,而且性能也会大打折扣

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值