线程模型
- 不同的线程模式,对程序的性能有很大影响,为了搞清
Netty
线程模式,我们来系统的讲解下各个线程模式,最后看看Netty
线程模型有什么优越性。 - 目前存在的线程模型有:传统阻塞
I/O
服务模型Reactor
模式 - 根据
Reactor
的数量和处理资源池线程的数量不同,有3
种典型的实现单Reactor
单线程;单Reactor
多线程;主从Reactor
多线程 Netty
线程模式(Netty
主要基于主从Reactor
多线程模型做了一定的改进,其中主从Reactor
多线程模型有多个Reactor
)
传统阻塞IO模型
每一个连接都需要独立的线程完成数据的输入,业务处理。
传统的阻塞IO服务模型框架图:
缺点:
- 当并发数很大,就会创建大量的线程,占用很大系统资源
- 连接创建后, 如果当前线程暂时没有数据可读,该线程会阻塞在read操作,造成线程资源浪费
Reactor模型
概述
针对传统IO模型的缺点的Reactor模型的处理方式如下:
-
基于于IO复用模型:多个连接共用一个阻塞对象,应用程序只需要在一个阻塞对象等待,无需阻塞等待所有连接。当某个连接有新的数据可以处理时,操作系统通知应用程序,线程从阻塞状态返回,开始进行业务处理。
Reactor对应的叫法: 1. 反应器模式 2. 分发者模式(Dispatcher) 3. 通知者模式(notifier)
-
基于线程池复用线程资源:不必再为每个连接创建线程,将连接完成后的业务处理任务分配给线程进行处理,一个线程可以处理多个连接的业务。
模型图如下:
Reactor
模式,通过一个或多个输入同时传递给服务处理器的模式(基于事件驱动)- 服务器端程序处理传入的多个请求,并将它们同步分派到相应的处理线程,因此
Reactor
模式也叫Dispatcher
模式 Reactor
模式使用IO
复用监听事件,收到事件后,分发给某个线程(进程),这点就是网络服务器高并发处理关键
核心组成
Reactor
:Reactor
在一个单独的线程中运行,负责监听和分发事件,分发给适当的处理程序来对IO
事件做出反应。它就像公司的电话接线员,它接听来自客户的电话并将线路转移到适当的联系人;Handlers
:处理程序执行I/O
事件要完成的实际事件,类似于客户想要与之交谈的公司中的实际官员。Reactor
通过调度适当的处理程序来响应I/O
事件,处理程序执行非阻塞操作。
模式分类
根据 Reactor
的数量和处理资源池线程的数量不同,有 3
种典型的实现
- 单
Reactor
单线程 - 单
Reactor
多线程 - 主从
Reactor
多线程
单 Reactor 单线程
框架图如下:
方案说明:
Select
是前面I/O
复用模型介绍的标准网络编程API
,可以实现应用程序通过一个阻塞对象监听多路连接请求Reactor
对象通过Select
监控客户端请求事件,收到事件后通过Dispatch
进行分发- 如果是建立连接请求事件,则由
Acceptor
通过Accept
处理连接请求,然后创建一个Handler
对象处理连接完成后的后续业务处理 - 如果不是建立连接事件,则
Reactor
会分发调用连接对应的Handler
来响应 Handler
会完成Read
→ 业务处理 →Send
的完整业务流程
结合实例:服务器端用一个线程通过多路复用搞定所有的 IO
操作(包括连接,读、写等),编码简单,清晰明了,但是如果客户端连接数量较多,将无法支撑,前面的 NIO
案例就属于这种模型。
优缺点分析:
- 优点:模型简单,没有多线程、进程通信、竞争的问题,全部都在一个线程中完成
- 缺点:性能问题,只有一个线程,无法完全发挥多核
CPU
的性能。Handler
在处理某个连接上的业务时,整个进程无法处理其他连接事件,很容易导致性能瓶颈 - 缺点:可靠性问题,线程意外终止,或者进入死循环,会导致整个系统通信模块不可用,不能接收和处理外部消息,造成节点故障
- 使用场景:客户端的数量有限,业务处理非常快速,比如
Redis
在业务处理的时间复杂度O(1)
的情况
总结:一个Reator完成连接与处理请求的任务。一个线程完成所有客户端的业务处理
单 Reactor 多线程
框架图如下:
方案说明:
Reactor
对象通过Select
监控客户端请求事件,收到事件后,通过Dispatch
进行分发- 如果建立连接请求,则右
Acceptor
通过accept
处理连接请求,然后创建一个Handler
对象处理完成连接后的各种事件 - 如果不是连接请求,则由
Reactor
分发调用连接对应的handler
来处理 handler
只负责响应事件,不做具体的业务处理,通过read
读取数据后,会分发给后面的worker
线程池的某个线程处理业务worker
线程池会分配独立线程完成真正的业务,并将结果返回给handler
handler
收到响应后,通过send
将结果返回给client
优缺点:
- 优点:可以充分的利用多核
cpu
的处理能力 - 缺点:多线程数据共享和访问比较复杂,
Reactor
处理所有的事件的监听和响应,在单线程运行,在高并发场景容易出现性能瓶颈。
总结:一个Reator完成连接与处理请求的任务。客户端的每一个业务请求由一个线程进行
主从 Reactor 多线程
框架图如下:
方案说明:
Reactor
主线程MainReactor
对象通过select
监听连接事件,收到事件后,通过Acceptor
处理连接事件- 当
Acceptor
处理连接事件后,MainReactor
将连接分配给SubReactor
subreactor
将连接加入到连接队列进行监听,并创建handler
进行各种事件处理- 当有新事件发生时,
subreactor
就会调用对应的handler
处理 handler
通过read
读取数据,分发给后面的worker
线程处理worker
线程池分配独立的worker
线程进行业务处理,并返回结果handler
收到响应的结果后,再通过send
将结果返回给client
Reactor
主线程可以对应多个Reactor
子线程,即MainRecator
可以关联多个SubReactor
优缺点说明:
- 优点:父线程与子线程的数据交互简单职责明确,父线程只需要接收新连接,子线程完成后续的业务处理。
- 优点:父线程与子线程的数据交互简单,
Reactor
主线程只需要把新连接传给子线程,子线程无需返回数据。 - 缺点:编程复杂度较高
- 结合实例:这种模型在许多项目中广泛使用,包括
Nginx
主从Reactor
多进程模型,Memcached
主从多线程,Netty
主从多线程模型的支持
小结
三种模式的简单概况:
- 单
Reactor
单线程,前台接待员和服务员是同一个人,全程为顾客服 - 单
Reactor
多线程,1
个前台接待员,多个服务员,接待员只负责接待 - 主从
Reactor
多线程,多个前台接待员,多个服务生
Reactor 模式的优点
- 响应快,不必为单个同步时间所阻塞,虽然
Reactor
本身依然是同步的 - 可以最大程度的避免复杂的多线程及同步问题,并且避免了多线程/进程的切换开销
- 扩展性好,可以方便的通过增加
Reactor
实例个数来充分利用CPU
资源 - 复用性好,
Reactor
模型本身与具体事件处理逻辑无关,具有很高的复用性
Netty模型
Netty主要基于主从
Reactors多线程模型(如图)做了一定的改进,其中主从
Reactor多线程模型有多个
Reactor
工作原理简易版本
框架图如下:
说明:
BossGroup
线程维护Selector
,只关注Accept
- 当接收到
Accept
事件,获取到对应的SocketChannel
,封装成NIOScoketChannel
并注册到Worker
线程(事件循环),并进行维护 - 当
Worker
线程监听到Selector
中通道发生自己感兴趣的事件后,就进行处理(就由handler
),注意handler
已经加入到通道
工作原理进阶版本
框架图如下:
说明:
BossGroup
线程维护Selector
(可以有多个),只关注Accept
- 当接收到
Accept
事件,获取到对应的SocketChannel
,封装成NIOScoketChannel
并注册到Worker
线程(事件循环),并进行维护 - 当
Worker
线程监听到Selector
(可以有多个)中通道发生自己感兴趣的事件后,就进行处理(就由handler
),注意handler
已经加入到通道
工作原理详细版
框架图如下:
说明:
Netty
抽象出两组线程池BossGroup
专门负责接收客户端的连接,WorkerGroup
专门负责网络的读写BossGroup
和WorkerGroup
类型都是NioEventLoopGroup
NioEventLoopGroup
相当于一个事件循环组,这个组中含有多个事件循环(也就是多个NioEventLoop),每一个事件循环是NioEventLoop
NioEventLoop
表示一个不断循环的执行处理任务的线程,每个NioEventLoop
都有一个Selector
,用于监听绑定在其上的socket
的网络通讯,每一个NioEventLoop都有一个taskQueueNioEventLoopGroup
可以有多个线程,即可以含有多个NioEventLoop
- 每个BossNioEventLoop循环执行的步骤有3步
- 轮询
accept
事件 - 处理
accept
事件,与client
建立连接,生成NioScocketChannel
,并将其注册到某个worker
NIOEventLoop
上的Selector
- 处理任务队列的任务,即
runAllTasks
- 轮询
- 每个Worker NIOEventLoop循环执行的步骤
- 轮询
read
,write
事件 - 处理
I/O
事件,即read
,write
事件,在对应NioScocketChannel
处理 - 处理任务队列的任务,即
runAllTasks
- 轮询
- 每个
Worker
NIOEventLoop
处理业务时,会使用pipeline
(管道),pipeline
中包含了channel
,即通过pipeline
可以获取到对应通道,管道中维护了很多的处理器