1.线程模型介绍
目前存在的线程模型
- 传统阻塞 I/O 服务模型 (缺点大家都知道,资源浪费,阻塞)
- Reactor 模式(Netty 主要基于主从 Reactor 多线程模型做了一定的改进,其中主从 Reactor 多线程模型有多个 Reactor)
根据 Reactor 的数量和处理资源池线程的数量不同,有 3 种典型的实现 :
- 单 Reactor 单线程
- 单 Reactor 多线程
- 主从 Reactor 多线程
2.Reactor 模式
2.1 Reactor 模式基本设计思想,
如图:
- Reactor 模式,通过一个或多个输入同时传递给服务处理器的模式(基于事件驱动)
- 服务器端程序处理传入的多个请求,并将它们同步分派到相应的处理线程, 因此Reactor模式也叫 Dispatcher模式
- Reactor 模式使用IO复用监听事件, 收到事件后,分发给某个线程(进程), 这点就是网络服务器高并发处理关键
2.3 Reactor 核心组成:
- Reactor:Reactor 在一个单独的线程中运行,负责监听和分发事件,分发给适当的处理程序来对 IO 事件做出反应。它就像公司的电话接线员,它接听来自客户的电话并将线路转移到适当的联系人
- Handlers:处理程序执行 I/O 事件要完成的实际事件,类似于客户想要与之交谈的公司中的实际联系人。Reactor 通过调度适当的处理程序来响应 I/O 事件,处理程序执行非阻塞操作。
2.4 单Reactor单线程
工作原理示意图:
- Select 是前面 I/O 复用模型介绍的标准网络编程 API,可以实现应用程序通过一个阻塞对象监听多路连接请求
- Reactor 对象通过 Select 监控客户端请求事件,收到事件后通过 Dispatch 进行分发
- 如果是建立连接请求事件,则由 Acceptor 通过 Accept 处理连接请求,然后创建一个 Handler 对象处理连接完成后的后续业务处理
- 如果不是建立连接事件,则 Reactor 会分发调用连接对应的 Handler 来响应
- Handler 会完成 Read→业务处理→Send 的完整业务流程
方案优缺点分析:
- 优点:模型简单,没有多线程、进程通信、竞争的问题,全部都在一个线程中完成
- 缺点:性能问题,只有一个线程,无法完全发挥多核 CPU 的性能。Handler 在处理某个连接上的业务时,整个进程无法处理其他连接事件,很容易导致性能瓶颈
- 缺点:可靠性问题,线程意外终止,或者进入死循环,会导致整个系统通信模块不可用,不能接收和处理外部消息,造成节点故障
- 使用场景:客户端的数量有限,业务处理非常快速,比如 Redis在业务处理的时间复杂度 O(1) 的情况
2.5 单Reactor多线程
工作原理示意图:
- Reactor 对象通过select 监控客户端请求事件, 收到事件后,通过dispatch进行分发
- 如果建立连接请求, 则右Acceptor 通过accept 处理连接请求, 然后创建一个Handler对象处理完成连接后的各种事件
- 如果不是连接请求,则由reactor分发调用连接对应的handler 来处理
- handler 只负责响应事件,不做具体的业务处理, 通过read 读取数据后,会分发给后面的worker线程池的某个线程处理业务
- worker 线程池会分配独立线程完成真正的业务,并将结果返回给handler
- handler收到响应后,通过send 将结果返回给client
方案优缺点分析:
- 优点:可以充分的利用多核cpu 的处理能力
- 缺点:多线程数据共享和访问比较复杂, reactor处理所有的事件的监听和响应,在单线程运行, 在高并发场景容易出现性能瓶颈.
2.6 主从 Reactor 多线程
工作原理示意图:
- Reactor主线程 MainReactor 对象通过select 监听连接事件, 收到事件后,通过Acceptor 处理连接事件
- 当 Acceptor 处理连接事件后,MainReactor 将连接分配给SubReactor
- subreactor 将连接加入到连接队列进行监听,并创建handler进行各种事件处理
- 当有新事件发生时, subreactor 就会调用对应的handler处理
- handler 通过read 读取数据,分发给后面的worker 线程处理
- worker 线程池分配独立的worker 线程进行业务处理,并返回结果
- handler 收到响应的结果后,再通过send 将结果返回给client
- Reactor 主线程可以对应多个Reactor 子线程, 即MainRecator 可以关联多个SubReactor
3.Netty模型
3.1 工作原理示意图1-简单版
- BossGroup 线程维护Selector , 只关注Accecpt
- 当接收到Accept事件,获取到对应的SocketChannel, 封装成 NIOScoketChannel并注册到Worker 线程(事件循环), 并进行维护
- 当Worker线程监听到selector 中通道发生自己感兴趣的事件后,就进行处理(就由handler), 注意handler 已经加入到通道
3.2 工作原理示意图2-进阶版
Netty 主要基于主从 Reactors 多线程模型(如图)做了一定的改进,其中主从 Reactor 多线程模型有多个 Reactor
- Netty有两个线程组,一个BossGroup负责接受客户端连接,一个WorkGroup负责处理客户端请求,专门负责网络的读写
- BossGroup和WorkGroup类型都是NioEventLoopGroup
- NioEventLoopGroup相当于一个事件循环组,这个组内包含多个事件循环,每一个事件循环就是一个NioEventLoop
- NioEventLoop表示一个不断循环的执行任务的线程,每个NioEventLoop都有一个Selector,用户监听绑定在其上的socket的网络通讯
- NioEventLoopGroup可以有多个线程,即包含多个NioEventLoop
- 每个Boss NioEventLoop循环执行步骤
1)轮询accept事件
2)处理accept事件,与client建立连接,生成NioSocketChannel,并将其注册到某个WorkGroup上的selector
3)处理任务队列的任务,即runAllTasks - 每个 Worker NIOEventLoop 循环执行的步骤
1)轮询write,read事件
2)处理io事件,即write,read事件,在对应的NioSocketChannel处理
3)处理任务队列的任务,即runAllTasks - 每个 Worker NIOEventLoop 处理任务时,会使用pipeline(管道),pipeline包含channel,即通过pipeline可以获取到对应的通道,管道中维护了很多处理器
4.代码:
public class NettyServer {
public static void main(String[] args) throws InterruptedException {
//bossGroup和workGroup 含有的子线程(NioEventLoop)的个数 默认cpu核数*2
NioEventLoopGroup bossGroup = new NioEventLoopGroup(1);
NioEventLoopGroup workGroup = new NioEventLoopGroup();
ServerBootstrap bootstrap = new ServerBootstrap();
bootstrap.group(bossGroup, workGroup).channel(NioServerSocketChannel.class)
.option(ChannelOption.SO_BACKLOG, 128)//设置线程队列个数
.childOption(ChannelOption.SO_KEEPALIVE, true)//设置保持活动连接状态
.childHandler(new ChannelInitializer<SocketChannel>() {
protected void initChannel(SocketChannel sc) {
sc.pipeline().addLast(new NettyServerHandler());
}
});
System.out.println("服务器已启动......");
ChannelFuture channelFuture = bootstrap.bind(9999).sync();
channelFuture.channel().closeFuture().sync();
}
}
public class NettyServerHandler extends ChannelInboundHandlerAdapter {
@Override
public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
System.out.println("ctx =" + ctx);
ByteBuf byteBuf = (ByteBuf) msg;
System.out.println("客户端发送消息是:" + byteBuf.toString(CharsetUtil.UTF_8));
System.out.println("客户端的地址是:" + ctx.channel().remoteAddress());
}
@Override
public void channelReadComplete(ChannelHandlerContext ctx) {
ctx.writeAndFlush(Unpooled.copiedBuffer("hello,客户端", CharsetUtil.UTF_8));
}
@Override
public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) {
ctx.close();
}
}
public class NettyClient {
public static void main(String[] args) {
NioEventLoopGroup workGroup = new NioEventLoopGroup();
Bootstrap bootstrap = new Bootstrap();
bootstrap.group(workGroup).channel(NioSocketChannel.class).handler(new ChannelInitializer<SocketChannel>() {
protected void initChannel(SocketChannel sc) {
sc.pipeline().addLast(new NettyClientHandler());
}
});
System.out.println("客户端已启动......");
ChannelFuture channelFuture;
try {
channelFuture = bootstrap.connect("127.0.0.1", 9999).sync();
channelFuture.channel().closeFuture().sync();
} catch (InterruptedException e) {
e.printStackTrace();
} finally {
workGroup.shutdownGracefully();
}
}
}
public class NettyClientHandler extends ChannelInboundHandlerAdapter {
@Override
public void channelActive(ChannelHandlerContext ctx) throws Exception {
System.out.println("client " + ctx);
ctx.writeAndFlush(Unpooled.copiedBuffer("hello,服务端 666", CharsetUtil.UTF_8));
}
@Override
public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
ByteBuf byteBuf = (ByteBuf) msg;
System.out.println("服务端回复的消息是:" + byteBuf.toString(CharsetUtil.UTF_8));
System.out.println("服务端的地址是:" + ctx.channel().remoteAddress());
}
@Override
public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception {
ctx.close();
}
}
5.总结:
- Netty 抽象出两组线程池,BossGroup 专门负责接收客户端连接,WorkerGroup 专门负责网络读写操作。
- NioEventLoop 表示一个不断循环执行处理任务的线程,每个 NioEventLoop 都有一个 selector,用于监听绑定在其上的 socket 网络通道。
- NioEventLoop 内部采用串行化设计,从消息的读取->解码->处理->编码->发送,始终由 IO 线程 NioEventLoop 负责
- NioEventLoopGroup 下包含多个 NioEventLoop
1.每个 NioEventLoop 中包含有一个 Selector,一个 taskQueue
2.每个 NioEventLoop 的 Selector 上可以注册监听多个 NioChannel
3.每个 NioChannel 只会绑定在唯一的 NioEventLoop 上
4.每个 NioChannel 都绑定有一个自己的 ChannelPipeline