七.Netty之线程模型

1.线程模型介绍

目前存在的线程模型

  • 传统阻塞 I/O 服务模型 (缺点大家都知道,资源浪费,阻塞)
  • Reactor 模式(Netty 主要基于主从 Reactor 多线程模型做了一定的改进,其中主从 Reactor 多线程模型有多个 Reactor)

根据 Reactor 的数量和处理资源池线程的数量不同,有 3 种典型的实现 :

  • 单 Reactor 单线程
  • 单 Reactor 多线程
  • 主从 Reactor 多线程

2.Reactor 模式

2.1 Reactor 模式基本设计思想,

如图:
在这里插入图片描述

  1. Reactor 模式,通过一个或多个输入同时传递给服务处理器的模式(基于事件驱动)
  2. 服务器端程序处理传入的多个请求,并将它们同步分派到相应的处理线程, 因此Reactor模式也叫 Dispatcher模式
  3. Reactor 模式使用IO复用监听事件, 收到事件后,分发给某个线程(进程), 这点就是网络服务器高并发处理关键
2.3 Reactor 核心组成:
  1. Reactor:Reactor 在一个单独的线程中运行,负责监听和分发事件,分发给适当的处理程序来对 IO 事件做出反应。它就像公司的电话接线员,它接听来自客户的电话并将线路转移到适当的联系人
  2. Handlers:处理程序执行 I/O 事件要完成的实际事件,类似于客户想要与之交谈的公司中的实际联系人。Reactor 通过调度适当的处理程序来响应 I/O 事件,处理程序执行非阻塞操作。
2.4 单Reactor单线程

工作原理示意图:
在这里插入图片描述

  1. Select 是前面 I/O 复用模型介绍的标准网络编程 API,可以实现应用程序通过一个阻塞对象监听多路连接请求
  2. Reactor 对象通过 Select 监控客户端请求事件,收到事件后通过 Dispatch 进行分发
  3. 如果是建立连接请求事件,则由 Acceptor 通过 Accept 处理连接请求,然后创建一个 Handler 对象处理连接完成后的后续业务处理
  4. 如果不是建立连接事件,则 Reactor 会分发调用连接对应的 Handler 来响应
  5. Handler 会完成 Read→业务处理→Send 的完整业务流程

方案优缺点分析:

  1. 优点:模型简单,没有多线程、进程通信、竞争的问题,全部都在一个线程中完成
  2. 缺点:性能问题,只有一个线程,无法完全发挥多核 CPU 的性能。Handler 在处理某个连接上的业务时,整个进程无法处理其他连接事件,很容易导致性能瓶颈
  3. 缺点:可靠性问题,线程意外终止,或者进入死循环,会导致整个系统通信模块不可用,不能接收和处理外部消息,造成节点故障
  4. 使用场景:客户端的数量有限,业务处理非常快速,比如 Redis在业务处理的时间复杂度 O(1) 的情况
2.5 单Reactor多线程

工作原理示意图:
在这里插入图片描述

  1. Reactor 对象通过select 监控客户端请求事件, 收到事件后,通过dispatch进行分发
  2. 如果建立连接请求, 则右Acceptor 通过accept 处理连接请求, 然后创建一个Handler对象处理完成连接后的各种事件
  3. 如果不是连接请求,则由reactor分发调用连接对应的handler 来处理
  4. handler 只负责响应事件,不做具体的业务处理, 通过read 读取数据后,会分发给后面的worker线程池的某个线程处理业务
  5. worker 线程池会分配独立线程完成真正的业务,并将结果返回给handler
  6. handler收到响应后,通过send 将结果返回给client

方案优缺点分析:

  1. 优点:可以充分的利用多核cpu 的处理能力
  2. 缺点:多线程数据共享和访问比较复杂, reactor处理所有的事件的监听和响应,在单线程运行, 在高并发场景容易出现性能瓶颈.
2.6 主从 Reactor 多线程

工作原理示意图:
在这里插入图片描述

  1. Reactor主线程 MainReactor 对象通过select 监听连接事件, 收到事件后,通过Acceptor 处理连接事件
  2. 当 Acceptor 处理连接事件后,MainReactor 将连接分配给SubReactor
  3. subreactor 将连接加入到连接队列进行监听,并创建handler进行各种事件处理
  4. 当有新事件发生时, subreactor 就会调用对应的handler处理
  5. handler 通过read 读取数据,分发给后面的worker 线程处理
  6. worker 线程池分配独立的worker 线程进行业务处理,并返回结果
  7. handler 收到响应的结果后,再通过send 将结果返回给client
  8. Reactor 主线程可以对应多个Reactor 子线程, 即MainRecator 可以关联多个SubReactor

3.Netty模型

3.1 工作原理示意图1-简单版

在这里插入图片描述

  1. BossGroup 线程维护Selector , 只关注Accecpt
  2. 当接收到Accept事件,获取到对应的SocketChannel, 封装成 NIOScoketChannel并注册到Worker 线程(事件循环), 并进行维护
  3. 当Worker线程监听到selector 中通道发生自己感兴趣的事件后,就进行处理(就由handler), 注意handler 已经加入到通道
3.2 工作原理示意图2-进阶版

Netty 主要基于主从 Reactors 多线程模型(如图)做了一定的改进,其中主从 Reactor 多线程模型有多个 Reactor
在这里插入图片描述

  1. Netty有两个线程组,一个BossGroup负责接受客户端连接,一个WorkGroup负责处理客户端请求,专门负责网络的读写
  2. BossGroup和WorkGroup类型都是NioEventLoopGroup
  3. NioEventLoopGroup相当于一个事件循环组,这个组内包含多个事件循环,每一个事件循环就是一个NioEventLoop
  4. NioEventLoop表示一个不断循环的执行任务的线程,每个NioEventLoop都有一个Selector,用户监听绑定在其上的socket的网络通讯
  5. NioEventLoopGroup可以有多个线程,即包含多个NioEventLoop
  6. 每个Boss NioEventLoop循环执行步骤
    1)轮询accept事件
    2)处理accept事件,与client建立连接,生成NioSocketChannel,并将其注册到某个WorkGroup上的selector
    3)处理任务队列的任务,即runAllTasks
  7. 每个 Worker NIOEventLoop 循环执行的步骤
    1)轮询write,read事件
    2)处理io事件,即write,read事件,在对应的NioSocketChannel处理
    3)处理任务队列的任务,即runAllTasks
  8. 每个 Worker NIOEventLoop 处理任务时,会使用pipeline(管道),pipeline包含channel,即通过pipeline可以获取到对应的通道,管道中维护了很多处理器

4.代码:

public class NettyServer {
  public static void main(String[] args) throws InterruptedException {
    //bossGroup和workGroup 含有的子线程(NioEventLoop)的个数 默认cpu核数*2
    NioEventLoopGroup bossGroup = new NioEventLoopGroup(1);
    NioEventLoopGroup workGroup = new NioEventLoopGroup();

    ServerBootstrap bootstrap = new ServerBootstrap();
    bootstrap.group(bossGroup, workGroup).channel(NioServerSocketChannel.class)
        .option(ChannelOption.SO_BACKLOG, 128)//设置线程队列个数
        .childOption(ChannelOption.SO_KEEPALIVE, true)//设置保持活动连接状态
        .childHandler(new ChannelInitializer<SocketChannel>() {
          protected void initChannel(SocketChannel sc) {
            sc.pipeline().addLast(new NettyServerHandler());
          }
        });

    System.out.println("服务器已启动......");
    ChannelFuture channelFuture = bootstrap.bind(9999).sync();
    channelFuture.channel().closeFuture().sync();
  }
}
public class NettyServerHandler extends ChannelInboundHandlerAdapter {
  @Override
  public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
    System.out.println("ctx =" + ctx);
    ByteBuf byteBuf = (ByteBuf) msg;
    System.out.println("客户端发送消息是:" + byteBuf.toString(CharsetUtil.UTF_8));
    System.out.println("客户端的地址是:" + ctx.channel().remoteAddress());

  }

  @Override
  public void channelReadComplete(ChannelHandlerContext ctx) {
    ctx.writeAndFlush(Unpooled.copiedBuffer("hello,客户端", CharsetUtil.UTF_8));
  }

  @Override
  public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) {
    ctx.close();
  }
}
public class NettyClient {
  public static void main(String[] args) {
    NioEventLoopGroup workGroup = new NioEventLoopGroup();

    Bootstrap bootstrap = new Bootstrap();
    bootstrap.group(workGroup).channel(NioSocketChannel.class).handler(new ChannelInitializer<SocketChannel>() {
      protected void initChannel(SocketChannel sc) {
        sc.pipeline().addLast(new NettyClientHandler());
      }
    });

    System.out.println("客户端已启动......");
    ChannelFuture channelFuture;
    try {
      channelFuture = bootstrap.connect("127.0.0.1", 9999).sync();
      channelFuture.channel().closeFuture().sync();
    } catch (InterruptedException e) {
      e.printStackTrace();
    } finally {
      workGroup.shutdownGracefully();
    }

  }
}
public class NettyClientHandler extends ChannelInboundHandlerAdapter {
  @Override
  public void channelActive(ChannelHandlerContext ctx) throws Exception {
    System.out.println("client " + ctx);
    ctx.writeAndFlush(Unpooled.copiedBuffer("hello,服务端 666", CharsetUtil.UTF_8));
  }

  @Override
  public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
    ByteBuf byteBuf = (ByteBuf) msg;
    System.out.println("服务端回复的消息是:" + byteBuf.toString(CharsetUtil.UTF_8));
    System.out.println("服务端的地址是:" + ctx.channel().remoteAddress());
  }

  @Override
  public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception {
    ctx.close();
  }
}

5.总结:

  1. Netty 抽象出两组线程池,BossGroup 专门负责接收客户端连接,WorkerGroup 专门负责网络读写操作。
  2. NioEventLoop 表示一个不断循环执行处理任务的线程,每个 NioEventLoop 都有一个 selector,用于监听绑定在其上的 socket 网络通道。
  3. NioEventLoop 内部采用串行化设计,从消息的读取->解码->处理->编码->发送,始终由 IO 线程 NioEventLoop 负责
  4. NioEventLoopGroup 下包含多个 NioEventLoop
    1.每个 NioEventLoop 中包含有一个 Selector,一个 taskQueue
    2.每个 NioEventLoop 的 Selector 上可以注册监听多个 NioChannel
    3.每个 NioChannel 只会绑定在唯一的 NioEventLoop 上
    4.每个 NioChannel 都绑定有一个自己的 ChannelPipeline
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值