netty的使用场景,线程模型以及如何在springboot中使用netty?


1. 为什么使用netty?

        

        Netty是基于NIO来实现的(点击了解NIO),由于NIO的类库和 API 繁杂, 使用非常麻烦,需要熟练掌握Selector、 ServerSocketChannel、 SocketChannel、ByteBuffer等。且开发工作量和难度都非常大: 例如客户端面临断线重连、 网络闪断、心跳处理、半包读写、 网络拥塞和异常流的处理等等。

        Netty 对 JDK 自带的 NIO 的 API 进行了良好的封装,解决了上述问题。且Netty拥有高性能、 高吞吐,低延迟,异步非阻塞,资源消耗小,最小化不必要的内存复制等优点。所以现在基本都是用netty做通信,由于netty官网已废弃5.x版本,所以现在基本都使用4.x版本的netty,Netty 4.x 需要JDK 6以上版本支持。

netty异步主要体现在:

  1. 异步事件处理。把channel注册到selector上,诸如此类事件Event被放入事件Queue即可返回,后续再从Queue里消费处理;
  2. 异步IO,包括Bind、Write等操作会返回一个ChannelFuture,进而异步拿到结果,不会造成线程阻塞。
  3. 其他的回调也属于异步操作。异步线程主要取自boosGroup 和 workerGroup 线程组中的线程

Netty的使用场景:

  1. 互联网行业:在分布式系统中,各个节点之间需要远程服务调用,高性能的 RPC 框架必不可少,Netty 作为异步高性能的通信框架,往往作为基础通信组件被这些 RPC 框架使用。典型的应用有:阿里分布式服务框架 Dubbo 的 RPC 框架使用 Dubbo 协议进行节点间通信,Dubbo 协议默认使用 Netty作为基础通信组件,用于实现各进程节点之间的内部通信。Rocketmq底层也是用的Netty作为基础通信组件。
  2. 游戏行业:无论是手游服务端还是大型的网络游戏,Java 语言得到了越来越广泛的应用。Netty 作为高性能的基础通信组件,它本身提供了 TCP/UDP 和 HTTP 协议栈。
  3. 大数据领域:经典的 Hadoop 的高性能通信和序列化组件 Avro 的 RPC 框架,默认采用 Netty 进行跨界点通信,它的 Netty Service 基于 Netty 框架二次封装实现。

        Netty框架的目标就是让你的业务逻辑从网络基础应用编码中分离出来,让你可以专注业务的开发,而不需写一大堆类似NIO的网络处理操作。

netty相关的开源项目 :https://netty.io/wiki/related-projects.html


2. netty的线程模型

Netty的线程模型如下图所示:
在这里插入图片描述
由上图可以看出,netty整体的线程模型是可以抽象出两种线程组:

BossGroup主线程组

        BossGroup内部是一个事件循环线程组NioEventLoopGroup ,这个组中含有多个事件循环线程NioEventLoop。这个事件循环线程NioEventLoop其实就是一个NIO程序,Netty对NIO的高度封装就体现在这里。由上图可以出,BossGroup中的事件循环线程NioEventLoop的内部循环有以下3步:

  1. 只处理accept事件 , 与客户端建立连接 , 生成 NioSocketChannel
  2. 将NioSocketChannel注册到某个WorkerGroup的NIOEventLoop上的selector上,就相当于 客户端直接和WorkerGroup中的selector直连!
  3. 处理任务队列的任务 , 即runAllTasks

WorkerGroup从线程组

        WorkerGroup内部和BossGroup一样,也是一个事件循环线程组NioEventLoopGroup 。然而每个事件循环线程NioEventLoop的职责却和BossGroup中不太一样。他们才是真正处理客户端读写请求的线程,工作步骤如下:

  1. 轮询注册到自己selector上的所有NioSocketChannel 的read, write事件
  2. 处理 I/O 事件, 即read , write 事件, 在对应NioSocketChannel 处理业务
  3. runAllTasks处理任务队列TaskQueue的任务 ,一些耗时的业务处理一般可以放入TaskQueue中慢慢处理,这样不影响数据在 pipeline 中的流动处理

注意: 每个WorkerGroup中的NIOEventLoop在处理客户端读写业务业务时,会使用 ChannelPipeline (管道),管道中维护了很多 handler 处理器用来处理 channel 中的数据,如下图所示:
在这里插入图片描述

        在Netty中,每个客户端与服务端的连接都有且仅有一个 ChannelPipeline 与之对应。 一个Channel连接中包含了一个 ChannelPipeline,而 ChannelPipeline 中又维护了一个由 ChannelHandlerContext 组成的双向链表,并且每个 ChannelHandlerContext 中又关联着一个 ChannelHandler。


3. 在springboot中使用netty

使用netty实现客户端与服务端的信息交互,我们可以在启动服务端和客户端时,让他们互相发送Hello消息,实现如下:

1. 引入netty依赖

   <dependency>
       <groupId>io.netty</groupId>
       <artifactId>netty-all</artifactId>
       <version>4.1.35.Final</version>
   </dependency>

2. 服务端代码

public class NettyServer {
    public static void main(String[] args) throws InterruptedException {

        //创建两个线程组bossGroup和workerGroup, 含有的子线程NioEventLoop的个数默认为cpu核数的两倍
        // bossGroup只是处理连接请求 ,真正的和客户端业务处理,会交给workerGroup完成
        NioEventLoopGroup boosGroup = new NioEventLoopGroup();
        NioEventLoopGroup workerGroup = new NioEventLoopGroup(8);

        try {

            //创建服务器对象
            ServerBootstrap serverBootstrap = new ServerBootstrap();

            /**
             * group:设置两个线程组bossGroup和workerGroup
             * channel:使用NioServerSocketChannel作为服务端的通道实现
             * option:初始化服务器连接队列大小为1024.
             *         服务端处理客户端连接请求是顺序处理的,所以同一时间只能处理一个客户端连接。
             *         多个客户端同时来的时候,服务端将不能处理的客户端连接请求放在队列中等待处理。
             * childHandler:创建通道初始化对象,设置处理器
             */
            serverBootstrap
                    .group(boosGroup, workerGroup)
                    .channel(NioServerSocketChannel.class)
                    .option(ChannelOption.SO_BACKLOG, 1024)
                    .childHandler(new ChannelInitializer<SocketChannel>() {
                        @Override
                        protected void initChannel(SocketChannel socketChannel) throws Exception {

                            //对workerGroup的SocketChannel设置处理器,设置客户端发来的数据的处理逻辑
                            socketChannel.pipeline().addLast(new NettyServerHandler());
                        }
                    });

            System.out.println("netty 服务端已启动。。。");


            /**
             * 服务端对象绑定 9000 端口并启动
             *   sync():由于bind方法是异步操作,使用sync()方法是等待异步操作执行完毕。
             */
            ChannelFuture cf = serverBootstrap.bind(9000).sync();

            //给cf注册监听器,监听我们关心的事件
//        cf.addListener(new ChannelFutureListener() {
//            @Override
//            public void operationComplete(ChannelFuture future) throws Exception {
//                if (cf.isSuccess()) {
//                    System.out.println("监听端口9000成功");
//                } else {
//                    System.out.println("监听端口9000失败");
//                }
//            }
//        });

            /**
             * 对通道关闭进行监听
             * 由于closeFuture是异步操作,通过sync方法同步等待通道关闭处理完毕,这里会阻塞等待通道关闭完成
             */
            cf.channel().closeFuture().sync();

        }finally {
            boosGroup.shutdownGracefully();
            workerGroup.shutdownGracefully();
        }
    }
}

服务端handler

/**
 * 自定义Handler需要继承netty规定好的某个HandlerAdapter(规范)
 *
 * 用于处理客户端发送过来的数据
 */

public class NettyServerHandler extends ChannelInboundHandlerAdapter {

    /**
     * 读取客户端发送的数据
     *
     * @param ctx 上下文对象, 含有通道channel,管道pipeline
     * @param msg 就是客户端发送的数据
     * @throws Exception
     */
    @Override
    public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
        System.out.println("服务器读取线程 " + Thread.currentThread().getName());
        
        //将 msg 转成一个 ByteBuf,类似NIO 的 ByteBuffer
        ByteBuf buf = (ByteBuf) msg;
        System.out.println("客户端发送消息是:" + buf.toString(CharsetUtil.UTF_8));
    }


    /**
     * 数据读取完毕处理方法
     *
     * @param ctx 上下文对象, 含有通道channel,管道pipeline
     * @throws Exception
     */
    @Override
    public void channelReadComplete(ChannelHandlerContext ctx) throws Exception {
        ByteBuf buf = Unpooled.copiedBuffer("HelloClient", CharsetUtil.UTF_8);
        ctx.writeAndFlush(buf);
    }

    /**
     * 处理异常, 一般是需要关闭通道
     *
     * @param ctx
     * @param cause
     * @throws Exception
     */
    @Override
    public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception {
        ctx.close();
    }
}

3. 客户端代码

public class NettyClient {
    public static void main(String[] args) throws InterruptedException {

        //客户端只需要一个事件循环组
        NioEventLoopGroup group = new NioEventLoopGroup();

        try {
            //创建客户端启动对象
            //注意客户端使用的不是 ServerBootstrap 而是 Bootstrap
            Bootstrap bootstrap = new Bootstrap();

            /**设置客户端相关参数
             * group:设置线程组
             * channel:使用NioSocketChannel作为客户端通道实现,注意服务端为NioServerSocketChannel
             * handler:创建通道初始化对象,加入客户端处理器
             */
            bootstrap
                    .group(group)
                    .channel(NioSocketChannel.class)
                    .handler(new ChannelInitializer<SocketChannel>() {

                        @Override
                        protected void initChannel(SocketChannel channel) throws Exception {
                            //加入处理器
                            channel.pipeline().addLast(new NettyClientHandler());
                        }
                    });

            System.out.println("netty 客户端已启动 。。");

            //启动客户端去连接服务端
            ChannelFuture channelFuture = bootstrap.connect("127.0.0.1", 9000).sync();

            //对关闭通道进行监听
            channelFuture.channel().closeFuture().sync();


        } finally {
            group.shutdownGracefully();
        }
    }
}

客户端handler

public class NettyClientHandler extends ChannelInboundHandlerAdapter {
    /**
     * 当客户端连接服务器完成就会触发该方法
     *
     * @param ctx
     * @throws Exception
     */
    @Override
    public void channelActive(ChannelHandlerContext ctx) throws Exception {
        ByteBuf buf = Unpooled.copiedBuffer("HelloServer", CharsetUtil.UTF_8);
        ctx.writeAndFlush(buf);
    }

    //当通道有读取事件时会触发,即服务端发送数据给客户端
    @Override
    public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
        ByteBuf buf = (ByteBuf) msg;
        System.out.println("收到服务端的消息:" + buf.toString(CharsetUtil.UTF_8));
        System.out.println("服务端的地址: " + ctx.channel().remoteAddress());
    }

    @Override
    public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception {
        cause.printStackTrace();
        ctx.close();
    }
}

运行结果如下:

服务端:
在这里插入图片描述

客户端:
在这里插入图片描述


4. netty的核心API解释

        在上面代码中可以看到很多关于netty的API,下面来解释这些API的含义!
        

4.1 Bootstrap、ServerBootstrap

        Bootstrap 意思是引导,一个 Netty应用 通常由一个 Bootstrap 开始,客户端和服务端对应不同的Bootstrap。主要作用是配置整个 Netty 程序,串联各个组件,Bootstrap 类是客户端程序的启动引导类,ServerBootstrap 是服务端启动引导类。
        
        
4.2 Future、ChannelFuture

        由于 Netty 中所有的 IO 操作都是异步的(异步非阻塞),异步导致无法立即得知消息是否被正确处理。所以可以通过 Future 和 ChannelFutures 等它执行完成或者直接注册一个监听,当操作执行成功或失败时监听会自动触发注册的监听事件。比如监听端口是否启动成功。

  //给ChannelFuture 注册监听器,监听端口启动成功与否
  ChannelFuture .addListener(new ChannelFutureListener() {
      @Override
      public void operationComplete(ChannelFuture future) throws Exception {
          if (ChannelFuture .isSuccess()) {
              System.out.println("监听端口9000成功");
          } else {
              System.out.println("监听端口9000失败");
          }
      }
  });

        

4.3 Selector

        Netty 基于 Selector 对象实现 I/O 多路复用,通过 Selector 一个线程可以监听多个连接的 Channel 事件。当向一个 Selector 中注册 Channel 后,Selector 内部的机制就可以自动不断地查询(Select) 这些注册的Channel是否有已就绪的 I/O 事件(例如可读,可写,网络连接完成等),这样程序就可以很简单地使用一个线程高效地管理多个Channel。

        
4.4 Channel、ChannelPipline、ChannelHandler、ChannelHandlerContext

  1. channel:是Netty 网络通信的组件,能够用于执行网络 I/O 操作。Channel 为用户提供:
    1)当前网络连接的通道的状态(例如是否打开?是否已连接?)
    2)网络连接的配置参数 (例如接收缓冲区大小)
    3)提供异步的网络 I/O操作 (如建立连接,读写,绑定端口),异步调用意味着任何 I/O 调用都将立即返回,并且不保证在调用结束时所请求的 I/O 操作已完成。
    4)调用立即返回一个 ChannelFuture 实例,通过注册监听器到 ChannelFuture 上,可以 I/O
    操作成功、失败或取消时回调通知调用方。
    5)支持关联 I/O 操作与对应的处理程序。
    不同协议、不同的阻塞类型的连接都有不同的 Channel 类型与之对应。这些channel通道涵盖了 UDP 和 TCP 网络 IO 以及文件IO。下面是一些常用的 Channel 类型:
channel类型解释
NioSocketChannel异步的客户端TCP Socket连接
NioServerSocketChannel异步的服务器端 TCP Socket 连接
NioDatagramChannel异步的 UDP 连接
NioSctpChannel异步的客户端 Sctp 连接
NioSctpServerChannel异步的 Sctp 服务器端连接
  1. ChannelHandler:ChannelHandler 是一个接口,处理 I/O 事件或拦截 I/O 操作,并将其转发到其 ChannelPipeline(业务处理链)中的下一个处理程序。我们很多业务操作都是通过实现ChannelHandler及其子接口来实现的。其子类如下所示:

实现子接口
ChannelInboundHandler 用于处理入站 I/O 事件。
ChannelOutboundHandler 用于处理出站 I/O 操作。

或者使用以下适配器类
ChannelInboundHandlerAdapter 用于处理入站 I/O 事件。
ChannelOutboundHandlerAdapter 用于处理出站 I/O 操作。

  1. ChannelPipline:保存ChannelHandler的List集合,用于处理或拦截 Channel 事件的入站和出站操作。ChannelPipeline在底层使用了责任链的设计模式,实现了一个使用户可以完全控制事件的处理方式,以及Channel中各个的ChannelHandler如何交互的功能。

以客户端应用程序为例,如果事件的运动方向是从客户端到服务端的,那么我们称这些事件为出站的,调用ChannelPipline中的ChannelHandler,这个ChannelHandler实现了ChannelOutboundHandler接口
………………
反之则称为入站。入站调用ChannelPipline中的ChannelHandler,这个ChannelHandler实现了ChannelInboundHandler接口

  1. ChannelHandlerContext:保存 Channel 相关的所有上下文信息,同时关联一个 ChannelHandler 对象。

这四个核心API的关系如下:

在这里插入图片描述

        一个 Channel 包含了一个 ChannelPipeline,而 ChannelPipeline 中又维护了一个由 ChannelHandlerContext 组成的双向链表,并且每个 ChannelHandlerContext 中又关联着一个 ChannelHandler。

        read事件(入站事件)和write事件(出站事件)在一个双向链表中,入站事件会从链表 head 往后传递到最后一个入站的 handler,出站事件会从链表 tail 往前传递到最前一个出站的 handler,两种类型的 handler 互不干扰。


5. netty中的ByteBuf

        在客户端与服务端的数据传输中,数据的基本单位是字节,JDK中的NIO提供了 ByteBuffer 作为字节容器,也被称为数据缓冲区。但JDK中提供的ByteBuffer存在以下缺点:

  1. ByteBuffer长度固定,一旦分配完成,它的容量不能动态扩展和收缩
  2. ByteBuffer只有一个标识位置的指针position,读写的时候需要手工调用flip()和rewind()等。API使用复杂。
  3. ByteBuffer的API功能有限,一些高级和实用的特性它不支持,需要使用者自己编程实现。

由于ByteBuffer存在以上缺点,最终netty并没有采用JDK的ByteBuffer,而是提供了一个更好的实现:ByteBuf。从结构上来说,ByteBuf 由一串字节数组构成。数组中每个字节用来存放数据信息。

在这里插入图片描述
ByteBuf 提供了两个索引

  1. 读索引(readerIndex):用于读取数据。当从 ByteBuf 读取时,它的 readerIndex(读索引)将会根据读取的字节数递增。
  2. 写索引(writerIndex) :用于写入数据。当写入 ByteBuf 时,它的 writerIndex 也会根据写入的字节数进行递增。

ByteBuf 通过这两个索引来定位 读或写 信息的位置。

注意:如果 readerIndex 超过了 writerIndex 的时候,Netty 会抛出 IndexOutOf-BoundsException 异常。

发送的数据其实是放入了ByteBuf中去,如下代码:

    @Override
    public void channelActive(ChannelHandlerContext ctx) throws Exception {
		// 把HelloServer字符串抓换为字符放进ByteBuf
        ByteBuf buf = Unpooled.copiedBuffer("HelloServer", CharsetUtil.UTF_8);
        //发送数据
        ctx.writeAndFlush(buf);
    }
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值