02.Netty入门-架构设计

上节回顾:

I/O的四种模型

  • 同步阻塞IO模型
  • 同步非阻塞IO模型
  • IO多路复用模型
  • 异步IO模型

————————————————————————————————————————————————————————————

1、基本线程模型介绍

  • 目前存在的线程模型

    • 传统阻塞I/O服务模型
    • Reactor模式
  • 线程模型-Reactor模式

    • 单Reactor-单线程
    • 单Reactor-多线程
    • 主从Reactor-多线程

Netty线程模型

  • Netty主要基于主从Reactor多线程模型做了一定的改进,其中主从Reactor多线程模型有多个Reactor

2、传统BIO服务模型

 

  • 模型特点

    • 采用阻塞IO模式获取输入的数据
    • 每个链接都需要独立的线程完成数据的输入,业务处理,数据返回
  • 问题分析

    • 当并发数很大,就会创建大量线程,占用很大的系统资源
    • 链接创建后,如果当前线程暂时没有数据可读,该线程会阻塞在read操作,造成线程资源浪费

3、Reactor模式

传统的 BIO 服务端编程采用“每线程每连接”的处理模型,弊端很明显,就是面对大量的客户端并发连接时,服务端的资源压力很大;并且线程的利用率很低,如果当前线程没有数据可读,它会阻塞在 read 操作上。这个模型的基本形态如下图所示(图片来源于网络)。

BIO 服务端编程采用的是 Reactor 模式(也叫做 Dispatcher 模式,分派模式),Reactor 模式有两个要义:

1)基于 IO 多路复用技术,多个连接共用一个多路复用器,应用程序的线程无需阻塞等待所有连接,只需阻塞等待多路复用器即可。当某个连接上有新数据可以处理时,应用程序的线程从阻塞状态返回,开始处理这个连接上的业务。

2)基于线程池技术复用线程资源,不必为每个连接创建专用的线程,应用程序将连接上的业务处理任务分配给线程池中的线程进行处理,一个线程可以处理多个连接的业务。

下图反应了 Reactor 模式的基本形态(图片来源于网络):

Reactor 模式有两个核心组成部分:

1)Reactor(图中的 ServiceHandler):Reactor 在一个单独的线程中运行,负责监听和分发事件,分发给适当的处理线程来对 IO 事件做出反应。

2)Handlers(图中的 EventHandler):处理线程执行处理方法来响应 I/O 事件,处理线程执行的是非阻塞操作。

package com.miaoyepei.nettyproject.server.reactor.reactor1;
 
import java.io.IOException;
import java.net.InetSocketAddress;
import java.nio.channels.SelectionKey;
import java.nio.channels.Selector;
import java.nio.channels.ServerSocketChannel;
import java.nio.channels.SocketChannel;
import java.util.Iterator;
import java.util.Set;
 
/**
 * @copyright: 2018-2021 xyy
 * @program: nia-samples-parent
 * @description:
 * @author: miaoyepei
 * @create: 2021-01-05 10:47
 */
public class Reactor implements Runnable{
 
    final Selector selector;
    final ServerSocketChannel serverSocket;
 
    /**
     * Reactor 实例化
     * 1.初始化 selector&serverSocket
     * 2.绑定端口号
     * 3.设置非阻塞
     * 4.把serverSocket的OP_ACCEPT事件注册到selector上
     * 5.出现OP_ACCEPT调用
     */
    Reactor(int port) throws IOException {
        selector = Selector.open();
        serverSocket = ServerSocketChannel.open();
        serverSocket.socket().bind(new InetSocketAddress(port));
        serverSocket.configureBlocking(false);
        SelectionKey sk = serverSocket.register(selector, SelectionKey.OP_ACCEPT);
        sk.attach(new Acceptor());
    }
 
    /**
     * 1.判断是否有链接
     * 2.获取selectedKeys
     * 3.遍历通过dispatch进行分发
     * 4.清空selected
     */
    @Override
    public void run() {
        try {
            while (selector.select() >0 ) {
                Set selected = selector.selectedKeys();
                Iterator it = selected.iterator();
                while (it.hasNext()){
                    dispatch((SelectionKey)(it.next()));
                }
                selected.clear();
            }
        } catch (IOException ex) {
            ex.printStackTrace();
        }
    }
 
    /**
     * 事件分发
     * @param k
     */
    void dispatch(SelectionKey k) {
        Runnable r = (Runnable)(k.attachment());
        if (r != null)
            r.run();
    }
 
 
    class Acceptor implements Runnable {
        public void run() {
            try {
                SocketChannel c = serverSocket.accept();
                if (c != null){
                    new Handler(selector, c);
                }
            }catch(IOException ex) {
                ex.printStackTrace();
            }
        }
    }
}
 
##################################################################################################################################
 
 
package com.miaoyepei.nettyproject.server.reactor.reactor1;
 
import java.io.IOException;
import java.nio.ByteBuffer;
import java.nio.channels.SelectionKey;
import java.nio.channels.Selector;
import java.nio.channels.SocketChannel;
 
/**
 * @copyright: 2018-2021 xyy
 * @program: nia-samples-parent
 * @description:
 * @author: miaoyepei
 * @create: 2021-01-05 10:55
 */
final class Handler implements Runnable {
 
    private static Integer MAXIN = 1024;
    private static Integer MAXOUT = 1024;
 
    final SocketChannel socket;
    final SelectionKey sk;
 
    ByteBuffer input = ByteBuffer.allocate(MAXIN);
    ByteBuffer output = ByteBuffer.allocate(MAXOUT);
 
    static final int READING = 0, SENDING = 1;
    int state = READING;
 
    /**
     * 初始化Handler
     */
    Handler(Selector sel, SocketChannel c) throws IOException {
        socket = c;
        c.configureBlocking(false);
        // Optionally try first read now
        sk = socket.register(sel, 0);
        sk.attach(this);
        sk.interestOps(SelectionKey.OP_READ);
        sel.wakeup();
    }
 
    boolean inputIsComplete() {
        return true;
    }
 
    boolean outputIsComplete() {
        return true;
    }
 
    void process() {
 
    }
 
    @Override
    public void run() {
        try {
            if (state == READING) read();
            else if (state == SENDING) send();
        } catch (IOException ex) { /* ... */ }
    }
 
    void read() throws IOException {
        socket.read(input);
        if (inputIsComplete()) {
            process();
            state = SENDING;
            // Normally also do first write now
            sk.interestOps(SelectionKey.OP_WRITE);
        }
    }
 
    void send() throws IOException {
        socket.write(output);
        if (outputIsComplete()) sk.cancel();
    }
 
}

Reactor 模式就是实现网络 IO 程序高并发特性的关键。它又可以分为单 Reactor 单线程模式、单 Reactor 多线程模式、主从 Reactor 多线程模式。

2.2.1. 单 Reactor 单线程模式

单 Reactor 单线程模式的基本形态如下(图片来源于网络):

这种模式的基本工作流程为:

1)Reactor 通过 select 监听客户端请求事件,收到事件之后通过 dispatch 进行分发

2)如果事件是建立连接的请求事件,则由 Acceptor 通过 accept 处理连接请求,然后创建一个 Handler 对象处理连接建立后的后续业务处理。

3)如果事件不是建立连接的请求事件,则由 Reactor 对象分发给连接对应的 Handler 处理。

4)Handler 会完成 read-->业务处理-->send 的完整处理流程。

这种模式的优点是:模型简单,没有多线程、进程通信、竞争的问题,一个线程完成所有的事件响应和业务处理。当然缺点也很明显:

1)存在性能问题,只有一个线程,无法完全发挥多核 CPU 的性能。Handler 在处理某个连接上的业务时,整个进程无法处理其他连接事件,很容易导致性能瓶颈。

2)存在可靠性问题,若线程意外终止,或者进入死循环,会导致整个系统通信模块不可用,不能接收和处理外部消息,造成节点故障。

单 Reactor 单线程模式使用场景为:客户端的数量有限,业务处理非常快速,比如 Redis 在业务处理的时间复杂度为 O(1)的情况。

2.2.2. 单 Reactor 多线程模式

单 Reactor 单线程模式的基本形态如下(图片来源于网络):

这种模式的基本工作流程为:

1)Reactor 对象通过 select 监听客户端请求事件,收到事件后通过 dispatch 进行分发。

2)如果事件是建立连接的请求事件,则由 Acceptor 通过 accept 处理连接请求,然后创建一个 Handler 对象处理连接建立后的后续业务处理。

3)如果事件不是建立连接的请求事件,则由 Reactor 对象分发给连接对应的 Handler 处理。Handler 只负责响应事件,不做具体的业务处理,Handler 通过 read 读取到请求数据后,会分发给后面的 Worker 线程池来处理业务请求。

4)Worker 线程池会分配独立线程来完成真正的业务处理,并将处理结果返回给 Handler。Handler 通过 send 向客户端发送响应数据。

这种模式的优点是可以充分的利用多核 cpu 的处理能力,缺点是多线程数据共享和控制比较复杂,Reactor 处理所有的事件的监听和响应,在单线程中运行,面对高并发场景还是容易出现性能瓶颈。

2.2.3. 主从 Reactor 多线程模式

主从 Reactor 多线程模式的基本形态如下(第一章图片来源于网络,第二章图片是 JUC 作者 Doug Lea 老师在《Scalable IO in Java》中给出的示意图,两张图表达的含义一样):

针对单 Reactor 多线程模型中,Reactor 在单个线程中运行,面对高并发的场景易成为性能瓶颈的缺陷,主从 Reactor 多线程模式让 Reactor 在多个线程中运行(分成 MainReactor 线程与 SubReactor 线程)。这种模式的基本工作流程为:

1)Reactor 主线程 MainReactor 对象通过 select 监听客户端连接事件,收到事件后,通过 Acceptor 处理客户端连接事件。

2)当 Acceptor 处理完客户端连接事件之后(与客户端建立好 Socket 连接),MainReactor 将连接分配给 SubReactor。(即:MainReactor 只负责监听客户端连接请求,和客户端建立连接之后将连接交由 SubReactor 监听后面的 IO 事件。)

3)SubReactor 将连接加入到自己的连接队列进行监听,并创建 Handler 对各种事件进行处理。

4)当连接上有新事件发生的时候,SubReactor 就会调用对应的 Handler 处理。

5)Handler 通过 read 从连接上读取请求数据,将请求数据分发给 Worker 线程池进行业务处理。

6)Worker 线程池会分配独立线程来完成真正的业务处理,并将处理结果返回给 Handler。Handler 通过 send 向客户端发送响应数据。

7)一个 MainReactor 可以对应多个 SubReactor,即一个 MainReactor 线程可以对应多个 SubReactor 线程。

这种模式的优点是:

1)MainReactor 线程与 SubReactor 线程的数据交互简单职责明确,MainReactor 线程只需要接收新连接,SubReactor 线程完成后续的业务处理。

2)MainReactor 线程与 SubReactor 线程的数据交互简单, MainReactor 线程只需要把新连接传给 SubReactor 线程,SubReactor 线程无需返回数据。

3)多个 SubReactor 线程能够应对更高的并发请求。

这种模式的缺点是编程复杂度较高。但是由于其优点明显,在许多项目中被广泛使用,包括 Nginx、Memcached、Netty 等。

这种模式也被叫做服务器的 1+M+N 线程模式,即使用该模式开发的服务器包含一个(或多个,1 只是表示相对较少)连接建立线程+M 个 IO 线程+N 个业务处理线程。这是业界成熟的服务器程序设计模式。

2.3. Netty 的模样

代码服务端:

package com.miaoyepei.nettyproject.netty_new.tcp;
 
import io.netty.bootstrap.ServerBootstrap;
import io.netty.channel.ChannelFuture;
import io.netty.channel.ChannelOption;
import io.netty.channel.EventLoopGroup;
import io.netty.channel.nio.NioEventLoopGroup;
import io.netty.channel.socket.nio.NioServerSocketChannel;
 
/**
 * <dependency>
 *        <groupId>io.netty</groupId>
 *        <artifactId>netty-all</artifactId>
 *        <version>4.1.54.Final</version>
 *     </dependency>
 */
public class MyServer {
    public static void main(String[] args) throws Exception{
 
        // 创建 BossGroup 和 WorkerGroup
        // 1. bossGroup 只处理连接请求
        EventLoopGroup bossGroup = new NioEventLoopGroup(1);
 
        // 2. 业务处理由 workerGroup 来完成
        EventLoopGroup workerGroup = new NioEventLoopGroup();
 
        try {
            //创建服务器端的启动引导对象
            ServerBootstrap serverBootstrap = new ServerBootstrap();
 
            // 配置参数 1.设置Boss和worker 2.说明服务器端通道的实现类 3.
            serverBootstrap.group(bossGroup,workerGroup)
                .channel(NioServerSocketChannel.class)
                //设置等待连接的队列的容量(当客户端连接请求速率大于 NioServerSocketChannel 接收速率的时候,会使用该队列做缓冲)
                //.option设置服务端 NioServerSocketChannel的容量
                .option(ChannelOption.SO_BACKLOG, 128)
 
                // 设置连接保活
                // childOption()方法用于给服务端 ServerSocketChannel
                // 接收到的 SocketChannel 添加配置
                .childOption(ChannelOption.SO_KEEPALIVE, true)
 
                // childHandler()方法用于给 WorkerGroup 设置业务处理器
                .childHandler(new MyServerInitializer());
 
            System.out.println("server is ready...");
 
            // 绑定端口,启动服务器,生成一个 channelFuture 对象,
            // ChannelFuture 涉及到 Netty 的异步模型,后面展开讲
            ChannelFuture channelFuture = serverBootstrap.bind(7000).sync();
 
            // 对通道关闭进行监听
            channelFuture.channel().closeFuture().sync();
        }finally {
            bossGroup.shutdownGracefully();
            workerGroup.shutdownGracefully();
        }
 
    }
}
 
//----------------------------------------------------------------------------------------------------------------------------------------------------------------------
 
 
package com.miaoyepei.nettyproject.netty_new.tcp;
 
import io.netty.channel.ChannelInitializer;
import io.netty.channel.ChannelPipeline;
import io.netty.channel.socket.SocketChannel;
 
/**
 * 初始化通道对象
 */
public class MyServerInitializer extends ChannelInitializer<SocketChannel> {
 
    @Override
    protected void initChannel(SocketChannel ch) throws Exception {
 
        /**
         * 获取 ChannelPipeline,
         * 向ChannelPipeline添加业务处理
         */
        ChannelPipeline pipeline = ch.pipeline();
        pipeline.addLast(new MyServerHandler());
    }
}
 
//----------------------------------------------------------------------------------------------------------------------------------------
 
 
package com.miaoyepei.nettyproject.netty_new.tcp;
 
import io.netty.buffer.ByteBuf;
import io.netty.buffer.Unpooled;
import io.netty.channel.ChannelHandlerContext;
import io.netty.channel.SimpleChannelInboundHandler;
import java.nio.charset.Charset;
import java.util.UUID;
/**
 * 自定义一个 Handler,需要继承 Netty 规定好的某个 HandlerAdapter(规范)
 * InboundHandler 用于处理数据流入本端(服务端)的 IO 事件
 * InboundHandler 用于处理数据流出本端(服务端)的 IO 事件
 */
public class MyServerHandler extends SimpleChannelInboundHandler<ByteBuf>{
 
    private int count;
 
    /**
     * 当通道有数据可读时执行
     * @param ctx 上下文对象,可以从中取得相关联的 Pipeline、Channel、客户端地址等
     * @param msg 客户端发送的数据
     * @throws Exception
     */
 
    @Override
    protected void channelRead0(ChannelHandlerContext ctx, ByteBuf msg) throws Exception {
 
        // 接收客户端发来的数据
        System.out.println("client address: " + ctx.channel().remoteAddress());
 
        // ByteBuf 是 Netty 提供的类,比 NIO 的 ByteBuffer 性能更高
        byte[] buffer = new byte[msg.readableBytes()];
        msg.readBytes(buffer);
 
        //将buffer转成字符串
        String message = new String(buffer, Charset.forName("utf-8"));
 
        System.out.println("服务器接收到数据 " + message);
        System.out.println("服务器接收到消息量=" + (++this.count));
 
        //服务器回送数据给客户端, 回送一个随机id ,
        // Unpooled 类是 Netty 提供的专门操作缓冲区的工具类,copiedBuffer 方法返回的 ByteBuf 对象类似于
        // NIO中的ByteBuffer,但性能更高
        ByteBuf responseByteBuf = Unpooled.copiedBuffer(UUID.randomUUID().toString() + " ", Charset.forName("utf-8"));
        ctx.writeAndFlush(responseByteBuf);
 
    }
 
    /**
     * 发生异常时执行
     * @param ctx   上下文对象
     * @param cause 异常对象
     * @throws Exception
     */
    @Override
    public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception {
        cause.printStackTrace();
        ctx.close();
    }
}

客户端代码:

package com.miaoyepei.nettyproject.netty_new.tcp;
 
import io.netty.bootstrap.Bootstrap;
import io.netty.channel.ChannelFuture;
import io.netty.channel.EventLoopGroup;
import io.netty.channel.nio.NioEventLoopGroup;
import io.netty.channel.socket.nio.NioSocketChannel;
 
public class MyClient {
    public static void main(String[] args)  throws  Exception{
 
        // 客户端只需要一个事件循环组,可以看做 BossGroup
        EventLoopGroup group = new NioEventLoopGroup();
        try {
 
            Bootstrap bootstrap = new Bootstrap();
            bootstrap.group(group)
                .channel(NioSocketChannel.class)
                // handler()方法用于给 BossGroup 设置业务处理器
                .handler(new MyClientInitializer());
 
            //启动客户端去连接服务器端,ChannelFuture 涉及到 Netty 的异步模型,后面展开讲
            ChannelFuture channelFuture = bootstrap.connect("localhost", 7000).sync();
 
            //对通道关闭进行监听
            channelFuture.channel().closeFuture().sync();
        }finally {
            group.shutdownGracefully();
        }
    }
}
 
//----------------------------------------------------------------------------------------------------------------
 
 
package com.miaoyepei.nettyproject.netty_new.tcp;
 
import io.netty.channel.ChannelInitializer;
import io.netty.channel.ChannelPipeline;
import io.netty.channel.socket.SocketChannel;
 
 
public class MyClientInitializer extends ChannelInitializer<SocketChannel> {
    @Override
    protected void initChannel(SocketChannel ch) throws Exception {
 
        ChannelPipeline pipeline = ch.pipeline();
        pipeline.addLast(new MyClientHandler());
    }
}
 
//--------------------------------------------------------------------------------------------------
package com.miaoyepei.nettyproject.netty_new.tcp;
 
import io.netty.buffer.ByteBuf;
import io.netty.buffer.Unpooled;
import io.netty.channel.ChannelHandlerContext;
import io.netty.channel.SimpleChannelInboundHandler;
import java.nio.charset.Charset;
 
public class MyClientHandler extends SimpleChannelInboundHandler<ByteBuf> {
 
    private int count;
    @Override
    public void channelActive(ChannelHandlerContext ctx) throws Exception {
        //使用客户端发送10条数据 hello,server 编号
        for(int i= 0; i< 10; ++i) {
            ByteBuf buffer = Unpooled.copiedBuffer("hello,server " + i, Charset.forName("utf-8"));
            System.out.println("客户端发送数据:hello,server " + i);
            ctx.writeAndFlush(buffer);
        }
    }
 
    @Override
    protected void channelRead0(ChannelHandlerContext ctx, ByteBuf msg) throws Exception {
        byte[] buffer = new byte[msg.readableBytes()];
        msg.readBytes(buffer);
 
        String message = new String(buffer, Charset.forName("utf-8"));
        System.out.println("客户端接收到消息=" + message);
        System.out.println("客户端接收消息数量=" + (++this.count));
 
    }
 
    @Override
    public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception {
        cause.printStackTrace();
        ctx.close();
    }
}

Netty 的设计主要基于主从 Reactor 多线程模式,并做了一定的改进。本节将使用一种渐进式的描述方式展示 Netty 的模样,即先给出 Netty 的简单版本,然后逐渐丰富其细节,直至展示出 Netty 的全貌。

简单版本的 Netty 的模样如下:

关于这张图,作以下几点说明:

1)BossGroup 线程维护 Selector,ServerSocketChannel 注册到这个 Selector 上,只关注连接建立请求事件(相当于主 Reactor)。

2)当接收到来自客户端的连接建立请求事件的时候,通过 ServerSocketChannel.accept 方法获得对应的 SocketChannel,并封装成 NioSocketChannel 注册到 WorkerGroup 线程中的 Selector,每个 Selector 运行在一个线程中(相当于从 Reactor)。

3)当 WorkerGroup 线程中的 Selector 监听到自己感兴趣的 IO 事件后,就调用 Handler 进行处理。

我们给这简单版的 Netty 添加一些细节:

关于这张图,作以下几点说明:

1)有两组线程池:BossGroup 和 WorkerGroup,BossGroup 中的线程(可以有多个,图中只画了一个)专门负责和客户端建立连接,WorkerGroup 中的线程专门负责处理连接上的读写。

2)BossGroup 和 WorkerGroup 含有多个不断循环的执行事件处理的线程,每个线程都包含一个 Selector,用于监听注册在其上的 Channel。

3)每个 BossGroup 中的线程循环执行以下三个步骤:

3.1)轮训注册在其上的 ServerSocketChannel 的 accept 事件(OP_ACCEPT 事件)

3.2)处理 accept 事件,与客户端建立连接,生成一个 NioSocketChannel,并将其注册到 WorkerGroup 中某个线程上的 Selector 上

3.3)再去以此循环处理任务队列中的下一个事件

4)每个 WorkerGroup 中的线程循环执行以下三个步骤:

4.1)轮训注册在其上的 NioSocketChannel 的 read/write 事件(OP_READ/OP_WRITE 事件)

4.2)在对应的 NioSocketChannel 上处理 read/write 事件

4.3)再去以此循环处理任务队列中的下一个事件

我们再来看下终极版的 Netty 的模样,如下图所示(图片来源于网络):

关于这张图,作以下几点说明:

1)Netty 抽象出两组线程池:BossGroup 和 WorkerGroup,也可以叫做 BossNioEventLoopGroup 和 WorkerNioEventLoopGroup。每个线程池中都有 NioEventLoop 线程。BossGroup 中的线程专门负责和客户端建立连接,WorkerGroup 中的线程专门负责处理连接上的读写。BossGroup 和 WorkerGroup 的类型都是 NioEventLoopGroup。

2)NioEventLoopGroup 相当于一个事件循环组,这个组中含有多个事件循环,每个事件循环就是一个 NioEventLoop。

3)NioEventLoop 表示一个不断循环的执行事件处理的线程,每个 NioEventLoop 都包含一个 Selector,用于监听注册在其上的 Socket 网络连接(Channel)。

4)NioEventLoopGroup 可以含有多个线程,即可以含有多个 NioEventLoop。

5)每个 BossNioEventLoop 中循环执行以下三个步骤:

5.1)select:轮训注册在其上的 ServerSocketChannel 的 accept 事件(OP_ACCEPT 事件)

5.2)processSelectedKeys:处理 accept 事件,与客户端建立连接,生成一个 NioSocketChannel,并将其注册到某个 WorkerNioEventLoop 上的 Selector 上

5.3)runAllTasks:再去以此循环处理任务队列中的其他任务

6)每个 WorkerNioEventLoop 中循环执行以下三个步骤:

6.1)select:轮训注册在其上的 NioSocketChannel 的 read/write 事件(OP_READ/OP_WRITE 事件)

6.2)processSelectedKeys:在对应的 NioSocketChannel 上处理 read/write 事件

6.3)runAllTasks:再去以此循环处理任务队列中的其他任务

7)在以上两个processSelectedKeys步骤中,会使用 Pipeline(管道),Pipeline 中引用了 Channel,即通过 Pipeline 可以获取到对应的 Channel,Pipeline 中维护了很多的处理器(拦截处理器、过滤处理器、自定义处理器等)。这里暂时不详细展开讲解 Pipeline。

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值