1 概述
Netty的官网:https://Netty.io/
Netty is an asynchronous event-driven network application framework for rapid development of maintainable high performance protocol servers & clients.
Netty是一个异步事件驱动的网络应用程序框架,用于快速开发可维护的高性能协议服务器和客户端。
Netty是由JBOSS提供的一个java开源框架,现为 Github上的独立项目。Netty提供异步的、事件驱动的网络应用程序框架和工具,用以快速开发高性能、高可靠性的网络服务器和客户端程序。
也就是说,Netty 是一个基于NIO的客户、服务器端的编程框架,使用Netty 可以确保你快速和简单的开发出一个网络应用,例如实现了某种协议的客户、服务端应用。Netty相当于简化和流线化了网络应用的编程开发过程,例如:基于TCP和UDP的socket服务开发。
“快速”和“简单”并不用产生维护性或性能上的问题。Netty 是一个吸收了多种协议(包括FTP、SMTP、HTTP等各种二进制文本协议)的实现经验,并经过相当精心设计的项目。最终,Netty 成功的找到了一种方式,在保证易于开发的同时还保证了其应用的性能,稳定性和伸缩性。
2 为什么使用Netty
为什么有了NIO之后还要学习和使用Netty呢?
2.1 原生NIO比较复杂,而且有以下问题:
- 直接使用 NIO的时候,它的复杂的类库和API让人头大,例如需要咱们熟练掌握NIO的几大核心内容:Selector、 ServerSocketChannel、SocketChannel、ByteBuffer 等。
- 要编写出高质量的NIO程序需要熟练掌握多线程和网络编程技术,而这些工作量和难度都不小,例如客户端面临断连重连、网络闪断、半包卖写、失败缓存、网络拥塞和异常流的处理等等。
- NIO中有一些Bug:例如Epoll Bug,它会导致Selector 空轮询,最终导致CPU 100%。
NIO中的Bug:
因为selector的select方法,通常是阻塞的,但是在epoll空轮询的bug中,之前处于连接状态突然被断 开,select()的返回值num应该等于0,也就是阻塞状态但是,在此bug中,select()被唤醒,而又没有 数据传入,导致while (iterator.hasNext())根本不会执行,而后就进入while (true) 的死循环但 是,正常状态下应该阻塞,也就是只输出一个server:waiting… 而此时进入死循环,不断的输出 server:waiting…,程序死循环cpu自然很快飙升到100%状态。
-
bug产生的原因:
在部分Linux的2.6的kernel中,poll和epoll对于突然中断的连接socket会对返回的eventSet事件集合置为POLLHUP,也可能是POLLERR,eventSet事件集合发生了变化,这就可能导致Selector会被唤醒。
这是与操作系统机制有关系的,JDK虽然仅仅是一个兼容各个操作系统平台的软件,但很遗憾在JDK5和JDK6最初的版本中(严格意义上来将,JDK部分版本都是),这个问题并没有解决,而将这个帽子抛给了操作系统方,这也就是这个bug最终一直到2013年才最终修复的原因(提供的解决方案依然不是最完善的),最终影响力太广。 -
解决办法:
在Netty 中都有相应的解决方案,最终的终极办法是创建一个新的Selector。- 对Selector的select操作周期进行统计,每完成一次空的select操作进行一次计数,
- 若在某个周期内连续发生N次空轮询,则触发了epoll死循环bug。
- 重建Selector,判断是否是其他线程发起的重建请求,若不是则将原SocketChannel从旧的Selector上去除注册,重新注册到新的Selector上,并将原来的Selector关闭。
2.2 Netty的优势
- 设计:更优雅的设计简化了原生NIO中复杂编程
- 用于各种传输类型的统一API-阻塞和非阻塞Socket
- 基于一个灵活和可扩展的事件模型,它允许清晰地分离关注点
- 高度可定制的线程模型-单线程,一个或多个线程池
- 真正的无连接数据报Socket支持(从3.1开始)
- 易用性
- 文档丰富的Javadoc、用户指南和示例
- 没有其他依赖项,JDK5(Netty3.x)或JDK6(Netty4.x)就足够了
- 性能
- 更好的吞吐量,更低的延迟
- 减少资源消耗
- 最小化不必要的内存拷贝(零拷贝–操作系统层面)
- 安全
- 完整的SSL/TLS和StartTLS支持
- 社区
- 社区活跃、不断更新
- 版本迭代周期短,发现的Bug 可以被及时修复,同时,更多的新功能会被加入。
2.3 Netty的常见使用场景
- 互联网行业:在分布式系统中,各个节点之间需要远程服务调用,高性能的 RPC 框架必不可少,Netty 作为异步高性能的通信框架,往往作为基础通信组件被这些 RPC 框架使用。典型的应用有:阿里分布式服务框架 Dubbo 的 RPC 框架使用 Dubbo 协议进行节点间通信,Dubbo 协议默认使用 Netty 作为基础通信组件,用于实现各进程节点之间的内部通信。
- 游戏行业:无论是手游服务端还是大型的网络游戏,Java 语言得到了越来越广泛的应用。Netty 作为高性能的基础通信组件,它本身提供了 TCP/UDP 和 HTTP 协议栈。非常方便定制和开发私有协议栈,账号登录服务器,地图服务器之间可以方便的通过 Netty 进行高性能的通信。
- 大数据领域:经典的 Hadoop 的高性能通信和序列化组件 Avro 的 RPC 框架,默认采用 Netty 进行跨界点通信,它的 Netty Service 基于 Netty 框架二次封装实现。
大家还可以通过后面的网址了解一下使用了Netty的开源项目:Related Projects
3 Netty高性能分析
Netty 作为异步事件驱动的网络应用程序框架,高性能之处主要来自于其 I/O 模型和线程处理模型,I/O 模型决定如何收发数据,线程模型决定如何处理数据。
3.1 I/O模型
用什么样的通道将数据发送给对方,I/O 模型在很大程度上决定了框架的性能。
这个咱们之前讲解NIO的时候都给大家做过对比,这里简单复习一下:
3.1.1 阻塞IO
传统阻塞型 I/O(BIO):
- 每个请求都需要独立的线程完成数据的读写和业务处理;
- 当客户端请求并发数较大时,需要创建大量线程来处理连接,系统资源占用较大;
- 建立连接后,如果当前线程暂时没有数据可读,则线程就会阻塞在读取数据的操作上,造成线程资源浪费;
3.1.2 IO复用模型
在 I/O 复用模型中,会用到 Select,这个函数也会使进程阻塞,但是和阻塞 I/O 所不同的是这两个函数可以同时阻塞多个 I/O 操作,而且可以同时对多个读操作,多个写操作的 I/O 函数进行检测,直到有数据可读或可写时,才真正调用 I/O 操作函数。
Netty 的非阻塞 I/O 的实现关键是基于 I/O 复用模型,这里用 Selector 对象表示:
- 当线程从一个客户端SocketChannel进行读写数据时,若没有数据可用时,该线程可以进行其他任务。
- 线程通常将非阻塞IO的空闲时间用于在其他通道上执行IO操作,所以单独的线程可以管理多个输入和输出通道。
- 由于读写操作都是非阻塞的,这就可以充分提升IO线程的运行效率,避免由于频繁I/O阻塞导致的线程挂起。
- 一个 I/O 线程可以并发处理N个客户端连接和读写操作,这从根本上解决了传统同步阻塞I/O一连接一 线程模型,架构的性能、弹性伸缩能力和可靠性都得到了极大的提升。
传统的IO是面向字节流或字符流的,以流式的方式顺序地从一个Stream中读取一个或多个字节, 因此也就 不能随意改变读取指针的位置。
在NIO中,抛弃了传统的IO流,而是引入了Channel和Buffer的概念。在NIO中,只能从Channel中读取 数据到Buffer中或将数据从Buffer中写入到 Channel。
基于Buffer操作不像传统IO的顺序操作,NIO中可以随意地读取任意位置的数据。
3.2 线程模型
上面介绍了服务器如何基于I/O 模型管理连接并获取输入数据,接着介绍一下决定服务器如何处理数据的线程模型。
3.2.1 线程模型1:传统阻塞 I/O 服务模型
特点:
- 采用阻塞式 I/O 模型获取输入数据;
- 每个连接都需要独立的线程完成数据输入,业务处理,数据返回的完整操作。
存在问题:
- 当并发数较大时,需要创建大量线程来处理连接,系统资源占用较大;
- 连接建立后,如果当前线程暂时没有数据可读,则线程就阻塞在读取数据(read)操作上,造成
线程资源浪费。
3.2.2 线程模型2:Reactor 模式
针对传统阻塞 I/O 服务模型的 2 个缺点,比较常见的有如下解决方案:
- 基于 I/O 复用模型:多个连接共用一个阻塞对象,应用程序只需要在一个阻塞对象上等待,无需阻塞等待所有连接。当某条连接有新的数据可以处理时,操作系统通知应用程序,线程从阻塞状态返回,开始进行业务处理;
- 基于线程池复用线程资源:不必再为每个连接创建线程,将连接完成后的业务处理任务分配给线程进行处理,一个线程可以处理多个连接的业务。
而 Reactor 模式基本设计思想就是I/O 复用结合线程池:
Reactor 模式,是指通过一个或多个输入同时传递给服务处理器的服务请求的事件驱动处理模式。
服务端程序处理传入多路请求,并将它们同步分派给请求对应的处理线程,Reactor 模式也叫Dispatcher 模式。
即 I/O 多了复用统一监听事件,收到事件后分发(Dispatch 给某进程),是编写高性能网络服务器的必备技术之一。
Reactor 模式中有 2 个关键组成:
- Reactor:Reactor 在一个单独的线程中运行,负责监听和分发事件,分发给适当的处理程序来对IO 事件做出反应。 它就像公司的电话接线员,它接听来自客户的电话并将线路转移到适当的联系人;
- Handlers:处理程序执行 I/O 事件要完成的实际事件,类似于客户想要与之交谈的公司中的实际负责人。Reactor 通过调度适当的处理程序来响应 I/O 事件,处理程序执行非阻塞操作。
根据 Reactor 的数量和Handler的数量不同,有 3 种典型的实现:
- 单 Reactor 单线程;
- 多线程Reactor;
- 主从 Reactor 多线程。
可以这样理解,Reactor 就是一个执行 while (true) { selector.select(); …} 循环的线程,会源源不断的产生新的事件,称作反应堆很贴切。
3.2.2.1单线程Reactor
其中Select 是前面IO复用模型介绍的标准网络编程 API,可以实现应用程序通过一个阻塞对象监听多路连接请求。
说明:
- Reactor 对象通过 Select 监控客户端请求事件,收到事件后通过 Dispatch 进行分发;
- 如果是建立连接请求事件,则由 Acceptor 通过 Accept 处理连接请求,然后创建一个 Handler对象处理连接完成后的后续业务处理;
- 如果不是建立连接事件,则 Reactor 会分发调用连接对应的 Handler 来响应;
- Handler 会完成 Read→业务处理→Send 的完整业务流程。
优点:模型简单,没有多线程、进程通信、竞争的问题,全部都在一个线程中完成。
缺点:性能问题,只有一个线程,无法完全发挥多核 CPU 的性能。Handler 在处理某个连接上的业务时,整个进程无法处理其他连接事件,很容易导致性能瓶颈。 当其中某个 handler 阻塞时, 会导致其他所有的 client 的 handler 都得不到执行, 并且更严重的是, handler 的阻塞也会导致整个服务不能接收新的 client 请求(因为 acceptor 也被阻塞了)。 因为有这么多的缺陷, 因此单线程Reactor 模型用的比较少。
使用场景:客户端的数量有限,业务处理非常快速,比如 Redis。
3.2.2.2 多线程Reactor
说明:
- Reactor 对象通过 Select 监控客户端请求事件,收到事件后通过 Dispatch 进行分发;
- 如果是建立连接请求事件,则由 Acceptor 通过 Accept 处理连接请求,然后创建一个 Handler对象处理连接完成后续的各种事件;
- 如果不是建立连接事件,则 Reactor 会分发调用连接对应的 Handler 来响应;
- Handler 只负责响应事件,不做具体业务处理,通过 Read 读取数据后,会分发给后面的Worker 线程池进行业务处理;
- Worker 线程池会分配独立的线程完成真正的业务处理,如何将响应结果发给 Handler 进行处理;
- Handler 收到响应结果后通过 Send 将响应结果返回给 Client。
优点:可以充分利用多核 CPU 的处理能力。
缺点:多线程数据共享和访问比较复杂;Reactor 承担所有事件的监听和响应,在单线程中运行,高并发场景下容易成为性能瓶颈。
3.2.2.3主从多线程Reactor
针对多线程Reactor模型中,Reactor 在单线程中运行,高并发场景下容易成为性能瓶颈,可以让Reactor 在多线程中运行。
方案说明:
- Reactor 主线程 MainReactor 对象通过 Select 监控建立连接事件,收到事件后通过 Acceptor 接收,处理建立连接事件;
- Acceptor 处理建立连接事件后,MainReactor 将连接分配 Reactor 子线程给 SubReactor 进行处理;
- SubReactor 将连接加入连接队列进行监听,并创建一个 Handler 用于处理各种连接事件;
- 当有新的事件发生时,SubReactor 会调用连接对应的 Handler 进行响应;
- Handler 通过 Read 读取数据后,会分发给后面的 Worker 线程池进行业务处理;
- Worker 线程池会分配独立的线程完成真正的业务处理,如何将响应结果发给 Handler 进行处理;
- Handler 收到响应结果后通过 Send 将响应结果返回给 Client。
优点:父线程与子线程的数据交互简单职责明确,父线程只需要接收新连接,子线程完成后续的业务处理。
父线程与子线程的数据交互简单,Reactor 主线程只需要把新连接传给子线程,子线程无需返回数据。这种模型在许多项目中广泛使用,包括 Nginx 主从 Reactor 多进程模型,Memcached 主从多线程,Netty 主从多线程模型的支持。
3.2.2.4 总结
3 种模式可以对比生活中案例来理解:(餐厅常常雇佣一个漂亮的小姐姐作为接待员负责迎接顾客,当顾客入坐后,来一个帅气的小哥哥作为侍应生专门为这张桌子服务)
- 单 Reactor 单线程,接待员和侍应生是同一个人,全程为顾客服务;
- 多线程Reactor,1 个接待员小姐姐,多个侍应生小哥哥,接待员只负责接待;
- 主从 Reactor 多线程,多个接待员小姐姐,多个侍应生小哥哥。
Reactor 模式具有如下的优点:
- 响应快,不必为单个同步时间所阻塞,虽然 Reactor 本身依然是同步的;
- 编程相对简单,可以最大程度的避免复杂的多线程及同步问题,并且避免了多线程/进程的切换开销;
- 可扩展性,可以方便的通过增加 Reactor 实例个数来充分利用 CPU 资源;
- 可复用性,Reactor 模型本身与具体事件处理逻辑无关,具有很高的复用性。
4 Netty线程模型
4.1 Netty工作架构
Netty的线程模型是基于Reactor模型的。但是Netty 的线程模型并不是一成不变的,它实际取决于用户的启动参数配置。通过设置不同的启动参数,Netty 可以支持 Reactor 单线程模型、多线程模型,最常使用的是主从多线程模型。
Netty线程模型采用“服务端监听线程”和“IO线程”分离的方式,Netty主要靠NioEventLoopGroup线程池来实现具体的线程模型的。抽象出NioEventLoop来表示一个不断循环执行处理任务的线程,每个NioEventLoop有一个selector,用于监听绑定在其上的socket链路。
4.2 Netty工作架构说明
- Netty抽象出两组线程池: BossGroup负责接收客户端的连接, WorkerGroup负责网络的读写,他们的类型都是NioEventLoopGroup;
- NioEventLoopGroup 相当于一个事件循环组,主要管理 eventLoop 的生命周期,可以理解为一个线程池,内部维护了一组线程,每个线程(NioEventLoop)负责处理多个 Channel 上的事件,而一个 Channel 只对应于一个线程;
- NioEventLoop 表示一个不断循环的执行处理任务的线程, 每个NioEventLoop 都有一个selector, 用于监听绑定在其上的socket的网络通讯;NioEventLoop 中维护了一个线程和任务队列,支持异步提交执行任务,线程启动时会调用 NioEventLoop 的 run 方法,执行 I/O 任务和非 I/O 任务。
I/O 任务,即 selectionKey 中 ready 的事件,如 accept、connect、read、write 等, 由processSelectedKeys 方法触发。
非 IO 任务,添加到 taskQueue 中的任务,如 register0、bind0 等任务,由 runAllTasks 方法触发。
- 每个Boss NioEventLoop 循环执行的步骤
- 轮询监听IO 事件(accept),
- 处理监听到的连接就绪IO事件(accept) ,与client建立连接 , 生成NioScocketChannel , 并将其注册到某个worker NIOEventLoop 上的 selector,
- 执行任务队列(taskQueue/delayTaskQueue)中的非IO任务
- 每个 Worker NIOEventLoop 循环执行的步骤 :
- 轮询监听IO事件(read, write ),
- 处理监听到的IO事件,在对应NioScocketChannel 处理,
- 执行任务队列(taskQueue/delayTaskQueue)中的非IO任务
- 每个Worker NIOEventLoop 处理业务时,会使用pipeline(管道), pipeline 中包含了 channel , 即通过pipeline 可以获取到对应通道, 管道中维护了很多的处理器。
5、Netty案例
5.1 Netty版本
5.1.1 版本介绍
因为Netty是一个网络编程框架,我们编写案例的时候需要引入该框架,所以先介绍一下Netty的版本:
- Netty版本分为Netty3.x 和Netty4.x、 Netty5.x(Netty5出现重大bug,已经被官网废弃了,目前推荐使用的是Netty4.x的稳定版本)
- 我们案例也选择使用Netty4的版本
- Netty 下载地址: https://bintray.com/netty/downloads/netty
Netty源码在线阅读:
Netty-4.1.x地址是:http://docs.52im.net/extend/docs/src/netty4_1/
Netty在线API文档:
Netty-4.1.x API文档(在线版):http://docs.52im.net/extend/docs/api/netty4_1/
5.1.2 Netty的引用
<dependency>
<groupId>io.netty</groupId>
<artifactId>netty-all</artifactId> <!-- Use 'netty-all' for 4.0 or above -->
<version>4.1.50.Final</version>
<scope>compile</scope>
</dependency>
5.2 案例:Netty实现客户端和服务器端通信–TCP服务
5.2.1 服务器端
/**
* TCP服务-服务器端
*/
public class NettyServer {
public static void main(String[] args) throws InterruptedException {
//1、创建两个线程组 bossGroup workGroup
//bossGroup线程组负责客户端连接
EventLoopGroup bossGroup=new NioEventLoopGroup();
//workGroup线程组负责网络读写操作
EventLoopGroup workGroup=new NioEventLoopGroup();
//2、创建服务器启动助手来配置参数--创建辅助的工具类,用于服务器通道的一些列配置
ServerBootstrap serverBootstrap=new ServerBootstrap();
//链式编程
serverBootstrap.group(bossGroup,workGroup)//绑定两个线程组
.channel(NioServerSocketChannel.class)//指定NIO模式
.option(ChannelOption.SO_BACKLOG,512)//设置TCP缓冲区
.childOption(ChannelOption.SO_KEEPALIVE,true)//保持连接
.childHandler(new ChannelInitializer<SocketChannel>() {
protected void initChannel(SocketChannel ch) throws Exception {//数据接收方法的处理
ch.pipeline().addLast(new NettyServerHandler());//具体业务的处理
}
});
System.out.println("Server : 准备就绪!!!");
//3 绑定端口,设置非堵塞
ChannelFuture cf = serverBootstrap.bind(8765).sync();
ChannelFuture cf2 = serverBootstrap.bind(8766).sync();//--绑定多个端口,开口变大,但是处理能力不变
System.out.println("Server : 启动!!!");
//4 关闭通道
cf.channel().closeFuture().sync();//等待关闭
cf2.channel().closeFuture().sync();//等待关闭
System.out.println("Server--关闭通道!!!");
//关闭线程组
bossGroup.shutdownGracefully();
workGroup.shutdownGracefully();
System.out.println("Server--关闭线程组!!!");
}
}
/**
* 服务器端的业务处理类
*/
public class NettyServerHandler extends ChannelInboundHandlerAdapter {
//数据的读取事件
@Override
public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
System.out.println("serverHandler--ctx:"+ctx);
ByteBuf buffer= (ByteBuf) msg;
System.out.println("来自客户端的消息:"+buffer.toString(CharsetUtil.UTF_8));
}
//数据读取完毕事件
@Override
public void channelReadComplete(ChannelHandlerContext ctx) throws Exception {
ChannelFuture channelFuture = ctx.writeAndFlush(Unpooled.copiedBuffer("hi,client,我收到你的消息啦!", CharsetUtil.UTF_8));
//添加监听事件:数据发送完毕之后,直接断开客户端的连接
channelFuture.addListener(ChannelFutureListener.CLOSE);
}
//异常捕捉事件
@Override
public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception {
ctx.close();
}
}
5.2.2 客户端
/**
* TCP服务-客户端
*/
public class NettyClient {
public void run() throws InterruptedException {
EventLoopGroup group=new NioEventLoopGroup();
//创建客户端的启动助手
Bootstrap bootstrap=new Bootstrap();
//开始配置
bootstrap.group(group)
.channel(NioSocketChannel.class)
.handler(new ChannelInitializer<SocketChannel>() {
protected void initChannel(SocketChannel ch) throws Exception {
ch.pipeline().addLast(new NettyClientHandler());//具体业务处理
}
});
System.out.println("Client: 准备就绪!!!");
//启动客户端去连接服务器
ChannelFuture cf = bootstrap.connect("127.0.0.1", 8765).sync();
ChannelFuture cf2 = bootstrap.connect("127.0.0.1", 8766).sync();
cf.channel().closeFuture().sync();//等待关闭
cf2.channel().closeFuture().sync();//等待关闭
System.out.println("Client--关闭通道!!!");
group.shutdownGracefully();
System.out.println("Client--关闭线程组!!!");
}
public static void main(String[] args) {
try {
new NettyClient().run();
} catch (InterruptedException e) {
e.printStackTrace();
}
}
}
/**
* 客户端的业务处理类
*/
public class NettyClientHandler extends ChannelInboundHandlerAdapter {
//通道就绪
@Override
public void channelActive(ChannelHandlerContext ctx) throws Exception {
System.out.println("Client: ctx="+ctx);
ctx.writeAndFlush(Unpooled.copiedBuffer("hi,server,这是来自客户端的招呼!", CharsetUtil.UTF_8));
}
//数据的读取事件
@Override
public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
ByteBuf buf= (ByteBuf) msg;
System.out.println("服务器回复的消息:"+buf.toString(CharsetUtil.UTF_8));
}
}