文章目录
Netty 基本原理(一)
在讲解Netty之前需要对IO、NIO、buffer、channel相关知识有一定的了解, 前面文章IO发展历程(BIO、NIO、AIO)、NIO核心Buffer、Selector、Channel分析 对这部分知识进行了讲解, 如果需要了解这部分知识可以进行查看。
一、包含的知识点
- 为什么需要netty
二、 为什么要用Netty
2.1 传统编程模型存在问题
传统的Server/Client会话模式是TPR(Thread Per Request), 它存在一些问题, 主要包含
- 服务端会为每个请求创建一个新的Thread来处理逻辑, 如果请求并发过大,会同时创建过多的线程来处理Client的请求, 大量线程会增加服务器压力, 容易带来性能问题
- 为了解决线程的不断增长, 通常会使用线程池来控制线程数量上限, 但是可能会带来新的问题, 如果线程池线程都在处理耗时操作, 比如: 文件上传、下载操作, 如果有个耗时很短的请求过来,会被阻塞不能及时被处理
下面是Server端经典同步阻塞IO编程模型代码逻辑 和 对应的处理图示
public class BIOServer {
public static void main(String[] args) throws IOException {
/**
* 1. 创建worker线程池, 用于控制处理Client请求的最大线程数
* 2. 创建ServerSocket, 并进行启动
* 3. while循环处理, 在服务未中断的情况下不断处理Client请求
* 4. 编写Thread类, 用于处理具体的业务逻辑
*/
ExecutorService executorService = new ThreadPoolExecutor(100, 100,
0L, TimeUnit.MILLISECONDS,
new LinkedBlockingQueue<Runnable>());
ServerSocket server = new ServerSocket(9099);
// 主线程死循环等待新线程的到来
while (! Thread.currentThread().isInterrupted()) {
Socket client = server.accept();
executorService.submit(new BusinessHandler(client)) ;
}
}
}
class BusinessHandler