Netty的基本组件
- 服务端
- Accept的时候创建线程
- ClientHandler处理请求数据时创建线程
- 客户端 (创建线程 处理发送数据)
- NioEventLoop. – Channel. --ByteBuf. – ChannelHandler.
- Netty基本主件
- NioEventLoop. --> Thread
- 服务端接收客户端连接的线程
- 处理客户端读写的线程
- Channel --> Socket (Channel是对Socket的封装,对数据的读写)
- ByteBuf --> IO Bytes
- Pipeline --> Logic Chain
- ChannelHandler --> Logic
- NioEventLoop # run
- select(wakenUp.getAndSet(false))
- processSelectedKeys()
- NioEventLoop # processSelectedKey
- if ((readyOps & (SelectionKey.OP_READ | SelectionKey.OP_ACCEPT)) != 0 || readyOps == 0) { 有一个连接进来
- NioMessageUnsafe 对应新连接进来的处理
- NioByteUnsafe 对应数据流的处理
- NioMessageUnsafe # read
- int localRead = doReadMessages(readBuf);
- NioServerSocketChannel # doReadMessages
- SocketChannel ch = javaChannel().accept();
- buf.add(new NioSocketChannel(this, ch))
- NioSocketChannel 构造方法
- AbstractChannel # 构造方法
- pipeline = newChannelPipeline() pipeline的创建. ==> new DefaultChannelPipeline(this)
- tail = new TailContext(this);
- head = new HeadContext(this);
- ChannelHandler 时间的回调
- handlerAdded 添加到pipeline的回调
- exceptionCaught. 异常捕获
Netty服务端启动
public static void main(String[] args) throws Exception {
EventLoopGroup bossGroup = new NioEventLoopGroup(1);
EventLoopGroup workerGroup = new NioEventLoopGroup();
try {
ServerBootstrap b = new ServerBootstrap();
b.group(bossGroup, workerGroup)
.channel(NioServerSocketChannel.class)
.childOption(ChannelOption.TCP_NODELAY, true)
.childAttr(AttributeKey.newInstance("childAttr"), "childAttrValue")
.handler(new ServerHandler())
.childHandler(new ChannelInitializer<SocketChannel>() {
@Override
public void initChannel(SocketChannel ch) {
ch.pipeline().addLast(new AuthHandler());
}
});
ChannelFuture f = b.bind(7777).sync();
f.channel().closeFuture().sync();
} finally {
bossGroup.shutdownGracefully();
workerGroup.shutdownGracefully();
}
}
- 服务端的socket在哪里初始化
- 在哪里accept连接
- 4个过程
- 创建服务端Channel
- 初始化服务端Channel
- 注册selector(attachment)
- 端口绑定
-
- AbstractBootstrap # bind
- final ChannelFuture regFuture = initAndRegister(); 创建服务端channel
- channelFactory.newChannel()
-
# newChannel. ==> clazz.newInstance()
- channel(NioServerSocketChannel.class)
- channelFactory(new ReflectiveChannelFactory(channelClass))
-
- NioServerSocketChannel # 构造方法
- newSocket(DEFAULT_SELECTOR_PROVIDER)
- provider.openServerSocketChannel()
- new NioServerSocketChannelConfig
- AbstractNioChannel # 构造方法. ==> ch.configureBlocking(false)
- AbstractChannel 对Client和Server Channel的抽象
- unsafe 对tcp的读写操作
- 初始化服务端Channel
- AbstractBootstrap # initAndRegister
- init(channel)
- ServerBootsStrap # init
- channel.config().setOptions(options); 和tcp相关的属性
- channel.attr(key).set(e.getValue()) 把用户自定的属性绑定到channel上
- currentChildOptions = childOptions.entrySet().toArray(. accept到服务端创建的客户端用的属性
- currentChildAttrs = childAttrs.entrySet().toArray
- p.addLast(new ChannelInitializer() { 添加pipeline
- ChannelHandler handler = config.handler(); 获取到用户自定义到BootStrap上的Handler
- pipeline.addLast(handler) 将用户自定义的Handler添加到pipeliine
- pipeline.addLast(new ServerBootstrapAcceptor 添加连接器,接收到连接后利用这些属性对新连接进行配置
- server 传播read事件会从head开始到ServerBootstrapAcceptor,再到tail
- currentChildGroup
- currentChildHandler==> 主程序 childHandler(new ChannelInitializer() { 添加childHandler,添加各种Handler,用户自定义的handler
- currentChildOptions
- currentChildAttrs.
- 注册Selector
- AbstractBootstrap # initAndRegister
- ChannelFuture regFuture = config().group().register(channel). 注册
- AbstractChannel # register(EventLoop eventLoop, final ChannelPromise promise)
- AbstractChannel.this.eventLoop = eventLoop; io事件相关操作eventLoop处理
- register0 实际注册
- doRegister() 调用jdk底层注册
- AbstractNioChannel # doRegister
- selectionKey = javaChannel().register(eventLoop().selector, 0, this)
- javaChannel() 获取到NipSocketServerChannel
- 0 表示不关心任何事件
- this. attachment 附件信息,通过这个将服务端的channel绑定到selector上
- selector轮询到读写事件,直接获取到channel,通过netty作事件的传播
- pipeline.invokeHandlerAddedIfNeeded() 回调注册成功. 触发ChannelInboundHandlerAdapter的handlerAdded方法,自定义的ServerHandler
- pipeline.fireChannelRegistered(). 传播事件 触发ChannelInboundHandlerAdapter的channelRegistered方法,自定义的ServerHandler
- 端口绑定
- AbstractBootstrap # doBind
- doBind0(regFuture, channel, localAddress, promise)
- AbstractChannel # bind(final SocketAddress localAddress, final ChannelPromise promise)
- doBind(localAddress) jdk底层的绑定
- NioServerSocketChannel # doBind
- javaChannel().bind() jdk socket底层的绑定
- if (!wasActive && isActive()) { 之前不是active,绑定端口后是active
- pipeline.fireChannelActive(). 传播事件(注册accept事件)
- DefaultChannelPipeline # channelActive(ChannelHandlerContext ctx)
- ctx.fireChannelActive()
- readIfIsAutoRead()
- channel.read()
- tail.read();
- AbstractChannel # beginRead. # doBeginRead()
- AbstractNioChannel # doBeginRead()
- selectionKey.interestOps(interestOps | readInterestOp). 注册 accept事件到selector上
- NioServerSocketChannel # 构造函数super(null, channel, SelectionKey.OP_ACCEPT). 设置 readInterestOp 为SelectionKey.OP_ACCEPT
NioEventLoop
问题(概括)
- 默认情况下,Netty服务端起多少线程,何时启动?
- Netty是如何解决jdk空轮询bug的
- Nett y如何保证异步串行无锁化
NioEventLoop创建
- NioEventLoopGroup # 构造
- this(nThreads, executor, SelectorProvider.provider())
- nThreads 线程数 executor 线程池 Selector 选择器
- MultithreadEventLoopGroup # 构造方法
- nThreads == 0 ? DEFAULT_EVENT_LOOP_THREADS : nThreads 如果nThreads --0,则给默认值
- DEFAULT_EVENT_LOOP_THREADS = Math.max(1, SystemPropertyUtil.getInt(“io.netty.eventLoopThreads”, Runtime.getRuntime().availableProcessors() * 2)); 2倍的cpu核心数
- this(nThreads, executor, DefaultEventExecutorChooserFactory.INSTANCE, args)
- executor = new ThreadPerTaskExecutor(newDefaultThreadFactory()); 线程创建器
- ThreadPerTaskExecutor 线程池
- ThreadPerTaskExecutor # execute ==> threadFactory.newThread(command).start(); 每次执行任务都会创建一个线程实体
- NioEventLoop 线程命名规则nioEventLoop-1-xx
- MultithreadEventExecutorGroup # newDefaultThreadFactory
- toPoolName(poolType) 线程的名称
- String poolName = StringUtil.simpleClassName(poolType) 获取到简单类名
- prefix = poolName + ‘-’ + poolId.incrementAndGet() + ‘-’;
- DefaultThreadFactory # newThread(Runnable r) ==> prefix + nextId.incrementAndGet()
- new FastThreadLocalThread(threadGroup, r, name) 对threadLocal的操作进行了优化
- InternalThreadLocalMap threadLocalMap
- children = new EventExecutor[nThreads]
- for (int i = 0; i < nThreads; i ++) {
- children[i] = newChild(executor, args)
- chooser = chooserFactory.newChooser(children)
newChild
- MultithreadEventExecutorGroup 构造
- children[i] = newChild(executor, args)
- NioEventLoopGroup # newChild
- new NioEventLoop # 构造函数
- super(parent, executor, false, DEFAULT_MAX_PENDING_TASKS, rejectedExecutionHandler)
- this.executor = ObjectUtil.checkNotNull(executor, “executor”); 保存线程执行器,创建NioEventLoop底层线程会用到
- taskQueue = newTaskQueue(this.maxPendingTasks). 外部线程在执行netty任务时,如果判断不是在NioEventLoop对应的线程执行,会放在任务队列中,由NioEventLoop对应的线程执行
- PlatformDependent.newMpscQueue(maxPendingTasks)
- selector = openSelector(); 一个NioEventLoop和一个Selector绑定
- chooserFactory.newChooser(). 创建线程选择器(轮询取值)
- MultithreadEventExecutorGroup # next ==> return chooser.next()
- newChooser. ==> PowerOfTowEventExecutorChooser, GenericEventExecutorChooser ==>next方法
- NioEventLoop 启动触发器
- 服务端启动绑定端口
- 新连接接入通过chooser绑定一个NioEventLoop
NioEventLoop启动
- 服务端启动绑定端口
- 主线程调用bind方法,将实际绑定的流程封装为一个task,调用服务端channel的execute方法具体执行,判断不是nio线程,会创建新的线程
- AbstractBootstrap # doBind0.
- channel.eventLoop().execute
- channel.bind(localAddress, promise) 绑定端口
- SingleThreadEventExecutor # execute
- boolean inEventLoop = inEventLoop(). 是否在本线程内执行
- inEventLoop(Thread.currentThread())
- thread == this.thread. this.thread 为null,所以不相等
- startThread(); 创建线程
- SingleThreadEventExecutor # doStartThread. 创建新的线程执行run方法
- thread = Thread.currentThread() 将新创建的线程绑定到NioEventLoop的thread对象,创建的线程FastThreadLocalThread.
- SingleThreadEventExecutor.this 对应的就是NioEventLoop
- run() 启动线程
NioEventLoop # run执行
- SingleThreadEventExecutor.this.run()
- select(wakenUp.getAndSet(false))
- if (ioRatio == 100) {. 决定下边两个方法的执行时间 ,ioRatio 默认值为50
- processSelectedKeys(). 处理io相关的逻辑
- final long ioTime = System.nanoTime() - ioStartTime; 处理io相关逻辑用掉的时间
- ioTime * (100 - ioRatio) / ioRatio 处理taskQueue中任务能用的时间,默认和ioTime一样的时间
- runAllTasks(). 执行外部线程扔到taskQueue中的任务
select()
-
- NioEventLoop # run()
- select(wakenUp.getAndSet(false)). wakenUp.getAndSet(false) 设置 selector不是唤醒状态
- selector.selectNow(). 超时并且没有执行过select操作,执行非阻塞的select
- hasTasks() 异步任务队列中是否有任务, wakenUp.compareAndSet(false, true) 设置weakUp为true,唤醒状态
- 如果有任务需要执行 selector.selectNow() ==> break ,调用非阻塞的select,返回
- int selectedKeys = selector.select(timeoutMillis); 进行阻塞式的select
- selectCnt ++; 执行次数 + 1
- if (selectedKeys != 0 || oldWakenUp || wakenUp.get() || hasTasks() || hasScheduledTasks()) {. ==> break;
- Selected something,waken up by user, the task queue has a pending task, a scheduled task is ready for processing 满足以上条件就终止
- 避免jdk空轮询的bug
- long time = System.nanoTime() 当前的时间
- if (time - TimeUnit.MILLISECONDS.toNanos(timeoutMillis) >= currentTimeNanos) {. ==> selectCnt = 1
- 当前时间 - 开始执行的时间 > 超时时间,恢复执行次数 = 1
- 如果当前时间 - 开始执行的时间< 超时时间,说明selector.select(timeoutMillis)没有阻塞住,代表一次空轮询
- else if (selectCnt >= SELECTOR_AUTO_REBUILD_THRESHOLD) 如果空轮询的时间> 允许空轮询的次数,默认为512
- rebuildSelector() 把老的selector上的selectKey注册到新的selector上
- newSelector = openSelector()
- for (SelectionKey key: oldSelector.keys()) { 遍历之前selector的key
- int interestOps = key.interestOps();
- key.cancel()
- SelectionKey newKey = key.channel().register(newSelector, interestOps, a)
- selector = this.selector. 重新赋值selector
- selector.selectNow() 非阻塞选择
- selectCnt = 1 恢复selectCnt
processSelectedKey
-
- NioEventLoop # 构造方法中 ==> selector = openSelector() 创建一个selector
- selector = provider.openSelector()
- SelectedSelectionKeySet 对selector的优化,原生的selector是用HashSet保存数据的
- 这个使用数组保存数据的,
- private SelectionKey[] keysA
- keysA[size ++] = o
- Class.forName(“sun.nio.ch.SelectorImpl”…)反射创建SelectorImpl
- SelectorImpl ==>. Set selectedKeys. HashSet keys
- selectedKeysField.set(selector, selectedKeySet)
- publicSelectedKeysField.set(selector, selectedKeySet) 替换该实现类里边的HashSet为SelectedSelectionKeySet 数组实现
- 优化Selector中selectedKeys 的实现,由hashset的操作变为数组
- ===================
- NioEventLoop # run()
- processSelectedKeys()
- if (selectedKeys != null) { 经过优化后的selectedKeys
- selectedKeys.flip(). ==> 返回底层的 SelectionKey[] keysA;
- processSelectedKeysOptimized(selectedKeys.flip())
- final SelectionKey k = selectedKeys[i] 获取到元素
- final Object a = k.attachment(). 获取到NioChannel
- processSelectedKey(k, (AbstractNioChannel) a). 处理k
- if (!k.isValid()) {. ==> unsafe.close(unsafe.voidPromise()) key不合法,关闭channel
- int readyOps = k.readyOps(); 拿到k的io事件
- if ((readyOps & (SelectionKey.OP_READ | SelectionKey.OP_ACCEPT)) != 0 || readyOps == 0) 处理read事件 workerGroup , accept 连接事件 bossGroup
runAllTask()执行逻辑
- SingleThreadEventExecutor # execute(Runnable task)
- addTask(task);==> taskQueue.offer(task)
- NioEventLoop 两个队列,普通任务队列和定时任务队列
- AbstractScheduledEventExecutor # schedule
- scheduledTaskQueue().add(task).
- runAllTasks(ioTime * (100 - ioRatio) / ioRatio)
- fetchFromScheduledTaskQueue 从定时任务中获取任务
- Runnable scheduledTask = pollScheduledTask(nanoTime)
- !taskQueue.offer(scheduledTask). 将定时任务队列中的任务放到taskQueue 中
- Runnable task = pollTask() 从taskQueue中获取一个任务
- final long deadline = ScheduledFutureTask.nanoTime() + timeoutNanos 计算截止时间
- for (;; ){ ==> safeExecute(task) 挨个执行每个任务
- if ((runTasks & 0x3F) == 0) {. 累计到64个任务
- if (lastExecutionTime >= deadline) { ==> break; 计算时间,超过的话终止
- task = pollTask(); 再次拿出一个任务
- afterRunningAllTasks()做收尾的
总结
- NioEventLoop的创建 ==> 在创建bossGroup和workGroup的时候创建,参数为空,会创建2被cpu合数的workGroup,每个NioEventLoop会有一个chooser,会创建一个selector和定时任务队列,创建selector的时候会替换hashset的实现
- NioEventLoop启动 ==> 在首次调用exector的时候创建线程
- NioEventLoop执行. 检测io事件, 处理io事件,处理任务队列
- Netty如果保证异步串行无锁化的. ==> 在所有外部线程取调用EventLoop或者Channel的方法,利用inEventLoop判断是外部线程,将所有的操作封装为task,放到mps queue中,在N ioEventLoop执行逻辑的第三部执行执行queue中的task
Netty新连接接入
问题
- Netty是在哪里检测有新连接接入的?
- boss线程的轮询出accept事件,通过jdk底层的channel的accept创建新的连接
- 新连接是怎样注册到NioEventLoop线程的?
- boss线程调用childGroup 的 chooser的next方法,拿到一个NioEventLoop,然后将这个连接注册到NioEventLoop的selector上
新连接接入处理逻辑
检测新连接
- NioEventLoop # processSelectedKey
- unsafe.read(). ==> NioMessageUnsage.read
- int localRead = doReadMessages(readBuf)
- SocketChannel ch = javaChannel().accept()
- allocHandle.continueReading(). 自动读,和读取到的channel小于个
创建NioSocketChannel
- 服务端的Channel是通过反射创建的,接收到客户端的是通过new 创建的
- NioServerSocketChannel # doReadMessages
- new NioSocketChannel(this, ch). this==> NioServerSocketChannel, ch==>jdk自定义的channel
- super(parent, socket);
- super(parent, ch, SelectionKey.OP_READ) OP_READ ==> 感兴趣的事件为读事件
- ch.configureBlocking(false). 设置非阻塞
- this.parent = parent; 设置客户端channel的服务端channel
- config = new NioSocketChannelConfig(this, socket.socket()) socket.socket() ==> jdk的scoket
- setTcpNoDelay(true). 禁止Nagle算法,让小的数据包,集成为大的数据包发送
- javaSocket.setTcpNoDelay(tcpNoDelay). socket 的方法
Netty中的Channel分类
- NioServerSocketChannel
- NioSocketChannel
- Unsafe 实现每种channel底层具体的协议
- AbstractChannel. ==> Channel parent, ChannelId id, Unsafe unsafe, DefaultChannelPipeline pipeline
- AbstractNioChannel. ==> SelectionKey selectionKey, int readInterestOp, SelectableChannel ch—> jdk的channel
- AbstractNioMessageChannel(NioMessageUnsafe) 服务端channel. ==>. SelectionKey.OP_ACCEPT
- newUnsafe() ==> new NioMessageUnsafe();
- NioMessageUnsafe # read()
- doReadMessages(readBuf). ==> NioServerSocketChannel
- SocketChannel ch = javaChannel().accept() 读取到了连接
- NioServerSocketChannelConfig 配置
- AbstractNioByteChannel(NioByteUnsafe) 客户端channel.===>. SelectionKey.OP_READ
- newUnsafe() ==> return new NioByteUnsafe();
- NioByteUnsafe # read()
- byteBuf = allocHandle.allocate(allocator) 读取到了数据
- NioSocketChannelConfig 配置
- unsafe 是对channel的读写抽象,服务端的读,读新的连接,客户端的读,读取新的数据
新连接NioEventLoop分配和selector注册
- NioMessageUnsafe # read()
- int size = readBuf.size(). 获取到的连接的channel的个数
- for (int i = 0; i < size; i ++) { 遍历
- pipeline.fireChannelRead(readBuf.get(i)); 服务端的channel read()
- 从head --> ServerBootStrapAcceptor --> tail
-
- ServerBootStrapAcceptor # channelRead
- child.pipeline().addLast(childHandler) 添加childHandler,客户代码自定义的childHandler
.childHandler(new ChannelInitializer<SocketChannel>() {
@Override
public void initChannel(SocketChannel ch) {
ch.pipeline().addLast(new AuthHandler());
}
});
- ChannelInitializer # handlerAdded
- initChannel(ctx). ==> initChannel(© ctx.channel()); 调用客户实现的initChannel
- child.config().setOption. 设置options
- childGroup.register(child). 选择NioEventLoop并注册selector. ==> childGroup --> workGroup
- MultithreadEventLoopGroup # register
- next() 返回一个NioEventLoop
- chooser.next()
- return executors[Math.abs(idx.getAndIncrement() % executors.length)]
- register(channel). 注册
- register(new DefaultChannelPromise(channel, this))
- AbstractChannel # register
- AbstractChannel.this.eventLoop = eventLoop 把当前的eventLoop绑定到客户端的channel上
- eventLoop.inEventLoop()
- Thread.currentThread(). 发起线程 服务端channel对应的EventLoop
- thread == this.thread. this.thread 客户端channel对应的eventLoop的线程为null
- doRegister()
- selectionKey = javaChannel().register(eventLoop().selector, 0, this). 进行channel的注册
NioSocketChannel读事件的注册
- AbstractChannel # register0
- doRegister()
- pipeline.fireChannelActive()
- AbstractChannelHandlerContext.invokeChannelActive(head)
- next.invokeChannelActive(). ==> DefaultChannelPipeline # HeadContext
- readIfIsAutoRead() 注册读事件
- channel.read(). ==> tail.read();
- ((ChannelOutboundHandler) handler()).read(this)
- unsafe.beginRead(). unsafe --> NioSocketChannelUnsafe
- doBeginRead(). ==> AbstractNioChannel # doBeginRead
- final SelectionKey selectionKey = this.selectionKey; selectionKey. 为0 ,不关心事件
- readInterestOp --> 客户端channel的时间 read事件
pipeline
问题
- netty是如何判断ChannelHandler类型的? 通过instance of 判断
- 对于ChannelHandler的添加应该遵循什么样的顺序?
- inBound和添加的顺序正相关,从上到下,outBound,从下到上
- 用户手动触发事件传播,不同的触发方式有什么样的区别?
- 当前节点开始触发,或者通过channel触发
- head节点的unsafe用于实现channel的具体协议,tail节点终止事件和异常事件的处理
pipeline初始化
- AbstractChannel # 构造方法
- pipeline = newChannelPipeline(). 一个channel对应一个pipeline
- new DefaultChannelPipeline(this). this -->对应channel
- tail = new TailContext(this).
- head = new HeadContext(this)
- ChannelHandlerContext. extends
- AttributeMap. 可以存储自定义的属性. attr(AttributeKey key)
- ChannelInboundInvoker. Registered. Active. ExceptionCaught. ChannelRead
- ChannelOutboundInvoker. deregister. write. flush.
- ChannelHandlerContext 属性
- channel() 属于哪个channel
- executor(). 哪个EventLoop
- ChannelHandler handler(). 业务逻辑处理器
- name(). 节点处理器的名称
- ChannelPipeline pipeline(). 属于哪个pipeline
- ByteBufAllocator alloc() 当前节点的内存分配器,有数据读写需要分配ByteBuf的时候用哪个内存分配器
- AbstractChannelHandlerContext ChannelHandlerContext 的实现类
- AbstractChannelHandlerContext next;
- AbstractChannelHandlerContext prev;
- TailContext ==> AbstractChannelHandlerContext. ChannelInboundHandler. (是一个输入的ChannelHandler,做一些收尾的事情)
- exceptionCaught. ==> onUnhandledInboundException. ===> logger.warn
- channelRead. ==>. onUnhandledInboundMessage. ==> logger.debug. +. ReferenceCountUtil.release(msg) 释放消息对象
- HeadContext ==> AbstractChannelHandlerContext. , ChannelOutboundHandler. , ChannelInboundHandler . 是一个输出的ChannelHandler,和读写相关的操作,读写操作都是从head开始
- read, write, flush, exceptionCaught
- channelActive. --> readIfIsAutoRead(). 刚建立到一个连接,会调用channelActive,可以注册一个读事件
添加ChannelHandler
- DefaultChannelPipeline # addLast
- addLast(executor, null, h)
- checkMultiplicity(handler) 判断handler是否重复添加
- if (!h.isSharable() && h.added) {. 不是共享,并且已经添加过抛出异常
- newCtx = newContext(group, filterName(name, handler), handler) 创建一个节点,group为null
- filterName name为空,生成一个名称,校验名称是否重复,遍历查找
- new. DefaultChannelHandlerContext. 创建HandlerContext
- super(pipeline, executor, name, isInbound(handler), isOutbound(handler));
- isInbound. ==> handler instanceof ChannelInboundHandler
- isOutbound. ==> handler instanceof ChannelOutboundHandler
- addLast0(newCtx) 添加到tail节点的前边
- callHandlerAdded0(newCtx). ==> ctx.handler().handlerAdded(ctx) 调用节点的handlerAdded方法
- ctx.setAddComplete() 设置添加完成,通过CAS自旋
- ChannelInitializer #. handlerAdded channel. 添加完ChannelInitializer这个handler,调用handlerAdded方法,执行自定义的initChannel 的实现,自己实现的方法
- initChannel(ctx)
- initChannel(© ctx.channel()).
删除ChannelHandler
- 权限校验的场景,通过校验移除该channelHandler,没有通过校验关闭这个连接
- ctx.pipeline().remove(this)
- remove(getContextOrDie(handler));
- getContextOrDie 查找节点
- AbstractChannelHandlerContext ctx = (AbstractChannelHandlerContext) context(handler) 将channel包装为AbstractChannelHandlerContext
- AbstractChannelHandlerContext ctx = head.next; 从头的下一个节点开始遍历查找
- remove 删除节点
- assert ctx != head && ctx != tai 断言节点不是head也不是tail
- remove0(ctx). --> 标准的双向节点的删除
- callHandlerRemoved0(ctx). 调用回调方法
- ctx.handler().handlerRemoved(ctx). 回调handlerRemoved 方法
inBound事件的传播
- channelHandler接口的继承关系
- ChannelHandlerAdapter
- ChannelOutBoundHandlerAdapter.
- ChannelInBoundHandlerAdapter
- ChannelHandler handlerAdded, handlerRemoved, exceptionCaught. Sharable 是否共享
- ChannelInboundHandler. channelActive,channelRead… 主要是被动的事件触发
- InBound事件,执行顺序按添加顺序从上到下,代码上边是头,下边是尾,addLast是在tail的前一个节点添加
- inBound事件从头开始向后传播
- ctx.channel().pipeline().fireChannelRead
- AbstractChannelHandlerContext.invokeChannelRead(head, msg)
- next.invokeChannelRead(m). next 为head节点
- HeadContext # channelRead. ==> ctx.fireChannelRead(msg)
- invokeChannelRead(findContextInbound(), msg)
- findContextInbound 查找下一个inbound节点, 最终会找到tail节点
- ctx.fireChannelRead(msg) ==> invokeChannelRead 将事件继续往下传播,ctx.fireChannelRead从当前节点往下传播,ctx.channel().pipeline().fireChannelRead 会从head开始往下传播
- TailContext # channelRead ==> onUnhandledInboundMessage. 最终会传递到tail节点
- ReferenceCountUtil.release(msg); 释放这个msg的内存
- SimpleChannelInboundHandler 的使用场景, 可以自动释放msg的消息,防止消息没有传到tail节点的,消息一直堆积导致的内存泄漏
- SimpleChannelInboundHandler # channelRead
- channelRead0(ctx, imsg) 用户自定义实现这个方法
- ReferenceCountUtil.release(msg) channelRead中finally调用release 释放资源
outBound事件的传播
- ChannelOutboundHandler. bind端口绑定. connect close. read. write. flush,用户主动发起的调用
- 添加的顺序和运行的顺序是相反的,代码从下到上
- ctx.channel().write(“hello world”) 向客户端的channel写数据
- pipeline.write(msg);
- tail.write(msg)
- write(msg, newPromise())
- write(msg, false, promise)
- AbstractChannelHandlerContext next = findContextOutbound() 查找outBound. ==> ctx = ctx.prev;
- HeadContext # write. ==> unsafe.write(msg, promise).
- ctx.channel().write(“hello world”). 从tail节点开始向prev节点传播
- ctx.write 从当前节点开始向prev节点传播
- 代码的下边靠近tail,上边靠近头
异常的传播
- notifyHandlerException(t)
- invokeExceptionCaught(cause)
- handler().exceptionCaught(this, cause)
- ctx.fireExceptionCaught(cause)
- invokeExceptionCaught(next, cause) 拿到当前节点的下一个节点
- TailContext. # exceptionCaught ==> onUnhandledInboundException. ==> logger.warn 打印这个异常
- 执行顺序,直接向next传递
- 子类不处理,父类会直接向后传递异常
- ChannelHandlerAdapter # exceptionCaught ==> ctx.fireExceptionCaught(cause)
- 最佳解决方式在channel的最后添加一个异常处理器
ByteBuf
问题
- 内存的类别有哪些
- 如何减少多线程内存分配之间的竞争
- 所有的线程都有自己的独立的线程缓存(PoolThreadCache)
- 不同大小的内存是如何进行分配的
- netty使用对象池,缓存,完全二叉树,bitmap来维护内存
ByteBuf结构和重要API
- ByteBuf结构
- maxCapacity 最大的容量,超过这个会进行拒绝
- read, write, set方法. read 从readerIndex向后读
- set 给一个位置的内容直接设置值
- mark和reset方法 markReaderIndex 保存当前指针 resetReadIndex 恢复指针
- readableBytes writeableBytes. 可读和可写的容量 maxWritbleBytes 最大可写容量
ByteBuf分类
- AbstractByteBuf(抽象实现)
- readerIndex. writerIndex. 保存读写指针
- 一些工具方法的实现. markReaderIndex, writeableBytes …
- byte readByte()
- int i = readerIndex; 保存读指针
- byte b = _getByte(i); 调用实现类的_getByte 方法
- readerIndex = i + 1 读指针加1
- writeByte ==> _setByte ==> writerIndex++
- getByte ==> _getByte ==> 直接获取数据,不移动指针
- 分类角度
- Pooled和Unpooled. Pooled 是从预先分配好的内存里边取一段连续内存封装为ByteBuf,Unpooled每次调用系统api向操作系统分配内存
- Unsafe和非Unsafe. Unsafe直接拿到对象的内存地址进行读写操作,用Unsafe操作可以直接拿到ByteBuf在jvm中的内存地址,调用jdk的Unsafe进行读写,非Unsafe直接不依赖Unsafe
- PooledHeapByteBuf. ==> PooledUnsafeHeapByteBuf
- UnpooledUnsafeDirectByteBuf UnpooledDirectByteBuf.(ByteBuffer buffer jdk底层的ByteBuffer)==> DirectByteBuffer
- UnpooledHeapByteBuf (利用 byte[] array 操作) ==> UnpooledUnsafeHeapByteBuf
- PooledUnsafeDirectByteBuf. PooledDirectByteBuf
- Heap和Direct heap直接在堆上进行内存分配(自动释放),direct 使用调用jdk直接进行内存分配,不进行gc
- Unpooled# directBuffer(int initialCapacity, int maxCapacity)
- AbstractByteBufAllocator # directBuffer==> newDirectBuffer
- new UnpooledDirectByteBuf. # 构造
- setByteBuffer(ByteBuffer.allocateDirect(initialCapacity))
- ByteBuffer.allocateDirect(initialCapacity). ==> new DirectByteBuffer(capacity)
ByteBufAllocator分析
- 内存分配管理器,负责分配所有类型的内存
- buffer(根据实现判断是直接还是堆) ioBuffer (最好是直接内存). heapBuffer(堆内存). directBuffer(直接内存) compositeBuffer (合并的buffer)
- AbstractByteBufAllocator. 实现
- ByteBuf buffer() 区分直接内存还是堆内存
- return directBuffer()
- directBuffer(DEFAULT_INITIAL_CAPACITY(256), Integer.MAX_VALUE)
- newDirectBuffer(initialCapacity, maxCapacity). 抽象方法
- return. heapBuffer()
- newHeapBuffer(initialCapacity, maxCapacity) 抽象方法,区分是pooled还是Unpooled
- PooledByteBufAllocator 在池子中取
- UnpooledByteBufAllocator 调用系统api取
- unsafe 和 非unsafe netty自动判别 jdk底层有unsafe 就分配unsafe
- PlatformDependent.hasUnsafe() ? new UnpooledUnsafeHeapByteBuf : new UnpooledHeapByteBuf
UnPooledByteBufAllocator分析
- heap内存分配
- newHeapBuffer (区分unsafe)
- UnpooledUnsafeHeapByteBuf. 构造 (创建一个byte数组)
- this(alloc, new byte[initialCapacity], 0, 0, maxCapacity);
- setArray(initialArray). 设置内存
- setIndex(readerIndex, writerIndex) 设置指针
- _getByte 方法 ==> UnsafeByteBufUtil.getByte(array, index). ==> PlatformDependent.getByte(array, index).
- UNSAFE.getByte(data, BYTE_ARRAY_BASE_OFFSET + index). 通过对象和偏移量获取内容
- UnpooledHeapByteBuf 构造 (也是利用byte数组)
- this(alloc, new byte[initialCapacity], 0, 0, maxCapacity);
- _getByte 方法 ==> HeapByteBufUtil.getByte(array, index). ==> memory[index]
- direct内存分配(堆外内存分配)
- newDirectBuffer (区分unsafe)
- newUnsafeDirectByteBuf
- new UnpooledUnsafeNoCleanerDirectByteBuf
- setByteBuffer(allocateDirect(initialCapacity), false). ==> allocateDirect
- ByteBuffer.allocateDirect(initialCapacity) ==> 调用jdk底层创建一个堆外内存
- setByteBuffer ==> memoryAddress = PlatformDependent.directBufferAddress(buffer). 计算内存地址(和非Unsafe的主要区别).
- UNSAFE.getLong(object, fieldOffset) 通过UNSAFE 拿到byteBuf对应的内存地址
- _getByte 方法 > UnsafeByteBufUtil.getByte(addr(index)) addr> memoryAddress(对象地址) + index(偏移地址) 直接计算内存地址
- UnpooledDirectByteBuf
- setByteBuffer(ByteBuffer.allocateDirect(initialCapacity)). 保存对外内存
- ByteBuffer.allocateDirect(initialCapacity). ==> 调用jdk底层创建一个堆外内存
- _getByte 方法 ==> buffer.get(index) 直接调用jdk底层的buffer的get方法
- unsafe会通过内存地址加偏移量的方式拿到数据,非unsafe是通过数组加下标或者jdk底层的ByteBuf的api拿到数据,通过unsafe拿到数据会更快
- 堆内存是通过数组实现的,堆外内存是通过jdk方法分配directBuf
PooledByteBufAllocator概述
- newHeapBuffer
- newDirectBuffer
- PoolThreadCache cache = threadCache.get(); 拿到当前线程的cache,不同的线程会在不同的内存上分配,维护着堆外内存和堆内存
- PoolThreadCache thread分配的内存用完,会自己分配内存(ByteBuf的缓存列表)
- tinyCacheSize smallCacheSize. normalCacheSzie (可以有多少个缓存,在PooledByteBufAllocator中维护的)
- PoolThreadLocalCache. extends FastThreadLocal
- PoolThreadLocalCache # initialValue
- final PoolArena<byte[]> heapArena = leastUsedArena(heapArenas). 堆内存
- PoolArena directArena = leastUsedArena(directArenas) 对外内存
- PooledByteBufAllocator # 构造器 创建heapArenas 和 directArenas
- newArenaArray. ==> new PoolArena[] 数组 两个都是默认创建两倍cpu核数的数组大小,每个线程都可以有独享的array
- heapArenas. ==> PoolArena.HeapArena.
- directArenas. ==> PoolArena.DirectArena.
- PoolArena directArena = cache.directArena;
- buf = directArena.allocate(cache, initialCapacity, maxCapacity);
directArena分配direct内存的流程
- PooledByteBufAllocator # newDirectBuffer
- directArena.allocate. 分配内存
- PooledByteBuf buf = newByteBuf(maxCapacity) 从对象池里面拿到PooledByteBuf复用
- DirectArena # newByteBuf
- PooledUnsafeDirectByteBuf.newInstance(maxCapacity)
- PooledUnsafeDirectByteBuf buf = RECYCLER.get() 带有回收特性的对象池
- RECYCLER = new Recycler
- newObject 如果没有对象,创建一个
- Handle handle. ==> void recycle(T object); 参数: 对象回收的方法
- buf.reuse(maxCapacity); 对象的复用(恢复一些属性)
- maxCapacity. setRefCnt(被多少个地方引用). setIndex discardMarks
- allocate(cache, buf, reqCapacity) 从缓存上进行内存分配
- cache.allocateNormal. 先从缓存上进行内存分配,如果分配成功就返回
- allocateNormal(buf, reqCapacity, normCapacity). 缓存上分配内存没有成功,实际上分配一份内存. 从内存堆里面进行内存分配
内存规格介绍
- 0 512B (字节) 8K 16M
- tiny(0-512B). small(512B-8k). normal(8k-16M). huge(16M)
- 一个chunk是16M,内存申请是通过chunk(16M)为单位向操作系统申请的,后续所有的内存分配都是在chunk里进行操作的
- 要一个1M的,申请16M的内存(chunk),16M中取一段内存当做1M,把1M的连续内存放到ByteBuf中
- 一个Page是8K,会把16M的内存切分,切分的单位是Page,分为2048个Page
- 一个SubPage是动态的,要1个1k的内存,会把8K用1k为单位进行切分,切分为8分; 如果要512B的内存,把8K用512B为单位进行切分
命中缓存的分配逻辑
- MemoryRegionCache(缓存相关的数据结构)
- queue,多个entity组合形成的链 , handler指向唯一一段连续的内存, chunk(netty内存分配的单位),chunk和指向chunk的一段连续的内存,可以确定entity的内存大小和内存位置,所有的entity组合起来形成缓存链
- sizeClass netty中的内存规格,16K以上的内存是不进行缓存的
- size: 一个MemoryRegionCache中缓存的Bytebuf内存大小是固定的
- tiny 16B * N. small 512B 1k. 2k. 4k. normal 8k 16k 32k
- MemoryRegionCache
- int size. Queue<Entry> queue. SizeClass sizeClass
- PoolThreadCache
- 1个PoolThreadCache 中维护32个tiny (大小为16B,32B到496B) 4个small 3个normal,每个都是一个MemoryRegionCache,每个MemoryRegionCache中维护着queue队列
- 1个tiny是MemoryRegionCache, queue的大小512个. small 的queue的大小是256个
- 一个MemoryRegionCache的大小指的是该缓存区段能够处理或存储的数据大小范围的上限,一个queue中存放的最大的缓存大小
private final MemoryRegionCache<byte[]>[] tinySubPageHeapCaches;
private final MemoryRegionCache<byte[]>[] smallSubPageHeapCaches;
private final MemoryRegionCache<ByteBuffer>[] tinySubPageDirectCaches;
private final MemoryRegionCache<ByteBuffer>[] smallSubPageDirectCaches;
private final MemoryRegionCache<byte[]>[] normalHeapCaches;
private final MemoryRegionCache<ByteBuffer>[] normalDirectCaches;
- MemoryRegionCache[] tinySubPageDirectCaches = createSubPageCaches(tinyCacheSize, PoolArena.numTinySubpagePools, SizeClass.Tiny);
- tinyCacheSize(cacheSize) : 512
- numTinySubpagePools(numCaches) 512/16 = 32 (数组的大小)
- TinySizeClass(sizeClass) 类型
- MemoryRegionCache[] cache = new MemoryRegionCache[numCaches(32)]
- for (int i = 0; i < cache.length; i++) {. 遍历cache(32) 遍历赋值cache(32)
- cache[i] = new SubPageMemoryRegionCache(cacheSize(512), sizeClass)
- this.size = MathUtil.safeFindNextPositivePowerOfTwo(size). 查找下一个大于等于当前size 2的幂次方的数
- queue = PlatformDependent.newFixedMpscQueue(this.size). queue的个数 cacheSize(512)
- this.sizeClass = sizeClass
- smallSubPageDirectCaches = createSubPageCaches(smallCacheSize,directArena.numSmallSubpagePools, SizeClass.Small)
- smallCacheSize(256). queue的大小
- numTinySubpagePools 4 memoryRegionCache的个数
命中缓存的分配流程
- PoolArena # allocate
- final int normCapacity = normalizeCapacity(reqCapacity) 规格化内存大小
- reqCapacity >= chunkSize 大于16k直接返回
- isTiny(reqCapacity) 是否大于tiny tiny是以16的倍数自增
- isTinyOrSmall(normCapacity) 小于一个page的大小就是tiny或者small
- boolean tiny = isTiny(normCapacity) 小于512B就是tiny
- cache.allocateTiny(this, buf, reqCapacity, normCapacity) 分配内存的入口
- cacheForTiny(PoolArena<?> area, int normCapacity) 寻找 MemoryRegionCache
- int idx = PoolArena.tinyIdx(normCapacity) ==> normCapacity >>> 4
- 获取tiny[32] 中的下标,大小除以16,如果要的大小是16B,则取第2个
- cache(tinySubPageDirectCaches, idx) ==> 返回数组下标对应的元素 一个 tiny MemoryRegionCache
- boolean allocated = cache.allocate(buf, reqCapacity). 从queue中弹出一个entity给ByteBuf
- Entry entry = queue.poll() 从queue中拿出一个元素 ,entity中通过handle可以定位chunk中连续的一块内存
- initBuf(entry.chunk, entry.handle, buf, reqCapacity) 初始化entity中的chunk给bytebuf内存空间
- chunk.initBufWithSubpage(buf, handle, reqCapacity) 初始化 handle 指向一块连续内存的指针
- initBufWithSubpage(buf, handle, bitmapIdx(handle), reqCapacity)
- PooledByteBuf # inti
void init(PoolChunk<T> chunk, long handle, int offset, int length, int maxLength, PoolThreadCache cache) {
assert handle >= 0;
assert chunk != null;
this.chunk = chunk;
this.handle = handle;
memory = chunk.memory;
this.offset = offset;
this.length = length;
this.maxLength = maxLength;
tmpNioBuf = null;
this.cache = cache;
}
- entry.recycle() 回收entity. ==> recyclerHandle.recycle(this). 放到对象池中
arena chunk. page subpage
- arena
- PoolThreadCache 属性 PoolArena<byte[]> heapArena 不是缓存的空间竞技场,在内存中划分一块连续的内存,开辟一块内存
- PoolArena 数据结构
- 最外层是一个chunkList,chunkList通过双向链表进行连接,chunkList 由chunk进行连接,一个chunk为16M,netty会实时计算chunk分配的情况.利用率,按照内存使用率归为一个chunkList,内存分配是根据一定算法先找chunkList,再从chunkList中寻找一个chunk
- PoolArena
private final PoolChunkList<T> q050;
private final PoolChunkList<T> q025;
private final PoolChunkList<T> q000;
private final PoolChunkList<T> qInit;
private final PoolChunkList<T> q075;
private final PoolChunkList<T> q100;
q100.prevList(q075);
q075.prevList(q050);
q050.prevList(q025);
q025.prevList(q000);
q000.prevList(null);
qInit.prevList(qInit);
- 将chunk分配为8k大小的page,以page为单位进行内存分配
- 如果要使用的内存小于8k,会将8k以2k为单位进行划分,就做subpage
- PoolSubpage[] tinySubpagePools; PoolArena 属性
- PoolChunk chunk 属与哪个chunk
- int elemSize; 子页的大小
- final long[] bitmap 表示子叶的分配情况 PoolSubpage prev 以双向链表的方式维护
- Netty的内存分配,先从线程的PooledThreadCache中拿到一个Arena,再取一个chunkList,再从chunkList中寻找一个chunk,如果要分配的内存超过一个page,以page为单位划分,小于一个page,将page切分为子page进行划分
page级别的内存分配: allocateNormal
public class Scratch {
public static void main(String[] args) {
int page = 1024 * 8;
PooledByteBufAllocator allocator = PooledByteBufAllocator.DEFAULT;
allocator.directBuffer(2 * page);
}
}
- PoolArean # allocate(PoolThreadCache cache, PooledByteBuf buf, final int reqCapacity)
- normCapacity <= chunkSize cache.allocateNormal 小于16k的cache级别的分配,大于16k的内存级别的分配,page级别
- allocateNormal(buf, reqCapacity, normCapacity) page级别的分配,要么分配一个page,要不分配两个page,不会分配page的某一部分空间,normal处理的大小为8k到16k
- q050.allocate(buf, reqCapacity, normCapacity) … 尝试在现有的chunk上进行分配
- for (PoolChunk cur = head;😉 { 从head节点开始遍历
- long handle = cur.allocate(normCapacity) 从每一个chunk尝试分配
- if (handle < 0) { ==> cur = cur.next; handler小于0,说明没有分配到,查找下一个节点
- else ==> cur.initBuf(buf, handle, reqCapacity); 大于0,说明分配到了,初始化Bytebuf
- cur.usage() >= maxUsage ==> nextList.add(cur) 如果使用率大于最大使用率,添加到下一个chunkList中
- PoolChunk c = newChunk(pageSize, maxOrder, pageShifts, chunkSize) 创建一个chunk
- pageSize 8K == maxOrder 11 == pageShifts 13 2的13次方 等于8k ==chunkSize 16k
- allocateDirect(chunkSize). ==> PlatformDependent.allocateDirectNoCleaner(capacity) 使用jdk的api调用返回直接内存
- PoolChunk # 构造
- chunk的分配情况: 一个chunk是以page的方式组织内存的,
- for (int d = 0; d <= maxOrder; ++ d) { 从0到11层进行遍历
- int depth = 1 << d; 层数
- memoryMap 和 depthMap 表示第几个节点在第几层,第几层可以表示哪一段连续内存被分配
- long handle = c.allocate(normCapacity). 进行分配,normCapacity 分配的大小,handle指向chunk中的一块连续内存
- allocateRun(normCapacity). 分配几个page
- int d = maxOrder - (log2(normCapacity) - pageShifts) 算出第几层,需要多大的内存空间
- int id = allocateNode(d) 从第n层分配一个节点,一个层的内存的大小是一样的(查找没有被使用的节点),通过这个id可以定位到chunk上的唯一一块内存
- setValue(id, unusable) 标记当前节点被使用了
- updateParentsAlloc(id) 标记父级节点被使用,比如016k被使用了,要标记04M的节点也被使用了,防止有一个需要0~4M的buffer分配到这个内存,因为这个内存的一部分被使用了
- 返回这个id,handler,通过这个handler可以标记chunk中的一块内存
- c.initBuf(buf, handle, reqCapacity) 通过这个内存给buffer初始化
- buf.init(this, handle, runOffset(memoryMapIdx), reqCapacity, runLength(memoryMapIdx),arena.parent.threadCache())
- runOffset 偏移量 0 runLength(memoryMapIdx) 16k
- PooledByteBuf # init. ==> PoolChunk chunk. long handle. T memory 通过jdk申请的directByteBuf 真实的内存地址
- initMemoryAddress() 因为是unsafe实现的,所以要初始化ByteBuf的内存地址
subpage级别的内存分配: allocateTiny
- PoolArena # allocate
- tableIdx = tinyIdx(normCapacity) ==> normCapacity >>> 4 容量除以16
- allocateNormal(buf, reqCapacity, normCapacity) 分配内存
- allocateSubpage(normCapacity) 分配一个subPage
- int id = allocateNode(d) 先找到在第几层分配空间
- subpage = new PoolSubpage(head, 创建一个subPage
- PoolSubpage # 构造
- init(head, elemSize) 初始化
- maxNumElems = numAvail = pageSize / elemSize (elemSize)将一个page划分为多少分,maxNumElems 每个内存的大小
- addToPool(head) 将节点添加到arena中
- subpages[subpageIdx] = subpage; 赋值到数组中
- subpage.allocate() 分配一个内存,返回一个handler,对应第几个节点,第几个subPage
- c.initBuf(buf, handle, reqCapacity) 初始化ByteBuf
- initBufWithSubpage(buf, handle, bitmapIdx, reqCapacity) 初始化子page
- buf.init( …) runOffset(memoryMapIdx) page的偏移量
- (bitmapIdx & 0x3FFFFFFF)第几个subPage
- runOffset(memoryMapIdx) + (bitmapIdx & 0x3FFFFFFF) * subpage.elemSize 这段内存的偏移量 = page的偏移量 + 第几个subPage * subPage的大小
ByteBuf的回收
- AbstractReferenceCountedByteBuf # release ==> release0
- deallocate()
- this.handle = -1 将handle赋值为-1,表示不指定内存
- chunk.arena.free(chunk, han dle, maxLength, cache) 将内存添加到MemoryRegionCache中
- cache.add(this, chunk, handle, normCapacity, sizeClass) 尝试将内存放到缓存中
- cache.add(chunk, handle) 将cache添加到queue中
- freeChunk(chunk, handle, sizeClass) 将内存标记为未使用
- !chunk.parent.free(chunk, handle)
- chunk.free(handle)
- subpage.free(head, bitmapIdx & 0x3FFFFFFF)) 如果是subPage,标记bitmap位图
- updateParentsFree(memoryMapIdx) 如果是page反向标记父节点为未使用
- recycle() 将ByteBuf放到对象池中
- subPage标记未使用,使用bitmap,page是放到树形结构中
Netty解码(把字节流变为对象)
定义
- 将二进制数据流解析成自定义协议的数据包,ByteBuf
- 解码器抽象解码过程
- 累加字节流,调用子类进行解析(当前字节流.list), list中有解析出来的数据,往下进行传播
- netty里面有哪些拆箱即用的解码器
- 固定长度,基于行,基于固定分割符的解码器,继续长度域的解码器
- 解码器的基类和Netty中常见的解码器分析
解码器积累
- ByteToMessageDecoder 解码
- ByteToMessageDecoder # channelRead(ChannelHandlerContext ctx, Object msg)
- CodecOutputList out = CodecOutputList.newInstance() 将解析完成的数据放入到list中
- if (msg instanceof ByteBuf) { netty是基于ByteBuf进行解码的
- ByteBuf data = (ByteBuf) msg; 当前读取到的数据
- cumulation ==> new Cumulator()累加器 ==> cumulate(累加) 方法,如果内存不够进行扩容,将读到的ByteBuf数据,写入ByteBuf(累加器)对象中
- if (first) { ===> cumulation = data; 如果第一次,累加器的数据就是当前读取到的数据
- cumulation = cumulator.cumulate(ctx.alloc(), cumulation, data) 不是第一次, 将读进来的数据合并到类加器中
- callDecode(ctx, cumulation, out) 调用子类的decode方法进行解析
- while (in.isReadable()) { 只要累加器ByteBuf中有数据就进行循环
- int outSize = out.size(); ==> (outSize > 0)如果list中有数据了,说明有解析好的对象
- fireChannelRead(ctx, out, outSize) ==> out.clear() 将对象进行传播,清空当前list
- int oldInputLength = in.readableBytes() 记录当前可读的数据长度
- decode(ctx, in, out) 调用子类的decode in 累加器中的数据, out 解析出的对象放到out中
- if (outSize == out.size()) { 说明经过这次的decode方法,没有解析出内容
- oldInputLength == in.readableBytes() 说明累加器中的数据不能拼接成完整的数据包,继续累加数据,break跳出循环,后续解析
- 否则:从当前的数据中读取到了一部分数据,继续循环解析
- fireChannelRead(ctx, out, size) 将解析出来的对象向下传播
- for (int i = 0; i < numElements; i ++) { 将解析出来的所有数据都进行传播
- msgs.getUnsafe(i) --> 获取到的是一个ByteBuf
- ctx.fireChannelRead( 传播ByteBuf
netty中的解码器
- 基于固定长度解码器分析(以多少个长度为分割,进行解析)
- FixedLengthFrameDecoder
- Object decoded = decode(ctx, in)
- if (in.readableBytes() < frameLength) { ==> return null 当前可读的数据小于解析的固定长度,返回null,说明子类没有读取ByteBuf中的数据,到了父类会终止循环,继续累加数据,然后再次调用子类
- in.readRetainedSlice(frameLength) 从当前累加器中截取固定长度的数据
- out.add(decoded) 添加到解析出的对象集合中
- 基于行解码器分析(基于换行符分割)
- LineBasedFrameDecoder
- maxLength 解析出的最大长度,超过长度进行丢弃 failFast 超过长度是否快速抛出异常 discarding 丢弃模式
- decode方法
- final int eol = findEndOfLine(buffer) 获取到换行分割符的位置
- 找到\n的位置,如果前边是\r指针向前移动,指向\r
- 非丢弃模式 -->找到换行符
- if (eol >= 0) { 找到了换行符
- final int length = eol - buffer.readerIndex() 一行的数据
- if (length > maxLength) { 一行的数据超过了最大长度
- buffer.readerIndex(eol + delimLength) 直接将指针移动到eol的后边,fail 传播异常,读取到一行的内容过长
- frame = buffer.readRetainedSlice(length) ==> buffer.skipBytes(delimLength) 从ByteBuf中分割数据,然后跳过换行符
- 非丢弃模式 -->没有找到换行符
- final int length = buffer.readableBytes() 获取到Buf中可读的数据长度
- if (length > maxLength) { 超过了最大长度
- buffer.readerIndex(buffer.writerIndex()) 把读指针直接移动到写指针
- discarding = true 是否丢弃true,进入到丢弃模式
- if (failFast) { ==> 如果是快速失败,向下传递异常
- 丢弃模式处理(找到了换行符,将读指针移动到换行符后边将前边内容丢弃,恢复模式为非丢弃模式)
- if (eol >= 0) { 找到了换行符
- final int length = discardedBytes + eol - buffer.readerIndex() 记录丢弃了多少数据
- buffer.readerIndex(eol + delimLength) 将当前读指针移动到换行符后边
- discarding = false 标记当前模式为非丢弃
- if (!failFast) { ==> fail(ctx, length) 如果不是快速失败,向下传递失败,快速失败指的是第一次发现长度超过了限制就立即向下传递异常,不是快速失败是指最终读到换行符,才向下传递异常
- 丢弃模式没有找到换行符
- buffer.readerIndex(buffer.writerIndex()) 直接将读指针移动到写指针,丢弃数据
- 基于分割符的行解码器
- DelimiterBasedFrameDecoder 最大的长度,分割符,可变长度参数
- 每次只解析读指针到最小分割符的数据,比如下图中readIndex到A的数据
- decode方法
- if (lineBasedDecoder != null) { ==> return lineBasedDecoder.decode(ctx, buffer) 如果行处理器不为空,调用行处理器的处理方法 (构造DelimiterBasedFrameDecoder 时创建行分割符处理器)
- for (ByteBuf delim: delimiters) { 找到最小的分割符,距离读指针最近的分割符,A和B找到A
- if (minDelim != null) { 如果找到了最下分割符
- if (minFrameLength > maxFrameLength) { 超过了最大的长度 buffer.skipBytes丢弃数据,将指针移动到最小分割符后边
- frame = buffer.readRetainedSlice(minFrameLength) ==> buffer.skipBytes(minDelimLength)截取需要的数据,移动指针
- 没有找到分割符,和行分割符的处理类似
- 基于长度域解码器
- LengthFieldBasedFrameDecoder
- lengthFiledOffset: 从这个消息开始多少个字节后是表示长度的字节
- lengthFieldLength (表示长度)用多少个字节, netty会根据这个数据处理从长度字节后再读取多少个字节的内容
- lengthAdjustment 长度调整, lengthFieldLength+lengthAdjustment 表示还要从长度字节后再读多少个字节的内容
- initialBytesToStrip 是否需要跳过字节,从消息开始需要跳过多少长度的字节
- decode
- if (in.readableBytes() < lengthFieldEndOffset) { 可读字节流没有到长度字节流的尾部
- lengthFieldEndOffset = lengthFieldOffset + lengthFieldLength 表示长度大小的结束偏移量 =长度字段的偏移量+长度的字段
- int actualLengthFieldOffset = in.readerIndex() + lengthFieldOffset; 真实表示长度的偏移量 = 读指针的位置 + 长度字段的偏移量
- long frameLength = getUnadjustedFrameLength(in, actualLengthFieldOffset, lengthFieldLength, byteOrder) 获取长度域的长度
- frameLength += lengthAdjustment + lengthFieldEndOffset 计算出需要从数据流总抽取数据的长度 (frameLength + lengthAdjustment) 表示从lengthFieldEndOffset 之后还需要读取多少长度的字节
- 08 两个字节表示长度
- 8个字节 - 4个字节 = 从长度字节后还要读取多少字节 + (长度字段字节偏移量 2个字节 + 表示长度需要的字节 2个字节) - 4个字节 (需要跳过的字节)
lengthFieldEndOffset = lengthFieldOffset + lengthFieldLength;
int actualLengthFieldOffset = in.readerIndex() + lengthFieldOffset;
long frameLength = getUnadjustedFrameLength(in, actualLengthFieldOffset,
lengthFieldLength, byteOrder);
frameLength += lengthAdjustment + lengthFieldEndOffset
in.skipBytes(initialBytesToStrip)
int actualFrameLength = frameLengthInt - initialBytesToStrip;
ByteBuf frame = extractFrame(ctx, in, readerIndex, actualFrameLength);
in.readerIndex(readerIndex + actualFrameLength);
6. if (initialBytesToStrip > frameLengthInt) { 需要跳过的字节大于数据包的长度,抛出异常
7. in.skipBytes(initialBytesToStrip) 跳过多少字节
8. int readerIndex = in.readerIndex(); 重新获取读指针
9. int actualFrameLength = frameLengthInt - initialBytesToStrip; 实际的数据包长度 = 需要抽取的数据长度 - 跳过的字节长度
10. ByteBuf frame = extractFrame(ctx, in, readerIndex, actualFrameLength) 抽取数据流,从读指针开始读取多少长度的字节
11. <br />
Netty编码(把对象变为字节流)
问题
- 如何把对象变成字节流,最终写到socket底层
writeAndFlush()
- AbstractChannel # writeAndFlush ==> pipeline.writeAndFlush(msg)
- tail.writeAndFlush(msg) 从tail节点往前writeAndFlush
- write(msg, true, promise) flash 为false只是将数据写入到netty的缓存中
- if (executor.inEventLoop()) { 判断当前是否在本地线程操作的
- next.invokeWriteAndFlush(m, promise)
- invokeWrite0(msg, promise)
- ((ChannelOutboundHandler) handler()).write(this, msg, promise) 在pipeline的handler中进行传播
- MessageToByteEncoder # write(ChannelHandlerContext ctx, Object msg, …)
- invokeFlush0()
- ((ChannelOutboundHandler) handler()).flush(this); 将flush往前进行传播
- safeExecute(executor, task, promise, m) 不是本地线程操作的,封装为task放到taskQueue中执行
编码器处理逻辑 MessageToByteEncoder
- MessageToByteEncoder # write
- acceptOutboundMessage(msg) 判断是否能处理这个对象
- matcher.match(msg) 匹配,默认的匹配类是TypeParameterMatcher ==> type.isInstance(msg)
- I cast = (I) msg; 将对象强转位泛型类型
- buf = allocateBuffer(ctx, cast, preferDirect) 分配内存 ==> return ctx.alloc().heapBuffer(); 分配堆外内存
- encode(ctx, cast, buf); 将转换后数据的对象写入到buf中
- out.writeBytes(bytes) ==>自定义的实现
- ReferenceCountUtil.release(cast) 释放对象,需要转换的对象,如果对像是ByteBuf的时候
- 传播事件,将数据传播到head节点,head节点将数据写入到底层
- if (buf.isReadable()) { ==> ctx.write(buf, promise) 可读的话,向后传播事件,直到head事件
- buf.release(); 如果不可读,释放buf对象
- buf = null; 将buf 置为空
- finally ==> buf.release() 释放buffer
Head节点的处理
- biz写出user对象,encoder将user写入到bytebuf中,head节点将数据写入到操作系统
- HeadContext # write
- unsafe.write(msg, promise)
- msg = filterOutboundMessage(msg) msg为ByteBuf
- AbstractNioByteChannel # filterOutboundMessage
- if (buf.isDirect()) { ==> return msg 如果是对外内存 直接返回
- newDirectBuffer(buf) 否则封装为堆外内存
- ByteBuf directBuf = alloc.directBuffer(readableBytes) 创建对外内促
- directBuf.writeBytes(buf, buf.readerIndex(), readableBytes) 将Buf数据写入
- outboundBuffer.addMessage(msg, size, promise) 将堆外内存放到写队列
- ChannelOutboundBuffer 属性
private Entry flushedEntry;
private Entry unflushedEntry;
private Entry tailEntry;
private int flushed;
1. flushedEntry:这个变量指向链表中第一个已经被“刷新”(即,已经准备好写入但尚未实际写入存储介质)的条目。在这个条目之前的所有条目都已经被写入存储介质。
2. unflushedEntry:这个变量指向链表中第一个尚未被刷新的条目。在这个条目之前的所有条目(不包括这个条目本身)都已经被标记为刷新状态,但可能还没有实际写入。
3. tailEntry:这个变量指向链表的尾部,即最后一个添加的条目。新添加的条目会被放置在尾部。
4. flushed:这个整数变量记录了已经被标记为刷新但尚未实际写入的条目的数量。这有助于追踪还有多少数据需要被实际写入存储介质。
- Entry entry = Entry.newInstance(msg, size, total(msg), promise) 把msg封装为Entity
- 第一次调用write,flashedEntry为null, unflashedEntry和tailEntry指向新进来的Entry
- 第二次调用write将TailEntry指定为新进来的entry,将新进来的entry链接到之前Entry的next
- 后边添加entry都是将Entry添加到尾部
- incrementPendingOutboundBytes 设置不可写状态(超过64k)
- long newWriteBufferSize = TOTAL_PENDING_SIZE_UPDATER.addAndGet(this, size) 标记有多少可写的字节
- newWriteBufferSize 写缓存区中的数据不能超过64k 默认为64 * 1024 (WriteBufferWaterMark 中指定)
- setUnwritable(invokeLater) 设置当前状态不可写了
- fireChannelWritabilityChanged(invokeLater) 向前传播当前不可写状态更新事件
flush-刷新buffer队列
- HeadContext # flush
- unsafe.flush()
- outboundBuffer.addFlush()
- Entry entry = unflushedEntry 将entry指向未写出的entry
- if (flushedEntry == null) { ==> flushedEntry = entry; 如果flashedEntry为ull,将flushedEntry指向entry,第一次写出数据
- decrementPendingOutboundBytes(pending, false, true); 设置可写状态(小于32k)
- long newWriteBufferSize = TOTAL_PENDING_SIZE_UPDATER.addAndGet(this, -size); 写出一个对象将该字节从总大小减去
- newWriteBufferSize 当前剩余字节小于32k,表示可以写了
- setWritable(invokeLater) 设置当前channel可写了
- Entry(flushedEntry) --> … Entry(unflushedEntry) --> … Entry(tailEntry)
- Entry entry = unflushedEntry;
- entry != null ==> entry = entry.next;
- unflushedEntry = null; 表示没有数据unflush了
- flush0();
- doWrite(outboundBuffer)
- AbstractNioByteChannel # doWrite
- Object msg = in.current(); 获取msg数据
- Entry entry = flushedEntry; ==> entry.msg; 拿到flushedEntry中的数据
- if (msg instanceof ByteBuf) {
- int localFlushedAmount = doWriteBytes(buf);
- NioSocketChannel # doWriteBytes
- buf.readBytes(javaChannel(), expectedWrittenBytes);
- PooledDirectByteBuf # readBytes
- int readBytes = getBytes(readerIndex, out, length, true);
- ByteBuffer tmpBuf; jdk的ByteBuffer
- tmpBuf = internalNioBuffer(); 将netty中byteBuf的数据写入到ByteBuffer
- out.write(tmpBuf) 将jdk底层的byteBuffer写入到ScoketChannel中
- in.remove()
1. Entry e = flushedEntry;
2. removeEntry(e);
- 如果到了尾部,flushedEntry = null; tailEntry = null;unflushedEntry = null;
- flushedEntry = e.next; 将flushedEntry向后移动一个指针
- 写入和写出的步骤:
1. 初始状态flushedEntry , unflushedEntry, tailEntry 都为null
2. 第一次写入unflushedEntry 和tailEntry 都指向新的Entry
3. 后边每次写入都在unflushedEntry 和tailEntry中添加数据
4. 第一次写出数据,unflushedEntry 置为null,flushedEntry 替换到之前unflushedEntry 的位置,写出flushedEntry到tailEntry中的数据
性能优化工具类
FastThreadLocal
- FastThreadLocal # 构造
- index = InternalThreadLocalMap.nextVariableIndex(); 每一个FastThreadLocal都有一个index值
- int index = nextIndex.getAndIncrement();
- get() 方法
- get(InternalThreadLocalMap.get())
- InternalThreadLocalMap.get() 获取ThreadLocalMap
- Thread thread = Thread.currentThread(); 获取当前线程
- if (thread instanceof FastThreadLocalThread) { 是否是FastThreadLocalThread
- fastGet((FastThreadLocalThread) thread); 用自己实现FastThreadLocal中的InternalThreadLocalMap
- InternalThreadLocalMap threadLocalMap = thread.threadLocalMap(); 每个线程都有自己的ThreadLocalMap
- slowGet(); 实际用的jdk的ThreadLocal中获取ThreadLocalMap方法,获取每个线程的ThreadLocalMap
- InternalThreadLocalMap ret = slowThreadLocalMap.get(); 获取到当前线程的ThreadLocalMap 比较慢的
- if (ret == null) { ==> ret = new InternalThreadLocalMap(); 初始化InternalThreadLocalMap
- static final ThreadLocal slowThreadLocalMap = new ThreadLocal(); 利用slowThreadLocalMap 获取到每个线程的InternalThreadLocalMap
- get()方法
- Object v = threadLocalMap.indexedVariable(index); 通过threadLocalMap中的index直接拿到
- index对应当前FastThreadLocal对应的下标
- Object[] lookup = indexedVariables; 拿到当前线程的ThreadLocalMap对象中的indexedVariables
- indexedVariables 使用数组结构,index对应一个ThreadLocal对应的下标,值对应存储的内容
- java原生的存储的值和ThreadLocal使用Entry链表实现的,FastThreadLocal使用链表实现的
- InternalThreadLocalMap # 构造方法
- super(newIndexedVariableTable())
- newIndexedVariableTable()
- Object[] array = new Object[32];
- Arrays.fill(array, UNSET);
- UnpaddedInternalThreadLocalMap # 构造方法
- this.indexedVariables = indexedVariables; 初始化indexedVariables
- initialize(threadLocalMap) ==> v = initialValue(); 初始化对象值,自己的实现
- threadLocalMap.setIndexedVariable(index, v);
- lookup[index] = value; 将对应的值设置到对应的索引下边
- set()方法
- set(InternalThreadLocalMap.get(), value)
- if (value != InternalThreadLocalMap.UNSET) { 如果要设置的值不是初始对象
- lookup[index] = value;
- remove(threadLocalMap); 如果是初始值,则会执行remove方法
- Object v = threadLocalMap.removeIndexedVariable(index); 将初始值对象放到对应数组下标,并返回之前的值
- lookup[index] = UNSET;
- if (v != InternalThreadLocalMap.UNSET) { 原来的对象不是初始对象
- onRemoval((V) v); 回调onRemove方法
Recycler 轻量级的对象池
- 创建对象不要每次创建对象,可以重复利用对象
- Recycler构造
- FastThreadLocal<Stack> threadLocal 一个ThreadLocal,其中有一个Stack 属性,说明一个线程对应一个Stack对象
- new Stack(Recycler.this, Thread.currentThread(), maxCapacityPerThread, maxSharedCapacityFactor,ratioMask, maxDelayedQueuesPerThread)
- thread ratioMask 对象被回收的频率 maxCapacity (32k) maxDelayedQueues 当前线程创建的对象在多少可线程中可以缓存
- head pre cursor
- availableSharedCapacity 线程创建的对象能够在其它线程中使用的最大个数 (16k) 当前对象能够使用别的线程的对象最大的容量 16k
- DefaultHandle<?>[] elements; 一个handle包装了一个对象
-
- Stack stack = threadLocal.get(); 获取当前线程的stack,该stack是自己封装的对象,利用DefaultHandle<?>[] elements 维护数据
- DefaultHandle handle = stack.pop(); 从stack中获取一个对象
- int size = this.size;
- if (size == 0) { 如果当前线程中的对象为0
- !scavenge() 回收跑去别的线程的对象
- DefaultHandle ret = elements[size]; 取出一个Handle
- elements[size] = null; 将该位置设置为null
- ret.recycleId = 0; 将 recycleId 设置为0
- ret.lastRecycledId = 0; 将lastRecycledId设置为0
- if (handle == null) {
- handle = stack.newHandle(); 利用stack创建一个handle
- new DefaultHandle(this) 一个handle和一个Stack绑定,也和一个object绑定
- handle.value = newObject(handle) 创建一个新对象,赋值到handle的value上
- handle.value 返回handle中绑定的value对象
-
- handle.recycle(this) 回收当前对象
- stack.push(this) 将当前对象压到栈中
- Thread currentThread = Thread.currentThread() 获取当前线程
- if (thread == currentThread) { 判断当前线程是否是创建当前对象的线程
- pushNow(item); 如果是,直接放到stack中
- item.recycleId = item.lastRecycledId = OWN_THREAD_ID; 将recycleId 和lastRecycledId 赋值为当前线程的Id
- if (size >= maxCapacity || dropHandle(item)) { 如果当前缓存的对象超过了最大容量,直接扔掉该对象
- 数组扩容
- elements[size] = item; 将当前对象直接放到elements中
- pushLater(item, currentThread); 不是当前线程回收对象,调用pushLater
- Map<Stack<?>, WeakOrderQueue> delayedRecycled = DELAYED_RECYCLED.get();
- FastThreadLocal<Map<Stack<?>, WeakOrderQueue>> DELAYED_RECYCLED 不同的线程对应不同的Stack,一个stack对应一个WeakOrderQueue,用于缓存该线程创建的对象的回收对象
- WeakOrderQueue queue = delayedRecycled.get(this); 拿到当前线程对应的WeakOrderQueue
- if (queue == null) { 如果为null
- if (delayedRecycled.size() >= maxDelayedQueues) { 如果当前线程回收别的线程的数量大于最大可以回收的对象,delayedRecycled.put(this, WeakOrderQueue.DUMMY); 放置一个假的map
- queue = WeakOrderQueue.allocate(this, thread)) 创建一个WeakOrderQueue
- boolean reserveSpace(AtomicInteger availableSharedCapacity, int space) 更新创建对象的线程允许对象被其他线程缓存的最大容量
- new WeakOrderQueue(stack, thread) 创建一个WeakOrderQueue
- WeakOrderQueue属性
- private Link head, tail; 一个Link对象组成的链表
- private WeakOrderQueue next; 多个WeakOrderQueue是由链表构成的,next表示下一个WeakOrderQueue
- link的链表,一个link中包含多个Handle,一个Handle对应一个缓存对象
- owner 当前回收的线程,线程2回收线程1的对象,owner表示线程2
- head = tail = new Link(); 创建一个link
- owner = new WeakReference(thread) 设置所属的线程
- next = stack.head; stack表示创建对象的线程的stack,stack中有一个head属性指向其他线程回收的该线程创建对象的WeakOrderQueue,将stack中的head指针内容保存到局部变量next中
- stack.head = this; 如果一个线程2回收线程1的对像,会将线程2创建的WeakOrderQueue放到线程1对应的stack中head指针的指向,放到头部
- delayedRecycled.put(this, queue); 放到map缓存中
- queue.add(item); 将当前元素追加到WeakOrderQueue中的link中
- Link tail = this.tail; 获取到链表中的最后一个link
- if ((writeIndex = tail.get()) == LINK_CAPACITY) { 如果尾部的link已经满了
- this.tail = tail = tail.next = new Link() 创建一个新的link
- DefaultHandle<?>[] elements = new DefaultHandle[LINK_CAPACITY] 一个Handle的数组
- int readIndex 读指针
- writeIndex = tail.get(); 获取到写指针
- tail.elements[writeIndex] = handle 将handle追加到WeakOrderQueue 的link中的elements数组中
- handle.stack = null; 表示handle不属于原来创建线程的stack了
- 从当前线程的对象池stack获取对象为空时,回收别的线程回收的对象,head指针指向的WekOrderQueue中
- Stack中的三个指针
- head 执行第一个WeakOrderQueue
- cursor 指向要从该WeakOrderQueue中回收对象
- pre指向cursor的前一个WeakOrderQueue
- Recycler # DefaultHandle pop()
- scavenge() 从别的回收线程中拿回对象返回
- scavengeSome
- WeakOrderQueue cursor = this.cursor; 获取当前需要回收的WeakOrderQueue
- cursor.transfer(this) 将WeakOrderQueue中的对象回收到当前stack中,每次回收都是获取一个WeakOrderQueue的一个Link,一个Link中包含多个handle,一次回收回收Queue的一个link的多个对象
- Link head = this.head; 拿到当前link的头节点
- if (head.readIndex == LINK_CAPACITY) { link的读指针已经是当前link的大小,表示当前link的对象已经被全部取走了
- this.head = head = head.next; 将head指向head的下一个节点(之前的head节点会被丢弃)
- final int srcStart = head.readIndex; 拿到当前link的读指针
- int srcEnd = head.get(); 表示Link.get() 拿到当前link中缓存对象的个数,每次缓存一个对象,该数字会加1
- int srcSize = srcEnd - srcStart; 表示Link中还有多少个对象剩余
- final DefaultHandle[] srcElems = head.elements; 获取到Link的Handle数组,缓存对象的数组
- final DefaultHandle[] dstElems = dst.elements; 获取到stack的Handle数组,缓存对象的数组
- for (int i = srcStart; i < srcEnd; i++) { 从Link的readIndex开始遍历到Link的容量大小
- if (element.recycleId == 0) { ==> element.recycleId = element.lastRecycledId; recyleId等于0表示当前元素没有被回收过,将当前元素的recycleId 设值,表示被回收过了
- DefaultHandle element = srcElems[i]; 拿到Link的handle缓存对像
- srcElems[i] = null 将Link的当前元素置为null
- dstElems[newDstSize ++] = element; 追加到stack的element数组中
- WeakOrderQueue next = cursor.next; 获取到cursor的next,下一个WeakOrderQueue
- cursor.owner.get() == null WeakOrderQueue 所属的回收线程不存在了,需要做清理工作,将不存在的线程中的缓存对象全部转移到stack中
- if (cursor.hasFinalData()) { ==> cursor.transfer(this) 如果有对象,就死循环一直回收直到获取不到数据
- prev.next = next; 将当前WeakOrderQueue进行释放
- prev = cursor; cursor = next; 将cursor指针移到下一个WeakOrderQueue
Netty设计模式应用
- 单例模式
- ReadTimeoutException, MqttEncoder
-
public final class ReadTimeoutException extends TimeoutException {
private static final long serialVersionUID = 169287984113283421L;
public static final ReadTimeoutException INSTANCE = new ReadTimeoutException();
private ReadTimeoutException() { }
}
public final class MqttEncoder extends MessageToMessageEncoder<MqttMessage> {
public static final MqttEncoder INSTANCE = new MqttEncoder();
private MqttEncoder() { }
}
- 策略模式
-
public class Strategy {
private Cache cacheMemory = new CacheMemoryImpl();
private Cache cacheRedis = new CacheRedisImpl();
public interface Cache {
boolean add(String key, Object object);
}
public class CacheMemoryImpl implements Cache {
@Override
public boolean add(String key, Object object) {
return false;
}
}
public class CacheRedisImpl implements Cache {
@Override
public boolean add(String key, Object object) {
return false;
}
}
public Cache getCache(String key) {
if (key.length() < 10) {
return cacheRedis;
}
return cacheMemory;
}
}
- DefaultEventExecutorChooserFactory # newChooser
- if (isPowerOfTwo(executors.length)) { 如果是2的幂次方(对自增取模的方法做了优化)
- return new PowerOfTowEventExecutorChooser(executors);
- else
- return new GenericEventExecutorChooser(executors);
- 装饰者模式
- WrappedByteBuf 装饰 ByteBuf
- UnreleasableByteBuf 不支持释放的ByteBuf
- SimpleLeakAwareByteBuf 内存泄漏感知的ByteBuf
- ResourceLeak 跟踪内存泄漏
- release 方法 ==> leak.close();
- 观察者模式
-
public void write(NioSocketChannel channel, Object object) {
ChannelFuture channelFuture = channel.writeAndFlush(object);
channelFuture.addListener(future -> {
if (future.isSuccess()) {
} else {
}
});
channelFuture.addListener(future -> {
if (future.isSuccess()) {
} else {
}
});
channelFuture.addListener(future -> {
if (future.isSuccess()) {
} else {
}
});
}
- AbstractChannelHandlerContext# writeAndFlush(Object msg)
- writeAndFlush(msg, newPromise())
- newPromise() 创建一个被观察者
- new DefaultChannelPromise(channel(), executor());
- return promise; 返回观察者
- channelFuture.addListener 给被观察者添加一个观察者
- DefaultChannelPromise # addListener
- DefaultPromise # addListener
1. addListener0(listener)
2.
if (listeners == null) {
listeners = listener;
} else if (listeners instanceof DefaultFutureListeners) {
((DefaultFutureListeners) listeners).add(listener);
} else {
listeners = new DefaultFutureListeners((GenericFutureListener<? extends Future<V>>) listeners, listener);
}
- HeadContext # write ==> unsafe.write(msg, promise);
- 失败通知
- safeSetFailure(promise, WRITE_CLOSED_CHANNEL_EXCEPTION)
- promise.tryFailure(cause)
- DefaultPromise # tryFailure
- notifyListeners(); ==> notifyListenersNow(); ==> notifyListeners0((DefaultFutureListeners) listeners);
- l.operationComplete(future); 通知到用户的方法
- 正常通知
- outboundBuffer.addMessage(msg, size, promise);
- Entry entry = Entry.newInstance(msg, size, total(msg), promise); 将观察者添加到Entry中
- HeadContext # flush ==> unsafe.flush(); ==> flush0();
- ChannelOutboundBuffer # remove
- ChannelPromise promise = e.promise; 拿到被观察者
- safeSuccess(promise);
- PromiseNotificationUtil.trySuccess(promise, null, logger);
- p.trySuccess(result)
- DefaultPromise # trySuccess
- notifyListeners();
- 迭代器模式
- CompositeByteBuf # forEachByte
- AbstractByteBuf # forEachByte
- Component c = findComponent(index); 获取到当前元素属于CompositeByteBuf 中的哪个组件
- c.buf.getByte(index - c.offset) 获取组件中的byte数据
- 责任链模式
- ChannelHandler (责任处理器接口)
- ChannelPipeline (链表结构的创建者)
- ChannelHandlerContext 上下文
- 终止传播,不调用ctx.fireChannelRead 就表示不往下进行传播
Netty高并发性能调优
单机百万连接构建
- ulimit - n 一个系统一个进程最多打开多少个文件数
- cat /proc/sys/fs/file-max 一个系统最多能打开的文件数
-
Netty应用级别性能调优
- 将处理的业务逻辑放到线程池中处理,测试指定线程池的大小
- ch.pipeline().addLast(businessGroup, ServerBusinessHandler.INSTANCE); 处理业务逻辑的时候指定线程池