Netty 1. 领域知识点

1.1 如何切换三种I/O模式

  • 阻塞与非阻塞:
    数据就绪前是否等待:
    阻塞:没有数据传过来时,读会阻塞知道有数据;缓冲区满时,写操作也会阻塞,非阻塞遇到上述情况都是直接返回
  • 同步与异步:
    数据就绪后,数据操作谁完成:
    数据就绪后自己读是同步,数据就绪直接读好在回调给程序是异步
  • netty对三种I/O模式的支持:
    NioEventLoopGroup EpollEventLoopGroup
    NioEventLoop EpollEventLoop
    NioServerSocketChannel EpollServerSocketChannel 工厂模式+泛型+反射
    NioSocketChannel EpollSocketChannel
  • 为什么服务器开发不需要切换客户端对应NioSocketChannel
  • SeverSocketChannel负责创建对应的SocketChannel

1.2 如何支持三种Reactor

  • Reactor 是一种开发模式,模式的核心流程:注册感兴趣的事件->扫描是否有感兴趣的事件发生->事件发生后做出相应的处理
  • clent/Server -> SocketChannel/ServerSocketChannel -> OP_ACCEPT/OP_CONNECT/OP_WRITE/OP_READ
  • client socketChannel y y y
  • server ServerSocketChannel y
  • server SocketChannel y y
  • 三种版本 :
    Thread-Per-Connection模式:
    单线程 EventLoopGroup eventGroup = new NioEventLoopGroup(1)
    多线程 EventLoopGroup eventGroup = new NioEventLoopGroup()
    主从多线程 EventLoopGroup bossGroup = new NioEventLoopGroup()
    EventLoopGroup workerGroup = new NioEventLoopGroup()
  • Netty 如何支持主从Reactor模式:
  • Netty的main reator大多并不能用到一个线程组
  • Netty给Channel分配NIO event loop的规则是什么
  • 通用模式的NIO实现多路复用器怎么跨平台

1.3 TCP 粘包/半包

  • 什么时粘包和半包
    发送:ABC DEF
    接收:ABCDEF AB CD EF
    • 粘包的主要原因:
      发送方每次写入数据 < 套接字缓冲区大小
      接收方读取套接字缓冲区数据不够及时
    • 半包:
      发送方写入数据 > 套接字缓冲区大小
      发送的数据大于协议的MTU(Maximum Transmission Unit, 最大传输单元) 必须拆包
    • 收发:一个发送可能被多次接收,多个发送可能被一次接收
    • 传输:一个发送可能占用多个传输包,多个发送可能公用一个传输包
    • 根本原因:TCP是流式协议,消息无边界
      UDP像邮寄的包裹,虽然一次运输多个,但每个包裹都有“界限”,一个一签收,所以无粘包,半包问题
    • 解决问题:
      找出消息的边界:
      tcp 改成短连接,一个请求一个短连接:
      封装成帧:固定长度 满足固定长度即可 空间浪费
      分割符之间 空间不浪费 内容本省出现分隔符时需要转义,所以需要扫描内容
      精确定位用户数据 长度理论上有限制,需提前预知可能的最大长度,从而定义长度占用字节数
      Netty对三种封帧的支持:
      固定长度 FixedLengthFrameDecoder
      分割符 DelimiterBasedFrameDecoder
      固定长度字段内存内容的长度信息 LengthFieldBasedFrameDecoder 解码:LengthFieldPrepender
  • 源码解析:
    解码核心工作流程:
    解码中两种数据积累器(Cumulator)的区别:
    三种解码器的常用额外控制参数

1.4 常用的“二次”编解码方式

  • 为什么需要二次编解码
    解决粘包,半包问题的编解码器位一次编解码,结果是字节,需要和项目中所使用的对象做转化,称为二次编解码
    一次解码器:ByteToMessageDecodre io.netty.buffer.ByteBuf(原始数据流) -> io.netty.buffer.ByteBuf(用户数据)
    二次解码器:MessageToMessageDecoder io.netty.buffer.ByteBuf(用户数据) -> Java Object
  • 常用的二次编解码方式
    一步到位:耦合性高,不容易置换方案
    Java序列化 Marshaling XML JSON MessagePack Protobuf
  • 选择编解码方式的要点
    空间:编码后占用空间
    时间:编解码速度
    是否追求可读性 多语言支持
  • Protobuf简介与使用
    Protobuf是一个灵活的,高效的用于序列化数据的协议
    相比较XML和JSON格式,Protobuf更小,更快,更便捷
  • Netty对二次编解码的支持
    Protobuf编解码如何使用及原理
    自带那些编解码
    io.netty.handler.codec.base64/bytes/compression/json/marshalling/protoburf/serialization/string/xml

1.5 keepalive 与 idle 监测

  • 为什么需要keepalive和Idle
    服务器应用问题:
    对端异常“崩溃”
    对端在,但处理不过来
    对端在,但不可达
    后果:连接已坏,但是还在浪费资源维持,下次直接用会报错
  • 如何设计keepalive,以TCP keepalive为例:
    TCP keepalive核心参数:
    #sysctl -a | grep tcp_keepalive
    net.ipv4.tcp_keepalive_time=7200
    net.ipv4.tcp_keepalive_intvl=75
    net.ipv4.tcp_keepalive_probes=9
    注释:当启用(默认关闭)keepalive时,TCP在连接没有数据通过的7200秒后发送keepalive消息,当探测没有确认时,按75秒的重试频率重发,一直发9个探测包都没有确认,就认定连接失效
    总耗时:7200秒 + 75秒 * 9次
  • 为什么需要应用层keepalive:
    协议分层,各层关注点不同:
    传输层关注是否“通”,应用层关注是否可服务
    TCP层的keepalive默认关闭,且经过路由等中转设备keepalive包可能会被丢弃
    TCP层的keepalive事件太长,默认>2小时,虽然可改,但属于系统参数,改动影响所有应用
    http属于应用层,http keep-alive指的是堆长连接和短连接的选择
  • Idle监测,只是负责诊断,诊断后做出不同的行为,决定Idle监测的最终用途:
    发送keepalive:一般用来配合keepalive,减少keepalive消息
    keepalive设计:V1定时keepalive消息 -> V2 空闲监测 + 判定位Idle时才发keepalive
    直接关闭连接
    快速释放损坏的,恶意的,很久不用的连接,让系统时刻保持最好的状态
    简单粗暴,客户端可能需要重连
    结合使用,按需keepalive,保证不会空闲,如果空闲,关闭连接

1.6 Netty 的 “锁”

  • 分析同步问题的核心三要素:
    原子性 可见性 有序性
  • 锁的分类
    对竞争的态度:
    乐观锁(java.util.concurrent包中的原子类) 与 悲观锁(Synchronized)
    等待锁是否公平:公平锁(new ReentrantLock(true)) 与 非公平锁new ReentrantLock()
    是否可以共享:共享锁与独享锁:ReadWriteLock,其读锁是共享锁,其写锁是独享锁
  • Netty锁的5个关键点
    • 1.在意锁的对象和范围 ->减少粒度
      初始化channel(io.netty.bootstrap.ServerBootstrap#init)
      Synchronized method -> Synchronized block
    • 2.注意锁的对象本身大小 ->减少空间占用
      统计待发送的字节数(io.netty.channel.ChannelOutboundBuffer
      AtomicLong -> Volatile long + AtomicLongFieldUpdater)
      AtomicLong & Long:
      前者是一个对象,包含对象头(object header)以用来保存hashcode lock等信息,32位系统占用8字节 64位系统占16字节
    • 3.注意锁的速度 ->提高速度
      记录内存分配字节数等功能用到的LongCounter(io.netty.util.internal.PlatformDependent#newLongCountre())
      高并发时:java.util.concurrent.atomic.AtomicLong -> java.util.concurrent.atomic.LongAdder
      ConcurrentHashMap
    • 4.不同场景选择不同的并发类 ->因需而变
      关闭和等待关闭事件执行器(Event Executor)
      Object.wait/notify -> CountDownLatch
      io.netty.util.concurrent.SingleThreadEventExecutor#threadLock
      Nio Event loop中负责存储task的Queue
      Jdk’s LinkedBlockingQueue(MPMC) -> jctool’s MPSC
      io.netty.util.internal.PlatformDependent.Mpsc$newMpscQueue(int):
    • 5.衡量好锁的价值 ->能不用则不用
      局部串行:Channel的I/O请求处理Pipeline是串行的
      整体并行:多个串行化的线程NioEventLoop
      Netty应用场景下:局部串行+整体并行 > 一个队列+多个线程模式
      降低开发难度,逻辑简单,提升处理性能
      避免锁带来的上下文切换和并发保护等额外开销
      避免用锁:用ThreadLocal来避免资源争用,Netty轻量级线程池实现
      io.netty.util.Recycler#threadLocal

1.7 Netty 内存使用

  • 内存使用技巧的目标
    内存占用少
    应用速度快
    对Java而言 减少Full GC 的STW(Stop the world)
  • 减小对象本省大小
    用基本类型就不用包装类
    应该定义成类变量就不要定义成实例变量
    io.netty.channel.ChannelOutboundBuffer 统计待写的请求的字节数
  • 对分配内存进行预估
    对于已经可以预知固定size的HashMap避免扩容 可以提前计算好初始size或者直接使用:
    com.google.common.collect.Maps#newHashMapWithExpectedSize
    Netty根据接收到的数据动态调整(guess)下个要分配的Buffer的大小
    io.netty.channel.AdaptiveRevcByteBufAllocator
  • Zero-Copy
    使用逻辑组合,代替实际复制
    COmpositeByteBuf
    io.netty.handler.codec.ByteToMessageDecoder#COMPOSITE_CUMULATOR
    使用包装,代替实际复制
    byte[] bytes = data.getBytes();
    ByteBuf byteBuf = Unpolled.wrappedBuffer(bytes)
    调用JDK的zero-copy接口:
    Netty中也通过在DefaultFileRegion中包装了NIO的FileChannel.transferTo()方法实现了零拷贝
    io.netty.channel.DefaultFileRegion#transferTo
  • 堆外内存
    JVM内部 -> 堆(heap) + 非堆(non heap)
    JVM外部 -> 堆外(off heap)
    优点:更广阔的空间 破除堆空间限制,减轻GC压力
    减少冗余细节 避免复制
    缺点:创建速度慢
    堆外内存收操作系统管理
  • 内存池
    为什么引入:
    创建对象开销大
    对象高频创建且可复用
    支持并发又能保护系统
    维护共享有限的资源
    如何实现:
    Apache Commons Pool
    Netty轻量级对象池实现 io.netty.util.Recycler
  • 源码解读:
    怎么从堆外存切换到堆内使用
    参数设置:io.netty.noPreferDirect = true;
    传入构造参数:new UnpolledByteBufAllocator(false);
    堆外存的分配本质
    ByteBuffer.allocateDirect(initialCapacity)
    内存池/非内存池的默认选择及切换方式
    io.netty.channel.DefaultChannelConfi#allocator
    内存池实现 (以PooledDirectByteBuf为例)
    io.netty.buffer.PooledDirectByteBuf
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值