文章目录
1. Netty的粘包与半包现象
1.1 粘包现象
-
以下代码展示了黏包现象的产生
package com.zhyn.nettyadvance; import io.netty.bootstrap.ServerBootstrap; import io.netty.channel.ChannelFuture; import io.netty.channel.ChannelHandlerContext; import io.netty.channel.ChannelInboundHandlerAdapter; import io.netty.channel.ChannelInitializer; import io.netty.channel.nio.NioEventLoopGroup; import io.netty.channel.socket.SocketChannel; import io.netty.channel.socket.nio.NioServerSocketChannel; import io.netty.handler.logging.LogLevel; import io.netty.handler.logging.LoggingHandler; import lombok.extern.slf4j.Slf4j; @Slf4j public class Server0 { public static void main(String[] args) { new Server0().start(); } public void start() { NioEventLoopGroup boss = new NioEventLoopGroup(1); NioEventLoopGroup worker = new NioEventLoopGroup(); try { final ChannelFuture channelFuture = new ServerBootstrap() .group(boss, worker) .channel(NioServerSocketChannel.class) .childHandler(new ChannelInitializer<SocketChannel>() { @Override protected void initChannel(SocketChannel ch) throws Exception { ch.pipeline().addLast(new LoggingHandler(LogLevel.DEBUG)); ch.pipeline().addLast(new ChannelInboundHandlerAdapter() { @Override // 连接建立时会执行该方法 public void channelActive(ChannelHandlerContext ctx) throws Exception { log.debug("connected {}", ctx.channel()); super.channelActive(ctx); } @Override // 连接断开时会执行该方法 public void channelInactive(ChannelHandlerContext ctx) throws Exception { log.debug("disconnect {}", ctx.channel()); super.channelInactive(ctx); } }); } }).bind(8080); log.debug("{} binding...", channelFuture.channel()); channelFuture.sync(); log.debug("{} bound", channelFuture.channel()); // 关闭channel channelFuture.channel().closeFuture().sync(); } catch (InterruptedException e) { log.error("server error", e); } finally { boss.shutdownGracefully(); worker.shutdownGracefully(); log.debug("stopped"); } } }
package com.zhyn.nettyadvance; import io.netty.bootstrap.Bootstrap; import io.netty.buffer.ByteBuf; import io.netty.channel.*; import io.netty.channel.nio.NioEventLoopGroup; import io.netty.channel.socket.SocketChannel; import io.netty.channel.socket.nio.NioSocketChannel; import lombok.extern.slf4j.Slf4j; import java.net.InetSocketAddress; @Slf4j public class Client0 { public static void main(String[] args) { NioEventLoopGroup worker = new NioEventLoopGroup(); try { ChannelFuture channelFuture = new Bootstrap() .channel(NioSocketChannel.class) .group(worker) .handler(new ChannelInitializer<SocketChannel>() { @Override protected void initChannel(SocketChannel ch) throws Exception { log.debug("connected..."); ch.pipeline().addLast(new ChannelInboundHandlerAdapter() { @Override public void channelActive(ChannelHandlerContext ctx) throws Exception { log.debug("sending..."); // 每次发送16个字节的数据,一共发送10次 for (int i = 0; i < 10; i++) { ByteBuf buffer = ctx.alloc().buffer(); buffer.writeBytes(new byte[]{ 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15}); ctx.writeAndFlush(buffer); } } }); } }) .connect(new InetSocketAddress(8080)) .sync(); channelFuture.channel().closeFuture().sync(); } catch (InterruptedException e) { log.error("client error", e); } finally { worker.shutdownGracefully(); } } }
-
输出结果:从输出结果中可以看出服务器一次就接受到了160个字节的数据,而不是分10次接收16个字节的数据,这就是黏包问题;
10:38:07 [DEBUG] [nioEventLoopGroup-3-1] i.n.h.l.LoggingHandler - [id: 0x117c169d, L:/192.168.31.158:8080 - R:/192.168.31.158:54158] READ: 160B +-------------------------------------------------+ | 0 1 2 3 4 5 6 7 8 9 a b c d e f | +--------+-------------------------------------------------+----------------+ |00000000| 00 01 02 03 04 05 06 07 08 09 0a 0b 0c 0d 0e 0f |................| |00000010| 00 01 02 03 04 05 06 07 08 09 0a 0b 0c 0d 0e 0f |................| |00000020| 00 01 02 03 04 05 06 07 08 09 0a 0b 0c 0d 0e 0f |................| |00000030| 00 01 02 03 04 05 06 07 08 09 0a 0b 0c 0d 0e 0f |................| |00000040| 00 01 02 03 04 05 06 07 08 09 0a 0b 0c 0d 0e 0f |................| |00000050| 00 01 02 03 04 05 06 07 08 09 0a 0b 0c 0d 0e 0f |................| |00000060| 00 01 02 03 04 05 06 07 08 09 0a 0b 0c 0d 0e 0f |................| |00000070| 00 01 02 03 04 05 06 07 08 09 0a 0b 0c 0d 0e 0f |................| |00000080| 00 01 02 03 04 05 06 07 08 09 0a 0b 0c 0d 0e 0f |................| |00000090| 00 01 02 03 04 05 06 07 08 09 0a 0b 0c 0d 0e 0f |................| +--------+-------------------------------------------------+----------------+
1.2 半包现象
-
将代码做以下的的修改,使得客户端代码发送 1 个消息,这个消息是 160 个字节,并将客户端-服务器之间的channel容量进行调整:
// 对客户端的修改 ByteBuf buffer = ctx.alloc().buffer(); for (int i = 0; i < 10; i++) { buffer.writeBytes(new byte[]{ 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15}); } ctx.writeAndFlush(buffer); // 对服务端的修改 // serverBootstrap.option(ChannelOption.SO_RCVBUF, 10) 实际上影响的是底层接收缓冲区(即滑动窗口)的大小 // 它仅仅决定了 netty 读取数据的最小单位,但是 netty 实际上每次读取的数据大小一般是它的整数倍 serverBootstrap.option(ChannelOption.SO_RCVBUF, 10);
-
输出结果:可以看到接收消息被分为两节,第一节为20个字节,第二节为140个字节,这就是半包现象;
10:49:36 [DEBUG] [nioEventLoopGroup-3-1] i.n.h.l.LoggingHandler - [id: 0xa1b502a3, L:/192.168.31.158:8080 - R:/192.168.31.158:54473] READ: 20B +-------------------------------------------------+ | 0 1 2 3 4 5 6 7 8 9 a b c d e f | +--------+-------------------------------------------------+----------------+ |00000000| 00 01 02 03 04 05 06 07 08 09 0a 0b 0c 0d 0e 0f |................| |00000010| 00 01 02 03 |.... | +--------+-------------------------------------------------+----------------+ 10:49:36 [DEBUG] [nioEventLoopGroup-3-1] i.n.h.l.LoggingHandler - [id: 0xa1b502a3, L:/192.168.31.158:8080 - R:/192.168.31.158:54473] READ COMPLETE 10:49:36 [DEBUG] [nioEventLoopGroup-3-1] i.n.h.l.LoggingHandler - [id: 0xa1b502a3, L:/192.168.31.158:8080 - R:/192.168.31.158:54473] READ: 140B +-------------------------------------------------+ | 0 1 2 3 4 5 6 7 8 9 a b c d e f | +--------+-------------------------------------------------+----------------+ |00000000| 04 05 06 07 08 09 0a 0b 0c 0d 0e 0f 00 01 02 03 |................| |00000010| 04 05 06 07 08 09 0a 0b 0c 0d 0e 0f 00 01 02 03 |................| |00000020| 04 05 06 07 08 09 0a 0b 0c 0d 0e 0f 00 01 02 03 |................| |00000030| 04 05 06 07 08 09 0a 0b 0c 0d 0e 0f 00 01 02 03 |................| |00000040| 04 05 06 07 08 09 0a 0b 0c 0d 0e 0f 00 01 02 03 |................| |00000050| 04 05 06 07 08 09 0a 0b 0c 0d 0e 0f 00 01 02 03 |................| |00000060| 04 05 06 07 08 09 0a 0b 0c 0d 0e 0f 00 01 02 03 |................| |00000070| 04 05 06 07 08 09 0a 0b 0c 0d 0e 0f 00 01 02 03 |................| |00000080| 04 05 06 07 08 09 0a 0b 0c 0d 0e 0f |............ | +--------+-------------------------------------------------+----------------+
1.3 对于粘包现象和半包现象的分析
-
粘包现象,发送 abc def,接收 abcdef;
-
具体原因:
- 应用层:接收方 ByteBuf 设置太大(Netty 默认 1024)
- 滑动窗口:假设发送方 256 bytes 表示一个完整报文,但由于接收方处理不及时且窗口大小足够大,这 256 bytes 字节就会缓冲在接收方的滑动窗口中,当滑动窗口中缓冲了多个报文时就会发生粘包
- Nagle 算法:TCP, IP的报头都是20个字节,哪怕我们想要传输的内容仅仅是1个字节,传输的时候也会有41个字节大小的数据,为了避免这一现象的发生,Nagle 算法会尽可能多地发送数据,所以会发生黏包现象;
-
半包现象,发送 abcdef,接收 abc def
-
具体原因:
- 应用层:接收方 ByteBuf 小于实际发送数据量;
- 滑动窗口:假设接收方的窗口只剩了 128 bytes,发送方的报文大小是 256 bytes,这时放不下了,只能先发送前 128 bytes,等待 ack 后才能发送剩余部分,这就造成了半包;
- MSS 限制:当发送的数据大小超过 MSS 限制后,会将数据切分发送,就会造成半包(localhost回环地址,也就是我们平时做测试用的本机地址对MSS几乎是没有限制,非常的大,我们自己不容易复现这个现象;补充:MTU是最大传输单元,由硬件规定,以太网的MTU为1500字节;MSS是最大分节大小,为TCP数据包每次传输的最大数据分段大小,MSS的值为MTU减去IPv4Header和TCPHeader的大小得到的);
- 本质是因为 TCP 是流式协议,消息无边界;
-
关于滑动窗口的补充:
-
TCP 以一个段(segment)为单位,每发送一个段就需要进行一次确认应答(ack)处理,这么做的缺点是包的往返时间越长性能就越差;
-
为了解决此问题,引入了窗口概念,窗口大小决定了无需等待应答而可以继续发送的数据的最大值;
-
窗口实际就起到一个缓冲区的作用,同时也能起到流量控制的作用
- 该窗口是可以滑动的,每处理完一批数据,窗口就可以向下滑动继续处理下一批数据;
- 窗口内的数据才允许被发送,当应答未到达前,窗口必须停止滑动
- 假设发送方滑动窗口的大小是1000.如果 1001~2000 这个段的数据 ack 回来了,窗口就可以向前滑动;
- 接收方也会维护一个窗口,只有落在窗口内的数据才能允许接收;
- 滑动窗口的大小一般是可调整自适应的,不需要我们可以的设置滑动窗口的大小;
- Netty对客户端默认的滑动窗口(缓冲区)大小是1024;
-
-
关于MSS的补充
- 链路层对一次能够发送的最大数据有限制,这个限制称之为 MTU(maximum transmission unit),不同的链路设备的 MTU 值也有所不同,例如以太网的 MTU 是 1500,FDDI(光纤分布式数据接口)的 MTU 是 4352,本地回环地址的 MTU 是 65535 - 本地测试不走网卡;
- MSS 是最大段长度(maximum segment size),它是 MTU 刨去 tcp 头和 ip 头后剩余能够作为数据传输的字节数;
- ipv4 tcp 头占用 20 bytes,ip 头占用 20 bytes,因此以太网 MSS 的值为 1500 - 40 = 1460;
- TCP 在传递大量数据时,会按照 MSS 大小将数据进行分割发送;
- MSS 的值在三次握手时通知对方自己 MSS 的值,然后在两者之间选择一个小值作为 MSS;
-
关于Nagle 算法的补充
- 即使发送一个字节,也需要加入 tcp 头和 ip 头,也就是总字节数会使用 41 bytes,非常不经济。因此为了提高网络利用率,tcp 希望尽可能发送足够大的数据,这就是 Nagle 算法产生的缘由;
- 该算法是指发送端即使还有应该发送的数据,但如果这部分数据很少的话,则进行延迟发送;
- 如果 SO_SNDBUF 的数据达到 MSS,则需要发送
- 如果 SO_SNDBUF 中含有 FIN(表示需要连接关闭)这时将剩余数据发送,再关闭
- 如果 TCP_NODELAY = true,则需要发送
- 已发送的数据都收到 ack 时,则需要发送
- 上述条件不满足,但发生超时(一般为 200ms)则需要发送
- 除上述情况之外,会延迟发送
1.4 解决方案
- 短链接,即发一个包建立一次连接,这样连接建立到连接断开之间就是消息的边界,缺点就是效率太低;
- 每一条消息采用固定长度,缺点浪费空间;
- 每一条消息采用分隔符,例如 \n,缺点需要转义;
- 每一条消息分为 head 和 body,head 中包含 body 的长度;
方法1:短链接
-
客户端每次向服务器发送数据以后,就与服务器断开连接,此时的消息边界为连接建立到连接断开;这时便无需使用滑动窗口等技术来缓冲数据,自然也不会发生粘包现象了;但如果一次性发送过多的数据而接收方又无法一次性容纳发送过来的所有数据,还是会发生半包现象,所以短链接无法解决半包现象;
-
客户端代码更改:修改channelActive方法并将发送步骤封装为send()方法,在这里我们调用10次send()方法模拟10次数据的发送;
package com.zhyn.nettyadvance; import io.netty.bootstrap.ServerBootstrap; import io.netty.channel.ChannelFuture; import io.netty.channel.ChannelHandlerContext; import io.netty.channel.ChannelInboundHandlerAdapter; import io.netty