浅谈长连接保活机制

12 篇文章 3 订阅

前言

在日常工作中,我们经常会接触到长连接这个概念,例如一些RPC框架(如Dubbo)、网络通信框架(Netty)等,都会涉及到长连接的概念,我们来探究一下长连接是如何保活的。

长连接&短连接

首先我们要知道,TCP本身是没有长连接和短连接的区分的,长短与否完全取决于我们怎么用它。

长连接和短连接的简单区分如下:

  • 短连接:每次通信时,创建新的socket;一次通信结束,调用 socket.close()关掉socket。这就是一般意义上的短连接,短连接的好处是管理起来比较简单,存在的连接都是可用的连接,不需要额外的控制手段。
  • 长连接:每次通信完毕后,不会关闭连接,这样可以做到连接的复用。长连接的好处是省去了创建连接的耗时。

短连接和长连接的优势,分别是对方的劣势。想要图简单,不追求高性能,使用短连接合适,这样我们就不需要操心连接状态的管理;想要追求性能,使用长连接,我们就需要担心各种问题:比如端对端连接的维护,连接的保活。

长连接还常常被用来做数据的推送,我们大多数时候对通信的认知还是 request/response 模型,但 TCP 双工通信的性质决定了它还可以被用来做双向通信。在长连接之下,可以很方便的实现push模型,我们的手机消息push,就是通过建立一条手机与服务器的连接链路(长连接),当有消息需要发送到手机时,通过此链路发送即可。 比如iOS的APNS。

长连接的维护

在一个分布式系统中,客户端请求的服务可能分布在多个服务器上,客户端自然需要跟对端创建多条长连接,我们遇到的第一个问题就是如何维护这些长连接。

/** 
 * 客户端
 */
public class NettyHandler extends SimpleChannelHandler {
	// <ip:port, channel>
    private final Map<String, Channel> channels = new ConcurrentHashMap<String, Channel>();
}
/** 
 * 服务端
 */
public class NettyServer extends AbstractServer implements Server {
	// <ip:port, channel>
    private Map<String, Channel> channels;
}

在dubbo中,客户端和服务端都使用ip:port维护了端对端的长连接,在连接建立完成后,会将Channel存放到集合中,Channel便是对连接的抽象。我们主要关注NettyHandler中的长连接,服务端同时维护一个长连接的集合是Dubbo的额外设计,我们将在后面提到。

这里解释下为什么我们主要关注NettyHandler中的长连接。TCP是一个双向通信的协议(全双工),任一方都可以是发送者,接收者,那为什么还抽象了Client和Server呢?因为建立连接需要有主动发起的一方,Client可以理解为主动建立连接的一方,实际上两端的地位可以理解为是对等的。

连接的保活

首先我们要理解,为什么需要连接的保活?当双方已经建立了连接,但因为网络问题,链路不通,这样长连接就不能使用了。需要明确的一点是,通过netstat,lsof 等指令查看到连接的状态处于ESTABLISHED状态并不是一件非常靠谱的事,因为连接可能已死,但没有被系统感知到,更不用提假死这种疑难杂症了。如何保证长连接可用是一个比较复杂的事情。

KeepAlive

首先想到的是TCP中的KeepAlive机制。KeepAlive并不是TCP协议的一部分,但是大多数操作系统都实现了这个机制(所以需要在操作系统层面设置KeepAlive的相关参数)。KeepAlive机制开启后,在一定时间内(一般时间为7200s,参数tcp_keepalive_time)在链路上没有数据传送的情况下,TCP层将发送相应的KeepAlive探针以确定连接可用性,探测失败后重试10(参数 tcp_keepalive_probes)次,每次间隔时间75s(参数 tcp_keepalive_intvl),所有探测失败后,才认为当前连接已经不可用。

在Netty中开启KeepAlive:

bootstrap.option(ChannelOption.SO_KEEPALIVE, true)

Linux操作系统中设置KeepAlive相关参数,修改/etc/sysctl.conf文件:

net.ipv4.tcp_keepalive_time=90
net.ipv4.tcp_keepalive_intvl=15
net.ipv4.tcp_keepalive_probes=2

KeepAlive机制是在网络层面保证了连接的可用性,但站在应用框架层面我们认为这还不够。主要体现在三个方面:

  • KeepAlive的开关是在应用层开启的,但是具体参数(如重试测试,重试间隔时间)的设置却是操作系统级别的,位于操作系统的/etc/sysctl.conf配置中,这对于应用来说不够灵活。
  • KeepAlive的保活机制只在链路空闲的情况下才会起到作用,假如此时有数据发送,且物理链路已经不通,操作系统这边的链路状态还是ESTABLISHED,这时会发生什么?自然会走TCP重传机制,要知道默认的TCP超时重传,指数退避算法也是一个相当长的过程。
  • KeepAlive本身是面向网络的,并不面向于应用,当连接不可用,可能是由于应用本身的GC频繁,系统load高等情况,但网络仍然是通的,此时,应用已经失去了活性,连接应该被认为是不可用的。

我们已经为应用层面的连接保活做了足够的铺垫,下面就来一起看看,怎么在应用层做连接保活。

心跳

以Dubbo为例,支持应用层的心跳,客户端和服务端都会开启一个 HeartBeatTask,客户端在HeaderExchangeClient中开启,服务端将在 HeaderExchangeServer开启。文章开头留了一个悬念:Dubbo为什么在服务端同时维护Map<String,Channel>呢?主要就是为了给心跳做贡献,心跳定时任务在发现连接不可用时,会根据当前是客户端还是服务端走不同的分支,客户端发现不可用,是重连;服务端发现不可用,是直接 close。

// HeartBeatTask
if (channel instanceof Client) {
    ((Client) channel).reconnect();
} else {
    channel.close();
}

Dubbo 2.7.x 相比 2.6.x 做了定时心跳的优化,使用 HashedWheelTimer 更加精准的控制了只在连接闲置时发送心跳。

Netty提供了IdleStateHandler可以让我们更加优雅的实现应用层心跳的机制。熟悉其他 RPC 框架的同学会发现,不同框架的心跳机制真的是差距非常大。心跳设计还跟连接创建,重连机制,黑名单连接相关,还需要具体框架具体分析。

除了定时任务的设计,还需要在协议层面支持心跳。最简单的例子可以参考 nginx 的健康检查,而针对 Dubbo 协议,自然也需要做心跳的支持,如果将心跳请求识别为正常流量,会造成服务端的压力问题,干扰限流等诸多问题。
在这里插入图片描述
其中 Flag 代表了 Dubbo 协议的标志位,一共 8 个地址位。低四位用来表示消息体数据用的序列化工具的类型(默认 hessian),高四位中,第一位为1表示是 request 请求,第二位为 1 表示双向传输(即有返回response),第三位为 1 表示是心跳事件。

心跳请求应当和普通请求区别对待。

注意和HTTP的KeepAlive区别对待
  • HTTP协议的KeepAlive意图在于连接复用,同一个连接上串行方式传递请求-响应数据
  • TCP的KeepAlive机制意图在于保活、心跳,检测连接错误。

这压根是两个概念。

KeepAlive常见错误

启用TCP KeepAlive的应用程序,一般可以捕获到下面几种类型错误:

  1. ETIMEOUT 超时错误,在发送一个探测保护包经过 (tcp_keepalive_time + tcp_keepalive_intvl * tcp_keepalive_probes)时间后仍然没有接收到 ACK 确认情况下触发的异常,套接字被关闭

    java.io.IOException: Connection timed out

  2. EHOSTUNREACH host unreachable(主机不可达)错误,这个应该是 ICMP 汇报给上层应用的。

    java.io.IOException: No route to host

  3. 连接被重置,终端可能崩溃死机重启之后,接收到来自服务器的报文,然物是人非,前朝往事,只能报以无奈重置宣告之。

    java.io.IOException: Connection reset by peer

KeepAlive实践方案
  1. 默认情况下使用 KeepAlive 周期为 2 个小时,如不选择更改,属于误用范畴,造成资源浪费:内核会为每一个连接都打开一个保活计时器,N 个连接会打开 N 个保活计时器。 优势很明显:
    • TCP 协议层面保活探测机制,系统内核完全替上层应用自动给做好了
    • 内核层面计时器相比上层应用,更为高效
    • 上层应用只需要处理数据收发、连接异常通知即可
    • 数据包将更为紧凑
  2. 关闭 TCP 的 KeepAlive,完全使用应用层心跳保活机制。由应用掌管心跳,更灵活可控,比如可以在应用级别设置心跳周期,适配私有协议。
  3. 业务心跳 + TCP KeepAlive 一起使用,互相作为补充,但 TCP 保活探测周期和应用的心跳周期要协调,以互补方可,不能够差距过大,否则将达不到设想的效果。

各个框架的设计都有所不同,例如 Dubbo 使用的是方案三,这和框架整体的设计相关。

  • 2
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值