TCP连接中TIME_WAIT连接过多
原则
TIMEWAIT并不是多余的 。 在TCP协议被创造, 经历了大量的实际场景实践之后 ,TIMEWAIT 出现了,因为TCP主 动关闭连接的一方需要TIMEWAIT状态,它是我们的朋友。这是 《 UNIX网络编程 》的作者----Steven对TIMEWAIT的态度。TIMEWAIT是友好的
TCP 要保证在所有可能的情况下使得所有的数据都能够被正确送达。当你关闭一个 socket 时,主动关闭一端的 socket 将进入 TIME_WAIT 状态,而被动关闭一方则转入CLOSED状态,这的确能够保证所有的数据都被传输。当一个socket关闭的时候,是通过两端四次握手完成的,当一端调用close()时,就说明本端没有数据要发送了。这好似看来在握手完成以后,socket就都可以处于初始的CLOSED状态了,其实不然。原因是这样安排状态有两个问题, 首先,我们没有任何机制保证最后的一个ACK能够正常传输,第二,网络上仍然有可能有残余的数据包(wandering duplicates),我们也必须能够正常处理。TIMEWAIT就是为了解决这两个问题而生的。
1.假设最后一个 ACK 丢失了,被动关闭一方会重发它的 FIN。 主动关闭一方必须维持一个有效状态信息(TIMEWAIT状态下维持),以便能够重发 ACK。 如果主动关闭的socket不维持这种状态而进入CLOSED状态,那么主动关闭的socket在处于CLOSED状态时, 接收到FIN后将会响应一个RST。被动关闭一方接收到RST后会认为出错了。如果TCP协议想要正常完成必要的操作而终止双方的数据流传输,就必须完全正确的传输四次握手的四个节,不能有任何的丢失。这就是为什么socket在关闭后,仍然处于TIME_WAIT状态的第一个原因,因为他要等待以便重发ACK。
2.假设 目前连接的通信双方都已经调用了 close() ,双方同时进入 CLOSED的终结状态,而没有走 TIME_WAIT 状态。会出现如下问题,现在有一个新的连接被建立起来,使用的IP地址与端口与先前的完全相同,后建立的连接是原先连接的一个完全复用。还假定原先的连接中有数据报残存于网络之中,这样新的连接收到的数据报中有可能是先前连接的数据报。为了防止这一点,TCP不允许新连接复用TIME_WAIT状态下的socket。处于TIME_WAIT状态的socket在等待两倍的MSL时间以后(之所以是两倍的MSL,是由于MSL是一个数据报在网络中单向发出到认定丢失的时间,一个数据报有可能在发送途中或是其响应过程中成为残余数据报,确认一个数据报及其响应的丢弃的需要两倍的MSL),将会转变为CLOSED状态。这就意味着,一个成功建立的连接,必然使得先前网络中残余的数据报都丢失了。
大量TIMEWAIT在某些场景中导致的令人头疼的业务 问题
大量TIMEWAIT出现,并且需要解决 的场景在高并发短连接的TCP服务器上,当服务器处理完 请求后立刻按照主动正常 关闭连接。。。这个场景下, 会出现大量socket处于 TIMEWAI T 状态。如果客户端的并发量持续很高, 此时部分客户端就会显示 连接不上。
我来解释下这个场景。 主动正常关闭TCP连接,都会出 现TIMEWAIT。为什么我们要关注这个高并发短连接呢?有两个方面需要注意 :
1. 高并发可以让服务器在短时间范围内同时 占用大量端口,而端口有个0~65535的范围,并不是很多,刨除系统和其他服务要用的,剩下的就更少了 。
2. 在这个场景中,短连接表示“业务处理+传输数据的时间 远远小于 TIMEWAIT超时的时间”的连接。这里有个相对长短 的概念,比如,取一个web页面,1秒钟的http 短连接处理完业务, 在关闭连接之后,这个业务用过的端口 会停留在TIMEWAIT状态几分钟,而这几分钟,其他HTTP请求来临的时候是无法占用此端口的 。单用这个业务计算服务器的利用率会发现,服务器干正经事的时间和端口(资源) 被挂着无法被使用的时间的比例是 1:几百,服务器资源严重浪费。(说个题外话,从这个意义出发来考虑服务器性能调优的话, 长连接业务的服务 就不需要考虑TIMEWAIT状态。同时,假如你对服务器业务场景非常熟悉,你会发现,在实际业务场景中, 一般长连接对应的业务的并发量并不会很高 )
综合这两个方面,持续的到达一定量的 高并发短连接,会使服务器因端口资源不足而拒绝为一 部分客户服务。同时,这些端口都是服务器临时分配,无法用SO_ REUSEADDR选项解决这个问题:(
一对矛盾
TIMEWAIT既友好,又令人头疼。但是我们还是要抱着一个友好的态度来看待它,因为它尽它的能力保证了服务器的健壮性。
可行而且必须存在, 但是不符合原则的解决方式
1. linux没有在sysctl或者proc文件系统暴露修改 这个TIMEWAIT超时时间的接口 ,可以修改内核协议栈代码中关于这个TIMEWAIT的超时时间参数,重编内核,让它缩短超时时间,加快回收;2. 利用SO_LINGER选项的强制关闭方式,发RST而不是FIN,来越过TIMEWAIT状态,直接进入CLOSED状态。详见我的博 文 《TCP之选项 SO_LINGER 》 。
我如何看待这个问题
为什么说上述两种解决方式我觉得可行,但是不符合原则?我首先认为,我要依靠TIMEWAIT状态来保证我的服务器程序健壮,网络上发生的乱七八糟的问题太多了,我先要服务功能正常。
那是不是就不要性能了呢?并不是。如果服务器上跑的短连接业务量到了我真的必须处理这个TIMEWAIT状态过多的问题的时候,我的原则是 尽量 处理,而不是跟TIMEWAIT干上,非先除之而后快:)如果 尽量 处理了,还是解决不了问题,仍然拒绝服务 部分请求 ,那我会采取分机器的方法 ,让多台机器来抗 这些高 并发的短 请求。持续十万并发的短连接请求,两台机器,每台5万个,应该够用了吧。一般的业务量以及国内大部分网站其实并不需要关注这个问题,一句话,达不到需要关注这个问题的访问量。
真正地必须使用 上述我认为不合理的方式 来解决这个问题的场景有没有呢?答案是有。
像淘宝、百度、 新浪、京东商城这样的站点,由于有很多静态小图片业务,如果过度分服会导致需要上线大量机器,多买机器多花钱,得多配机房,多配备运维工程师来守护这些机器,成本增长非常严重。。。这个时候就要尽一切可能去优化。
题外话,服务器上的技术问题没有绝对,一切都是为业务需求服务的。
如何 尽量 处理TIMEWAIT过多
sysctl改两个内核参数就行了,如下:net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_tw_recycle = 1
简单来说,就是打开系统的TIMEWAIT重用和快速回收,至于怎么重用和快速回收,这个问题 我没有深究,实际场景中这么做确实有效果。 用netstat或者ss观察就能得出结论。
还有些朋友同时也会打开syncookies这个功能,如下:
net.ipv4.tcp_syncookies = 1
打开这个syncookies 的 目的实际上是: “在服务器资源(并非单指端口资源,拒绝服务有很多种资源不足的情况 )不足的 情况下,尽量不要拒绝TCP的 syn(连接 )请求,尽量把syn请求缓存起来,留着过会儿有能力的时候 处理这些TCP的连接请求 ”。
如果并发量真的非常非常高,打开这个其实用处不大。