【网络】:再谈传输层(TCP)

本文详细阐述了TCP协议的各个关键部分,包括长度和窗口大小、序号和确认号、标记位、紧急指针、三次握手、超时重传机制、连接管理、流量控制、滑动窗口、延迟应答、拥塞控制以及面向字节流的概念,还讨论了粘包问题及其解决方案。
摘要由CSDN通过智能技术生成

TCP全称为 “传输控制协议(Transmission Control Protocol”). 人如其名, 要对数据的传输进行一个详细的控制;

一.TCP协议格式段

在这里插入图片描述

1.TCP长度和窗口大小

4位TCP头长度:报头的长度,虽然TCP报头固定有20个字节,但是由于不确定是否有选项,所以需要一个长度数据来记录报头究竟有多长。它虽然只有4个比特位大小,但是它每一位代表4个字节,也就是说它最多可以表示60个字节。所以TCP如何将有效载荷和报头进行分离呢?就是固定长度+自描述字段。操作系统首先读取20个字节固定长度,再用TCP头长度减去20个字节,再读取剩下字节数。

16位窗口大小:进行流量控制。如果一个服务器的接收缓冲区已经满了,而另一个服务器还在不停的发送报文,很明显这些报文就会被丢弃,也就出现了丢包问题,为了解决这个问题,TCP设置了一个窗口大小来告诉服务器减少发送报文的频率。更具体些,TCP是全双工的,每当服务器给客户端发一次消息时,客户端会对服务器进行一次响应,所以窗口大小本质是告诉对方自己的接收缓冲区剩余的空间,从而让对方进行速度控制。

2.序号和确认号

TCP服务器每发送一次报文,就会有一次应答,如果一段时间没有收到应答,那么就认为发送失败,再进行重发。但是很明显这样一问一答效率低下,很多时候都是客户端一次发送大量数据,只要服务器对每一条报文进行应答即可。但这样又有个新问题,就是服务器接收到的报文可能是乱序的,为了解决这个问题,TCP将每个字节的数据都进行了编号. 即为序号。

在这里插入图片描述

在这里插入图片描述

而为了确认响应是对应的哪一个请求,TCP就又设置了一个确认序号。这个确认序号是收到的序号+1,为什么加1呢?是为了告诉发送方在此之前的数据已经全部接收到了。这样做的好处是,即使之前的响应丢失了,但后面有响应,就代表之前的也接收到了。例如:只收到了3001响应,未收到1001,2001响应,但发送方依然知道3001之前的数据已经全部接收了。

为什么既要有序号也要有确认序号呢?如果只是为了响应用一个不就行了吗?因为一条报文它可能不仅是响应,也可能是请求。也就是TCP可以在发送请求时顺带进行响应,所以当它进行响应时,就是要确认序号,在进行请求时就使用序号。

3.标记位

一个服务器在同一时刻会收到大量的信息,有些信息是建立连接,有些是断开连接,有些是正常通信…为了区分这些功能,TCP报头设置了六个(有些是八个,这里主要说六个)标记位来进行区分。

ACK:确认序号是否有效。主要用来确认该报文是一个确认报文。
SYN: 请求建立连接; 我们把携带SYN标识的称为同步报文段 。
URG: 紧急指针是否有效
PSH: 提示接收端应用程序立刻从TCP缓冲区把数据读走
RST: 对方要求重新建立连接; 我们把携带RST标识的称为复位报文段
FIN: 通知对方, 本端要关闭了

4.紧急指针

在正常TCP通信中,TCP需要保证数据的有序传输,所以数据必须进行排队。如果有紧急数据需要优先处理的话,就需要用到16位紧急指针了。

首先要设置URG为1,表示紧急指针有效,紧急指针里的数字代表该数据的偏移量。紧急数据默认只能有一个字节。

二.三次握手

握手流程:客户端发起建立连接请求,服务器收到请求后,确认该序号有效并且对客户端进行响应连接,接着客户端再对服务器发起确认,表示接收到连接。

在这里插入图片描述

客户端在三次握手中,认为第三次报文发出后,就已经连接成功了。但第三次报文由于没有应答,所以客户端并不知道第三次报文是否发送成功,所以有可能第三次报文并未发送成功。服务器未收到应答,就认为连接失败。这样服务器和客户端就形成了认知差,客户端继续向服务器发送报文,服务器收到后就能推测出自己第三次报文未发送成功,服务器就会设置Rst位,发送报文给客户端,告诉它第三次握手还未成功,让客户端重新发起连接。

在这里插入图片描述

三.超时重传机制

主机A在给主机B发送请求后并未得到响应,主机A并不知道该报文是否成功发送到主机NB,可能由于多种原因造成未接收到响应,例如:数据丢包,应答丢包…

在这里插入图片描述

如果主机A在一个特定时间间隔内没有收到B发来的确认应答, 就会进行重发。因此主机B可能会收到很多重复数据. 那么TCP协议需要能够识别出那些包是重复的包, 并且把重复的丢弃掉.去重的效果. 这时候我们可以利用前面提到的序列号。

那么, 如果超时的时间如何确定?

最理想的情况下, 找到一个最小的时间, 保证 "确认应答一定能在这个时间内返回".
但是这个时间的长短, 随着网络环境的不同, 是有差异的.
如果超时时间设的太长, 会影响整体的重传效率;
如果超时时间设的太短, 有可能会频繁发送重复的包;

TCP为了保证无论在任何环境下都能比较高性能的通信, 因此会动态计算这个最大超时时间

Linux中(BSD Unix和Windows也是如此), 超时以500ms为一个单位进行控制, 每次判定超时重发的超时时间都是500ms的整数倍.
如果重发一次之后, 仍然得不到应答, 等待 2*500ms 后再进行重传.
如果仍然得不到应答, 等待 4*500ms 进行重传. 依次类推, 以指数形式递增.
累计到一定的重传次数, TCP认为网络或者对端主机出现异常, 强制关闭连接.

四.连接管理机制

在正常情况下, TCP要经过三次握手建立连接, 四次挥手断开连接。

在这里插入图片描述

三次握手:

[SYN_SEND] 同步发送状态。
[CLOSED -> LISTEN] 服务器端调用listen后进入LISTEN状态, 等待客户端连接。
[LISTEN -> SYN_RVCD] 同步接收状态。
[SYN_RCVD -> ESTABLISHED] 服务端一旦收到客户端的确认报文, 就进入ESTABLISHED状态, 可以进行读写数据了。连接建立成功
  1. 对于客户端发出第三次的ACK代表握手成功,对于服务器收到ACK代表握手成功。
  2. connect只负责发起握手,至于细节并不过多参与。
  3. accept并不参与握手,它只负责获取已经建立好的连接。
  4. listen第二个参数代表底层已经建立好队列的最大长度。一个服务器同时可能收到多个连接,而accept一次只能拿走一个连接,那么剩余的连接势必就要被服务器管理起来,而这个管理方法就是使用队列。(注意连接本身的属性也会被描述成一个结构体,从而进行管理,所以管理连接,就是管理这些结构体)
  5. 服务器不会长时间维护SYN_RCVD,被链接的一方,处于半连接状态。

为什么有三次握手

  1. 验证全双工是否通畅。因为是第三次才完全建立连接,就保证了在建立连接前,服务器和客户端都进行了一次收和一次发。
  2. 防止SYN洪水。连接的建立是需要消耗资源的。假设只进行一次握手,如果客户端不断的发起SYN却不进行通信,导致大量的连接闲置,就会造成资源浪费;而三次连接的话,如果客户端只发送SYN,那么连接就不会建立成功,这样资源消耗更少。
  3. 保护了服务器的稳定性。假设进行两次握手,就势必会让服务器先建立连接,如果当服务器建立连接后,客户端出现异常并未建立连接,那么服务器未收到响应,就会长时间维护连接,直到长时间无响应才会断开,很明显是浪费资源的。如果是三次握手,就会由客户端先建立连接,如果第三次ACK丢失,服务器此时并未建立连接,这样就把资源的损失嫁接给了客户端,从而保护了服务器的稳定性。

四次挥手

[ESTABLISHED -> FIN_WAIT_1] 客户端主动调用close时, 向服务器发送结束报文段, 同时进入FIN_WAIT_1;
[FIN_WAIT_1 -> FIN_WAIT_2] 客户端收到服务器对结束报文段的确认, 则进入FIN_WAIT_2, 开始等待服务器的结束报文段
[FIN_WAIT_2 -> TIME_WAIT] 客户端收到服务器发来的结束报文段, 进入TIME_WAIT, 并发出LAST_ACK;
[TIME_WAIT -> CLOSED] 客户端要等待一个2MSL(Max Segment Life, 报文最大生存时间)的时间, 才会进入CLOSED状态
  1. TCP协议规定,主动关闭连接的一方要处于TIME_ WAIT状态,等待两个MSL(maximum segment lifetime)的时间后才能回到CLOSED状态
  2. MSL在RFC1122中规定为两分钟,但是各操作系统的实现不同, 在Centos7上默认配置的值是60s。
  3. 可以通过 cat /proc/sys/net/ipv4/tcp_fin_timeout 查看msl的值。
  4. 也就意味着在这段时间内的port依然在被使用,bind在此时无法绑定该端口。
  5. 当然可以使用setsockodp函数进行绑定,即使处于TIME_WAIT状态也能够绑定。
  6. 为什么有TIME_WAIT呢?1.为了让通信双方历史数据得以消散;2.让4次挥手具有较好的容错性。

在这里插入图片描述

五.流量控制

接收端处理数据的速度是有限的. 如果发送端发的太快, 导致接收端的缓冲区被打满, 这个时候如果发送端继续发送,就会造成丢包, 继而引起丢包重传等等一系列连锁反应。

因此TCP支持根据接收端的处理能力, 来决定发送端的发送速度. 这个机制就叫做流量控制(FlowControl)。

1.接收端将自己可以接收的缓冲区大小放入 TCP 首部中的 "窗口大小" 字段, 通过ACK端通知发送端;
2.窗口大小字段越大, 说明网络的吞吐量越高;
3.接收端一旦发现自己的缓冲区快满了, 就会将窗口大小设置成一个更小的值通知给发送端;发送端接受到这个窗口之后, 就会减慢自己的发送速度;
4.如果接收端缓冲区满了, 就会将窗口置为0; 这时发送方不再发送数据, 但是需要定期发送一个窗口探测数据段, 使接收端把窗口大小告诉发送端

在这里插入图片描述

六.滑动窗口

发送缓冲区可以分为三个部分,而中间的已发送但未确认区就是滑动窗口区

在这里插入图片描述

1.窗口大小指的是无需等待确认应答而可以继续发送数据的最大值 .
2.操作系统内核为了维护这个滑动窗口, 需要开辟 发送缓冲区 来记录当前还有哪些数据没有应答; 只有确认应答过的数据, 才能从缓冲区删掉;
3.窗口越大, 则网络的吞吐率就越高。

情况一:应答ACK丢失

在这里插入图片描述

这种情况下, 部分ACK丢了并不要紧, 因为可以通过后续的ACK进行确认;可以根据最新的ACK应答调整窗口大小。

2.情况二:数据包丢失

如果在上面的图中,接收方收到了200,300,500,600的报文,但未收到400的报文,怎么办呢?

根据确认序号的定义:表示已经收到该序号之前的报文,所以如果400未收到,接收方就不会发送400和500,600的ACK,滑动窗口也会停在300,代表300-400的报文未收到。

那么如何进行补发呢?

1.当某一段报文段丢失之后, 发送端会一直收到401这样的ACK, 就像是在提醒发送端 "我想要的是401"一样;
2.如果发送端主机连续三次收到了同样一个 “401” 这样的应答, 就会将对应的数据300-400重新发送;
3.这个时候接收端收到了401之后, 再次返回的ACK就是了601,因为400-600接收端其实之前就已经收到了, 被放到了接收端操作系统内核的接收缓冲区中;

这种机制被称为 “高速重发控制”(也叫 “快重传”)。

既然有了快重传,为什么还会有超时重传呢?

因为快重传是有条件的,它需要连续收到三次同样的应答。如果到了通讯末期,不能保证发送方能收到三次应答,所以就需要超时重传。

窗口大小是可以发生变化的,它的大小取决于对方接受能力,有效数据,拥塞窗口的最小值。

七.延迟应答

如果接收数据的主机立刻返回ACK应答, 这时候返回的窗口可能比较小。

假设接收端缓冲区为1M. 一次收到了500K的数据; 如果立刻应答, 返回的窗口就是500K;
但实际上可能处理端处理的速度很快, 10ms之内就把500K数据从缓冲区消费掉了;
在这种情况下, 接收端处理还远没有达到自己的极限, 即使窗口再放大一些, 也能处理过来;
如果接收端稍微等一会再应答, 比如等待200ms再应答, 那么这个时候返回的窗口大小就是1M.

窗口越大, 网络吞吐量就越大, 传输效率就越高. 我们的目标是在保证网络不拥塞的情况下尽量提高传输效率.

那么所有的包都可以延迟应答么? 肯定也不是

数量限制: 每隔N个包就应答一次;
时间限制: 超过最大延迟时间就应答一次;

具体的数量和超时时间, 依操作系统不同也有差异; 一般N取2, 超时时间取200ms;

八.拥塞控制

拥塞窗口是判断网络健康程度的指标。

虽然TCP有了滑动窗口这个大杀器, 能够高效可靠的发送大量的数据. 但是如果在刚开始阶段就发送大量的数据, 仍然可能引发问题。

因为网络上有很多的计算机, 可能当前的网络状态就已经比较拥堵. 在不清楚当前网络状态下, 贸然发送大量的数据,是很有可能引起雪上加霜的。

TCP引入慢启动机制, 先发少量的数据, 探探路, 摸清当前的网络拥堵状态, 再决定按照多大的速度传输数据;

此处引入一个概念程为拥塞窗口
发送开始的时候, 定义拥塞窗口大小为1;
每次收到一个ACK应答, 拥塞窗口加1;
每次发送数据包的时候, 将拥塞窗口和接收端主机反馈的窗口大小做比较, 取较小的值作为实际发送的窗口;

像上面这样的拥塞窗口增长速度, 是指数级别的。

"慢启动" 只是指初使时慢, 但是增长速度非常快.
为了不增长的那么快, 因此不能使拥塞窗口单纯的加倍.
此处引入一个叫做慢启动的阈值,当拥塞窗口超过这个阈值的时候, 不再按照指数方式增长, 而是按照线性方式增长

在这里插入图片描述

  1. 当TCP开始启动的时候, 慢启动阈值等于窗口最大值;
  2. 在每次超时重发的时候, 慢启动阈值会变成原来的一半, 同时拥塞窗口置回1;

少量的丢包, 我们仅仅是触发超时重传; 大量的丢包, 我们就认为网络拥塞;
当TCP通信开始后, 网络吞吐量会逐渐上升; 随着网络发生拥堵, 吞吐量会立刻下降;
拥塞控制, 归根结底是TCP协议想尽可能快的把数据传输给对方, 但是又要避免给网络造成太大压力的折中方案。

九.面向字节流

创建一个TCP的socket, 同时在内核中创建一个 发送缓冲区 和一个 接收缓冲区:

  1. 调用write时, 数据会先写入发送缓冲区中;
  2. 如果发送的字节数太长, 会被拆分成多个TCP的数据包发出;
  3. 如果发送的字节数太短, 就会先在缓冲区里等待, 等到缓冲区长度差不多了, 或者其他合适的时机发送出去;
  4. 接收数据的时候, 数据也是从网卡驱动程序到达内核的接收缓冲区;
  5. 然后应用程序可以调用read从接收缓冲区拿数据;
  6. 另一方面, TCP的一个连接, 既有发送缓冲区, 也有接收缓冲区, 那么对于这一个连接, 既可以读数据, 也可以写数据. 这个概念叫做全双工

由于缓冲区的存在, TCP程序的读和写不需要一一匹配:

  1. 写100个字节数据时, 可以调用一次write写100个字节, 也可以调用100次write, 每次写一个字节;
  2. 读100个字节数据时, 也完全不需要考虑写的时候是怎么写的, 既可以一次read 100个字节, 也可以一次read一个字节, 重复100次,取决于应用层;
  3. 缓冲区不断接收数据,上层不断从缓冲区里获取数据,这样就像是数据在流动,又因为数据的读取和发送单位是字节,也被称为面向字节流。
  4. 而UDP不同的是它每发送一次,就必须接收一次,这就被称为面向报文。

在这里插入图片描述

十.粘包问题

首先要明确, 粘包问题中的 “包” , 是指的应用层的数据包。在TCP的协议头中, 没有如同UDP一样的 “报文长度” 这样的字段, 但是有一个序号这样的字段。站在传输层的角度, TCP是一个一个报文过来的.,按照序号排好序放在缓冲区中。站在应用层的角度, 看到的只是一串连续的字节数据。那么应用程序看到了这么一连串的字节数据, 就不知道从哪个部分开始到哪个部分, 是一个完整的应用层数据包.

那么如何避免粘包问题呢? 归根结底就是一句话, 明确两个包之间的边界。

实际上解决这个问题是在应用层,想想http是如何确认是否是一个完整的报文的。

  1. 对于定长的包, 保证每次都按固定大小读取即可; 例如上面的Request结构, 是固定大小的, 那么就从缓冲区从头开始按sizeof(Request)依次读取即可;
  2. 对于变长的包, 可以在包头的位置, 约定一个包总长度的字段, 从而就知道了包的结束位置;
  3. 对于变长的包, 还可以在包和包之间使用明确的分隔符(应用层协议, 是程序猿自己来定的, 只要保证分隔符不和正文冲突即可);
  • 34
    点赞
  • 27
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

咸蛋挞

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值