【Linux 网络】网络基础(二)(传输层协议:UDP、TCP)

负责数据能够从发送端传输接收端。

一、传输层的意义

数据从应用层下来并不是直接发送给网络,而是从网络协议栈自顶向下传输,经过传输层、网络层,数据链路层,最后通过硬件发送到网络。
前面学习了应用层的两个协议:HTTP 和 HTTPS,应用层的主要目的是为了保证数据的安全,而传输层的目的则是为了保证数据能够可靠地传送到目标地址。


二、端口号

端口号( Port) 标识了一个主机上进行通信的不同的应用程序。

1、五元组标识一个通信

因为主机上存在不同的服务,从网络中获取的数据在进行向上交付时,在传输层就会提取出该数据对应的目的端口号,进而确定该数据应该交付给当前主机上的哪一个服务进程(应用层),即一台主机上可以同时部署端口号不同的服务。

在 TCP/IP 协议中, IP”,“源端口号”,“目的 IP”,“目的端口号”,“协议号 这样一个五元组来标识一个通信。

可以通过命令:netstat -nltp 进行查看:

举例:打开浏览器后,用不同的页面访问 CSDN,虽然源 IP 地址是一样的,但是源端口号不同,就表示两个不同的通信。通过这个五元组,服务器能够准确的区分请求是从哪里来的。

通信流程

  1. 先提取出数据当中的目的 IP 地址目的端口号,确定该数据是发送给当前服务进程的。
  2. 然后提取出数据当中的协议号,为该数据提供对应类型的服务。
  3. 最后提取出数据当中的源 IP 地址源端口号,将其作为响应数据的目的 IP 地址和目的端口号,将响应结果发送给对应的客户端进程。

2、端口号范围划分

端口号是一个 16 位的整数,它的取值范围是 0~65535

  • 0~1023:知名端口号。比如 HTTP,FTP,SSH 等这些广为使用的应用层协议,它们的端口号都是固定的。(类比 120 或 110)
  • 1024~65535:操作系统动态分配的端口号。客户端程序的端口号就是由操作系统从这个范围分配的,允许用户手动绑定。

3、知名端口号(Well-Know Port Number)

有些服务器是非常常用的,为了使用方便,人们约定一些常用的服务器,都是用以下这些固定的端口号:

  • ssh 服务器使用 22 端口
  • ftp 服务器使用 21 端口
  • telnet 服务器使用 23 端口
  • http 服务器使用 80 端口
  • https 服务器使用 443


(1)查看端口号

可以通过命令 vim /etc/services 查看文件内容,该文件是记录网络服务名和它们对应使用的端口号及协议。

当自己写一个程序使用端口号时, 要避开这些知名端口号。

4、绑定端口号数目问题

一个进程可不可以 bind 多个端口号?

可以。假设绑定了两个端口号 A 和 B,这两个端口号标识的是同一个进程 ,这与端口号用来标识进程的唯一性并不冲突。

一个端口号是否可以被多个进程 bind?

不行,因为端口号的作用就是标识唯一的一个进程。

如果绑定了多个进程,如何找到对应的进程呢?所以如果绑定一个已经被绑定的端口号就会出现绑定失败的问题。


5、pidof & netstat 命令

(1)netsate 命令

netstat   是一个用来查看网络状态的重要工具。

A. 常用选项
  • n:拒绝显示别名,能显示数字的全部转化成数字。
  • l:仅列出有在 Listen(监听)的服务状态。
  • p:显示建立相关链接的程序名(进程:process)。
  • t(tcp):仅显示 tcp 相关选项。
  • u(udp):仅显示 udp 相关选项。
  • a(all):显示所有选项,默认不显示 LISTEN 相关。


(2)pidof 命令

通过进程名来查看服务器进程的 pid。

注意:这里的 xargs 将标准输入的内容转换成命令行参数,也就是把从管道读取的数据拼接到 kill -9 的后边。


三、UDP 协议

1、UDP 协议段格式

  • 16 位源端口号:表示数据从哪里来。
  • 16 位目的端口号:表示数据要到哪里去。
  • 16 位 UDP 长度:表示整个数据报(UDP 首部 + UDP 数据)的最大长度。
  • 16 位 UDP 检验和:如果UDP报文的检验和出错,就会直接将报文丢弃。

为什么我们前面在应用层编写代码的时候,每一次写端口号都喜欢用 uint16_t 呢?

其根本原因就是因为传输层协议中的端口号就是 16 位的。

send 数据并不是直接发送到网络里,而是发给了传输层。

如何将报头和有效载荷进行分离?

UDP 采用的是固定报头,UDP 的报头中只包含四个字段,每个字段的长度都是 16 位,总共 8 字节,所以直接提取前 8 个字节就是报头,其他的就是有效载荷。

UDP 具有将报文一个个正确接收的能力,UDP 是面向数据报的。

UDP 如何交付?(有效载荷交给上层的哪一个协议?)

应用层每个进程都绑定有端口号,UDP 就是通过报头当中的目的端口号来找到对应的应用层进程的,把有效载荷交出去。


2、UDP 报文

这里的报头其实就是一种结构化数据对象(位段):

struct udp_hdr
{
    uint16_t src_port;  // 源端口
    uint16_t dsc_port;  // 目的端口
    uint16_t udp_len;   // UDP长度
    uint16_t udp_check; // 校验和
};

(1)UDP 数据封装过程

首先要知道应用层 sendto 数据是发给传输层的。

创建一块内存,计算出有效载荷的起始地址,拷贝有效载荷,强转填写报头部分,最后形成 UDP 报文。


(2)UDP 数据交付过程

因为是定长报头,直接取出目的端口号,把有效载荷向上交付给指定协议(进程)。


3、UDP 的特点

UDP 传输的过程类似于寄信。

  • 无连接:知道对端的 IP 和端口号就直接进行传输,不需要建立连接。
  • 不可靠:没有确认机制,没有重传机制。如果因为网络故障该段无法发到对方,UDP 协议层也不会给应用层返回任何错误信息。
  • 面向数据报:不能够灵活的控制读写数据的次数和数量。

(1)面向数据报

举例理解:别人发了三个快递,那么我们就一定要收到三个,不会出现只收到一个,一个半这样的情况。如果只有一个包裹,那我们也不能只拿走一半。

结论:发送了一个报文,要么不读,要么 recvfrom 等到读取完一整个报文再返回。

应用层交给 UDP 多长的报文,UDP 原样发送,既不会拆分,也不会合并。

用 UDP 传输 100 个字节的数据:如果发送端调用一次 sendto,发送 100 字节,那么接收端也必须调用对应的一次recvfrom,接收100个字节;而不能循环调用10次recvfrom,每次接收10个字节。


4、UDP 的缓冲区

  • UDP 没有真正意义上的发送缓冲区因为它没有可靠机制,不需要把数据暂存起来。它直接调用 sendto 会直接交给内核,由内核将数据传给网络层协议进行后续的传输动作。
  • UDP 具有接收缓冲区。但是这个接收缓冲区不能保证收到的 UDP 报的顺序和发送 UDP 报的顺序一致,如果缓冲区满了,再到达的 UDP 数据就会被丢弃。
UDP 的 socket 既能读,也能写,所以是 全双工 的。
为什么 UDP 要有缓冲区?

如果 UDP 没有接收缓冲区,那么就要求上层及时将 UDP 获取到的报文读取上去,如果一个报文在 UDP 没有被读取,那么此时 UDP 从底层获取上来的报文数据就会被迫丢弃。


5、UDP 传输最大长度

UDP 协议首部中有一个 16 位的最大长度,因此一个 UDP 能传输的数据最大长度是 64K(包含 UDP 报头的大小)。

然而 64K 在当今的互联网环境下是一个非常小的数字,如果我们要传输的数据大于 64K,就需要在应用层进行手动分包,多次发送并在接收端进行手动拼装。


6、基于 UDP 的应用层协议

  • NFS:网络文件系统
  • TFTP:简单文件传输协议
  • DHCP动态主机配置协议
  • BOOTP:启动协议(用于无盘设备启动)
  • DNS:域名解析协议
当然 也包括我们自己写  UDP  程序时自定义的应用层协议。

四、TCP 协议(传输控制协议

TCP Transmission Control Protocol),它 要对数据的传输进行一个详细的控制。

1、TCP 协议段格式

(1)TCP 报头当中各个字段的含义

  1. /目的端口号:表示数据是从哪个进程来,到发送到对端主机上的哪个进程。
  2. 32 位序号 / 32 位确认号:分别代表 TCP 报文当中每个字节数据的编号以及对对方的确认,是 TCP 保证可靠性的重要字段。
  3. TCP报头长度:表示该 TCP 报头的长度 —— TCP 头部有多少个 32 位 bit(有多少个 字节),所以 TCP 头部最大长度是 15 * 4 = 60
  4. 6 位标志位:TCP 报头中暂时未使用的 6 个比特位。
  5. 16 位窗口大小:保证 TCP 可靠性机制和效率提升机制的重要字段。
  6. 16 位检验和:由发送端填充,采用 CRC 校验。接收端校验不通过,则认为接收到的数据有问题。(检验和包含 TCP 首部 + TCP 数据部分)
  7. 16 位紧急指针:标识哪部分数据是紧急数据,就是标识紧急数据在报文中的偏移量,需要配合标志字段当中的 URG 字段统一使用。
  8. 选项字段:TCP 报头当中允许携带额外的选项字段,最多 40 字节。

TCP报头当中的 6 位标志位:

  • URG:紧急指针是否有效。
  • ACK:确认号是否有效。
  • PSH:提示接收端应用程序立刻从TCP缓冲区把数据读走。
  • RST:对方要求重新建立连接; 我们把携带RST标识的称为复位报文段
  • SYN:请求建立连接; 我们把携带SYN标识的称为同步报文段
  • FIN:通知对方, 本端要关闭了, 我们称携带FIN标识的为结束报文段

(2)4 位头部长度

这里有 4 个比特位,按照正常的计算取值范围就是【0~15】,但很明显有问题,因为报头最少要为 20 字节。所以,规定 TCP 报头当中的 4 位首部长度描述的基本单位是 4 字节,这样取值范围就是【0~60】,所以整个报头的大小范围是【20~60】,那么报头中选项字段的长度最多是 40 字节。计算可得,4 位首部长度取值范围是【5~15】,转换成二进制就是【0101~1111】。

TCP 如何将报头与有效载荷进行分离?

观察 TCP 协议格式,报文部分把选项除去一共是 20 字节。那么可以先提取 20 字节,再根据标准报头,提取其中的 4 位首部长度,再将首部长度 *4 就表示的是报头的大小,如果结果等于 20,说明把报头读完了,否则没读完,这时再读取前面的结果 -20 的长度对应的字节数据,这时就把选项读完了,也就读完了报头。读取完 TCP 的基本报头和选项字段后,剩下的就是有效载荷了。


有效载荷如何向上交付?

因为应用层的每个进程都会绑定一个端口号:服务端显示绑定一个端口号,客户端由操作系统自动绑定一个端口号。上面把报头提取了出来,而报头里含有目的端口,就可以向上找到对应的协议了。

补充:内核中用哈希的方式维护了端口号与进程 ID 之间的映射关系,因此传输层可以通过端口号快速找到其对应的进程 ID,进而找到对应的应用层进程。绑定映射关系的时机:bind 端口的时候。


(3)TCP 报头

跟前面讲的 UDP 报头一样,TCP 报头是一个结构化对象,也是内核创建一块内存,后边就拷贝有效载荷,前面就强转成结构化数据然后填写每个字段。


(4)序号与确认序号

A. 理解可靠性
a. 造成不可靠的原因

现在计算机基本都是基于冯诺依曼体系结构,虽然这些设备都在同一台机器上,但它们都是独立的硬件设备,如果它们之间想要进行数据交互,就必须要进行通信。因此这几个设备实际是用 “线” 连接起来的,其中连接内存和外设之间的 “线” 叫做 IO 总线,而连接内存和 CPU 之间的 “线” 叫做系统总线

而在一台机器内,这些 “线” 的长度很短,所以传输数据发生错误的概率很小,但是如果要通信的两个机器相隔很远(网络),那么传输数据出错(丢包)的概率也会大大增加,所以网络传输的不可靠问题本质就是距离变长了


b. 不可靠问题场景
  • 丢包
  • 乱序(网络阻塞)
  • 校验错误(比特位翻转)
  • 重复
  • ......

如何保证自己说的话对方听到了呢?

得到对方的回复(应答),只有收到了应答,才能保证历史消息被对方收到了。只有确认了应答,才算可靠。

而双方通信一定会存在最新消息,最新发送消息的一方无法保证发送出去的数据被对方收到。所以,没有绝对的可靠性,只有相对的可靠性。在网络中不存在 100% 可靠的协议,但在局部上(发出去的消息有匹配的应答),能做到 100% 可靠。

TCP 保证可靠性的机制之一就是确认应答机制,只要一个报文收到了对应的应答,就能保证发出去的数据被对方收到了。

所以双方进行通信时可能除了正常的数据段,还会包含确认数据段。

上图是双方通信使用串行方式,即只有收到了确认应答才会继续发送数据。这样的效率是非常低的。但实际工作中并不会这样,而是一方同时发送多条数据段,只要保证所有数据段都有应答即可:

但这些数据段到达对面的顺序不一定就是发送的顺序。比如,发送了四个数据段,结果只收到了三个确认应答,那客户端是如何知道哪个数据段发送失败了呢?

因为任何一方都会收到报文,报文中会携带序号,根据报文收到的多个序号进行排序,报文也就可以按序到达。


B. 32 位序号

解决上面的问题靠的就是 TCP 报头中的 32 位序号字段,将请求和应答进行一一对应

TCP 将发送出去的每个数据段都进行了编号,这个编号叫作序列号,以此保证了传递数据段的有序性。

每一个 ACK 都带有对应的确认序列号,意思是告诉发送者,我已经收到了哪些数据,下一次你从哪里开始发。举例:假设现在要发送 4000 字节的数据,分 4 次发送,就需要发送 4 个 TCP 报文。此时这 4 个 TCP 报文中的 32 位序号填的就是发送数据中首个字节的序列号,因此分别填的是 1、1001、2001 和 3001。

当主机 B 接收到这 4 个 TCP 报文时,就可以利用这 4 个报头中的序号字段进行排序。


C. 32 位确认序号

TCP 报头当中的 32 位确认序号是告诉对端,我当前已经收到了哪些数据,你的数据下一次应该从哪里开始发

比方说客户端发送的数据段的序号是 1,报文中含有 1000 字节的数据,如果服务端收到了,那么就会把返回给客户端的响应报头中的32位确认序号填写成 1001,那么这个 1001 就有两层含义:

  1. 告诉主机 A,序列号在 1001 之前的字节数据我已经收到了。
  2. 告诉主机 A,下次向我发送数据时应该从序列号为 1001 的字节数据开始进行发送。 

通过序号和确认序号可以表示:接收方已经收到 ACK 序号(确认序号)之前的所有(连续)报文,告诉对方下次发送从确认序号指明的序号发送,允许部分确认丢失或者不给应答

举例:发送的数据都是 1000 字节大小:

如果序号 1001 的数据段没有传递到主机 B,其他的传递到了主机 B,那么 1001 之后的数据段的确认序号都只能填写 1001,这表明的就是序列号在 1001 之前的数据段都被收到了。


为什么要有两组序号?为什么不能把 32 位序号和 32 位确认序号压缩为一个字段,发送的时候就填序号,返回的时候就填确认序号?

如果一端发送数据,一端接收数据当然可以使用这种方式,但任何通信的一方的工作方式都是 TCP 全双工的,双方可能同时要给对方发送消息,也就是说在发送确认时可能携带新的数据。

双方发出的报文当中,不仅需要填充 32 位序号来表明自己当前发送数据的序号,还需要填充 32 位确认序号,对对方上一次发送的数据进行确认,告诉对方下一次应该从哪一字节序号开始进行发送。


(5)16 位窗口大小

TCP 是有发送缓冲区和接收缓冲区。

  • 当上层调用 write/send,并不是把数据直接 write/send 到网络中,实际上是把应用层中的数据拷贝到发送缓冲区。
  • 当上层调用 read/recv,实际上是把数据拷贝到接收缓冲区。

从本质上来说,TCP 通信是双方在进行通信时,发送方的发送缓冲区和接收方的接收缓冲区,以及接收方的发送缓冲区和发送方的接收缓冲区,两个缓冲区之间来回拷贝。

这就会导致两种情况:

  1. 发送数据过快,导致接收缓冲区被打满,剩下的报文都会被丢弃掉。
  2. 发送数据过慢,影响到上层的业务处理。
Client 发送数据不能太快,也不能太慢。那如何保证发送方发送数据不要太快或太慢呢?

TCP 要控制传输速度,所以发送方必须要知道对方缓冲区的接收能力,接收方要给发送方同步自己的接收能力,也就是接收缓冲区剩余空间的大小,这种策略称为 “流量控制”。

接收能力由什么来决定?

接收方的接收缓冲区中剩余空间的大小。

如何知道对方缓冲区的剩余空间呢?

通过 16 位窗口的字段填写发送方的剩余缓冲区的大小,也就是当前主机接收数据的能力,那么接收方知道了以后就会调整发送速度。

  • 窗口大小字段越大,说明接收端接收数据的能力越强,此时发送端可以提高发送数据的速度。
  • 窗口大小字段越小,说明接收端接收数据的能力越弱,此时发送端可以减小发送数据的速度。
  • 如果窗口大小的值为 0,说明接收端接收缓冲区已经被打满了,此时发送端就不应该再发送数据了。

补充:因为窗口有 16 位,所以窗口最大的内存位 64k。如果数据量太大了就可以用选项字段的一些选项把窗口扩大。


(6)六个标志位

为什么需要多个标志位?

TCP 的报文也是有类型的,比方说正常通信的常规报文,建立连接时发送的报文,断开连接发送的报文,确认报文,其它类型的报文等。
针对这些不同类型的报文需要有对应的动作,比方说如果收到的是正常通信的报文,就需要把数据放到缓冲区中,如果收到的是建立连接的报文,就要进行三次握手。
六个标志位就是为了区分不同报文的类型


A. SYN

报文当中的 SYN 被设置为1,表明该报文是一个连接建立的请求报文
只有在连接建立阶段,SYN 才被设置,正常通信时 SYN 不会被设置。


B. FIN

报文当中的 FIN 被设置为 1,表明该报文是一个断开连接的请求报文
只有在断开连接阶段,FIN 才被设置,正常通信时 FIN 不会被设置。


C. ACK

确认应答标志位,凡是该报文具有应答特征,那么其中的 ACK 都会被设置为 1,大部分的网络报文 ACK 都被设置为 1,表明该报文可以对收到的报文进行确认。
一般除了第一个请求报文没有设置 ACK 以外,其余报文基本都会设置 ACK,第一个连接请求报文在历史上,客户端给服务器从来没有发送过数据,那么这个报文就不具备任何的 ACK 数据。

因为发送出去的数据本身就对对方发送过来的数据具有一定的确认能力,因此双方在进行数据通信时,可以顺便对对方上一次发送的数据进行响应。


D. RST

reset,报文当中的 RST 被设置为 1,表示需要让对方重新建立连接
在通信双方在连接未建立好的情况下,一方向另一方发数据,此时另一方发送的响应报文当中的 RST 标志位就会被置 1,表示要求对方重新建立连接。
还有一种情况是服务端网线被拔了,连接被断开了,但客户端不知道,他还会发消息,这时服务端就会把 RST 设置为 1,让客户端建立一个新连接。


E. PSH

push,报文当中的 PSH 被设置为 1,是在告诉对方上层尽快去取走数据
因为可能接收方的窗口值比较小,而发送发就需要阻塞等待接收方取走缓冲区的数据后才能发送,那么此时就可以用 PSH 标志位来催促。


F. URG & 16 位紧急指针

紧急标志位,报文当中 URG 被设置为 1,是告诉对方这个数据是要特殊尽快处理
因为 TCP 是可靠传输,具有按序到达机制的(优点),所以数据段一定是有序的被接收方收到,但是如果有数据段想要插队就可以设置 URG

并不是说这个数据段的有效载荷的所有部分都要被紧急处理,可能只是一小部分,那么怎么找到位置呢?

TCP 报头有一个字段是紧急指针,它填写的是偏移量,就可以找到紧急数据。

因为紧急指针只有一个,它只能标识数据段中的一个位置,因此紧急数据只能发送一个字节。

URG 一般用来发送带外数据,它不用走 TCP 流,因为接收方直接处理。比方说我们现在发了很多数据,对方正在处理,但是我们突然发现不需要这些数据了,此时就可以发送紧急带外数据,把套接字关了。


2、确认应答(ACK)机制

TCP 保证可靠性的机制之一就是确认应答机制。

确认应答机制是靠 TCP 报头中的 32 位序号和 32 位确认序号实现的,收到的确认应答说明该序号之前的数据全部被收到了。

如何理解 TCP 将每个字节的数据都进行了编号?

可以把 TCP 的发送缓冲区看成一个 char sendbuffer[NUM] 样的数组,当把应用层的数据拷贝到发送缓冲区时,每个字节的数据就天然的有了一个编号(下标),只不过这个下标不是从 0 开始的,而是从 1 开始往后递增的

发送方发送数据时报头当中所填的序号,实际上就是发送的若干字节数据当中,首个字节数据在发送缓冲区当中对应的下标
接收方接收到数据进行响应时,响应报头当中的确认序号实际上就是接收缓冲区中接收到的最后一个有效数据的下一个位置所对应的下标
当发送方收到接收方的响应后,就可以从下标为确认序号的位置继续进行发送了


(1)超时重传机制

A. 丢包的两种情况
a. 情况一

发送的数据报文丢失了,此时发送端在一定时间内收不到对应的响应报文,就会进行超时重传

  • 主机 A 发送数据给 B 之后,可能因为网络拥堵等原因,数据无法到达主机 B。
  • 如果主机 A 在一个特定时间间隔内没有收到 B 发来的确认应答,就会进行重发

b. 情况二

对方发来的响应报文丢包了,此时发送端也会因为收不到对应的响应报文,而进行超时重传但是主机 未收到 发来的确认应答,也可能是因为 ACK 丢失了。

因此主机 会收到很多重复数据那么 TCP 协议需要能够识别出那些包是重复的包,并且把重复的丢弃掉,这时候就可以利用前面提到的序列号,就可以很容易做到去重(通过序号)的效果


c. 总结
  • 当出现丢包情况的时候,发送方是不会知道究竟是数据段发送的时候丢包了,还是确认应答的时候丢包,所以发送方只能进行超时重传
  • 如果是第二种丢包情况,接收方就可能会收到一份同样的数据。因为重复的报文也是不可靠的一种,所以主机 B 需要进行去重(通过序号)。

因为需要超时重传,所以数据发送出去后不会立即清除,而是保留一段时间,直到收到该数据的响应报文后,发送缓冲区中的这部分数据才可以被删除或覆盖。


B. 超时重传的等待时间
我们是通过超时来判断是否丢包的,那如果超时的话,时间该如何确定?

我们知道数据发送的时间是由网络状况决定的,而网络会因为环境的变化不断变化,所以超时重传的时间一定不是固定的

超时时间是无法固定的。最理想的情况下,找到一个最小的单元时间,保证确认应答一定能在这个时间内返回。但是这个时间的长短随着网络环境的不同是有差异的,如果超时时间设的太长会影响整体的重传效率,如果超时时间设的太短可能会频繁发送重复的包。所以,超时的时间不能太长,也不能太短

TCP 为了保证无论在任何环境下都能比较高性能的通信,因此会动态计算这个最大超时时间。

Linux 中(BSD Unix 和 Windows 也是如此),超时以 500ms 为一个单位进行控制,每次判定超时重发的超时时间都是 500ms 的整数倍。如果重发一次之后,仍然得不到应答,等待 2*500ms 后再进行重传。如果仍然得不到应答,等待 4*500ms 进行重传,依次类推,以指数形式递增。当累计到一定的重传次数后,TCP 认为网络或者对端主机出现异常,强制关闭连接。


3、连接管理机制

(1)面向连接相关概念

面向连接是通过要连接的两台主机分别在自己的主机上开辟一块区域,然后通过 TCP 协议来共同维护这两块区域,来实现网络传输的可靠性。所以,面向连接就是为了保证数据的可靠性。

再对比一下面向无连接理解一下,UDP 协议就是典型的无连接协议,在两台主机之间网络通信时,不需要知道目标主机 ip 和目标端口是否存在,可以按照定义的 ip 和端口直接发送到网络中,而面向连接则是先根据给定的目标 ip 和端口号发送到网络中一些消息来确认目标主机是否存在,如果不存在则不能完成接下来的网络通信。

所以,面向连接是需要先建立连接才能进行网络通信的,建立连接就是确定对方存在并协商好一些控制量来确保接下来的通信是可靠的。


A. 无连接协议和面向连接协议的概念

无连接协议中的分组被称为数据报,每个分组都是独立寻址,并由应用程序发送的。从协议的角度来看,每个数据报都是一个独立的实体,与在两个相同的对等实体之间传送的任何其他数据报都没有关系,这就意味着协议很可能是不可靠的。也就是说,网络会尽最大努力传送每一个数据报,但并不保证数据报不丢失、不延迟或者不错序传输。
另一方面,面向连接的协议则维护了分组之间的状态,使用这种协议的应用程序通常都会进行长期的对话。记住这些状态,协议就可以提供可靠的传输。比如,发送端可以记住哪些数据已经发送出去了但还未被确认,以及数据是什么时候发送的。如果在某段时间间隔内没有收到确认,发送端可以重传数据。接收端可以记住已经收到了哪些数据,并将重复的数据丢弃。如果分组不是按序到达的,接收端可以将其保存下来,直到逻辑上先于它的分组到达为止。
典型的面向连接协议有三个阶段:

  1. 第一阶段,在对等实体间建立连接。
  2. 接下来是数据传输阶段,在这个阶段中,数据在对等实体间传输。
  3. 最后,当对等实体完成数据传输时,连接被拆除。

一种标准的类比是,使用无连接协议就像寄信,而使用面向连接的协议就像打电话。


(2)理解连接

因为有大量的 Client 将来可能连接 Server,所以 Server 端一定会存在大量的连接。

OS 需要管理这些连接吗?

需要,先描述,再组织。

所谓的连接,本质其实就是内核的一种数据结构类型,建立连接成功时,就是在内存中创建对应的连接对象,再对多个连接对象进行某种数据结构的组织。

维护连接是有成本的(内存 + CPU)


TCP为什么要建立连接?

因为要保证可靠性,连接不能直接保证可靠性。只要建立了连接,就会有连接结构体,里面包含了超时重传、按序到达、流量控制、拥塞控制等等策略以及通信状态和报文属性等。连接结构体就是保证数据可靠性的基础,而三次握手是建立连接结构体的基础,所以三次握手间接的保证了可靠性。而 UDP 不需要通信状态以及报文属性等等,所以不需要建立连接。


(3)三次握手

双方在进行 TCP 通信之前都需要先建立连接,建立连接的这个过程我们称之为三次握手

为什么下图中,连接的那条线不是横着画过去,而是斜着画的呢?

因为有一个隐形的成本 —— 时间。服务端接收的时间一定晚于客户端发送的时间。

  • 第一次握手:客户端向服务器发送的报文当中的 SYN 位被设置为 1,表示请求与服务器建立连接。
  • 第二次握手:服务器收到客户端发来的连接请求报文后,紧接着向客户端发起连接建立请求并对客户端发来的连接请求进行响应,此时服务器向客户端发送的报文当中的 SYN 位和 ACK 位均被设置为 1。
  • 第三次握手:客户端收到服务器发来的报文后,得知服务器收到了自己发送的连接建立请求,并请求和自己建立连接,最后客户端再向服务器发来的报文进行响应。​​​​​​​

建立连接时不是 100% 成功的,三次握手中的任何一次都有可能出现丢包的情况,前两次握手是能够保证被对方收到的,因为它们都有应答,如果没有的话,大不了超时重传。

如果是第三次 ACK 应答丢了呢?

当客户端发送 ACK 应答的一瞬间,它就会认为三次握手已经建立成功了,此时如果 ACK 应答丢了,此时就会连接建立失败,但是不用担心。

假设服务端没有收到应答,那么它就会重传第二次握手,客户端就会意识到连接没有被建立成功。除此之外,就算客户端已经发送了数据,因为只有三次握手成功了才能发送消息,所以服务端就会返回 RST 报文要求客户端重新建立连接。


一次或两次握手能否行得通?

一次握手就是客户端发送连接请求后就认为连接建立好了,服务端就会维护这个连接。那么如果客户端写一个多线程来不断地向服务端发送连接请求,服务端就会认为这些连接都建立好了,服务端就会维护这些连接。如果连接过多就会导致资源被占满,这个情况被称为 “SYN 洪水”。其次也无法验证全双工通信信道是通畅的(客户端无法保证自己发送了消息被服务端收到),所以一次握手是不可能完成连接的。
在第二次握手发出报文时,服务端就认为连接建立好了,客户端可能压根就没收到这个报文,所以就会产生一次握手同样的问题(SYN 洪水)。其次也无法验证全双工通信信道是通畅的(服务端不能证明自己能发送消息被对方收到)。

上面两种情况会导致单机攻击服务器的本质原因是,客户端还没有建立连接时服务端已经建立好连接了,所以必须让客户端先建立连接,再让服务端建立连接。


为什么要三次握手?
  • Server 可以嫁接同等的成本给 Client
  • 验证全双工

​​​​​​​三次握手是用最小的成本验证全双工通信信道是通畅的。

要想服务端建立连接,客户端必须先建立连接,所以可以有效的规避单主机对服务器攻击问题。


A. ddos 攻击

注意:三次握手并不能解决安全问题,比方说大量的主机同时发送 TCP 请求也会导致服务端崩溃。

假设黑客黑掉了很多主机同时给服务端发送 TCP 连接请求:

此时再有客户端发送连接请求,服务端就提供不了服务了(连不上),这种攻击手段就是 ddos 攻击(服务拒绝攻击)


四次握手行不行?

可以,但没必要,会降低效率。
服务端是把第二次握手的 SYN 和 ACK 分开发送,既然这两个可以合并发送就没有必要分开分两次来发送。

所以,出于优化的目的,四次握手中的第二、三次可以合并为一次


B. 三次握手的状态变化

​​​​​​​

最开始的时候,客户端和服务器都处于 CLOSED 状态。

  1. 服务器为了能够接收客户端发来的连接请求,需要由 CLOSED 状态变为 LISTEN 状态。
  2. 此时客户端就可以向服务器发起三次握手了,当客户端发起第一次握手后,状态变为SYN_SENT状态。
  3. 处于LISTEN状态的服务器收到客户端的连接请求后,将该连接放入内核等待队列中,并向客户端发起第二次握手,此时服务器的状态变为 SYN_RCVD。
  4. 当客户端收到服务器发来的第二次握手后,紧接着向服务器发送最后一次握手,此时客户端的连接已经建立,状态变为 ESTABLISHED。
  5. 而服务器收到客户端发来的最后一次握手后,连接也建立成功,此时服务器的状态也变成 ESTABLISHED

​​​​​​​C. 套接字和三次握手之间的关系

在客户端发起连接建立请求之前,服务器需要先进入 LISTEN 状态,此时就需要服务器调用对应 listen 函数设置套接字属性。当服务器进入 LISTEN 状态后,客户端就可以向服务器发起三次握手了,此时客户端对应调用的就是 connect 函数。

注意connect 函数不参与底层的三次握手,connect 函数的作用只是发起三次握手。

当 connect 函数返回时,要么是底层已经成功完成了三次握手连接建立成功,要么是底层三次握手失败。如果服务器端与客户端成功完成了三次握手,此时在服务器端就会建立一个连接,但这个连接在内核的等待队列当中,服务器端需要通过调用 accept 函数将这个建立好的连接获取上来。当服务器端将建立好的连接获取上来后,双方就可以通过调用 read/recv 函数和 write/send 函数进行数据交互了。


(4)四次挥手

由于双方维护连接都是需要成本的,因此当双方 TCP 通信结束之后就需要断开连接,断开连接的这个过程我们称之为四次挥手

哪边不想给对方发消息了就要发送断开连接请求,比如说客户端要断开连接:

  • 客户端发送断开连接请求,服务端返回 ACK 应答,这就已经两次挥手了。
  • 服务端也要断开连接,发送请求,客户端返回 ACK 应答,一共就是四次挥手。
既然前面客户端已经说明不给服务端发送数据了,为什么后边还会发送确认应答呢?

这里的不发送数据的数据指的是用户数据(应用层不发数据了),但并不代表底层没有报文交互。

注意:这里的二三次挥手是有可能合并为一次的。


A. 四次挥手时的状态变化

在挥手前客户端和服务器都处于连接建立后的 ESTABLISHED 状态。

  1. 客户端为了与服务器断开连接主动向服务器发起连接断开请求,此时客户端的状态变为 FIN_WAIT_1。
  2. 服务器收到客户端发来的连接断开请求后对其进行响应,此时服务器的状态变为 CLOSE_WAIT。
  3. 当服务器没有数据需要发送给客户端的时,服务器会向客户端发起断开连接请求,等待最后一个 ACK 到来,此时服务器的状态变为 LASE_ACK。
  4. 客户端收到服务器发来的第三次挥手后,会向服务器发送最后一个响应报文,此时客户端进入 TIME_WAIT 状态。
  5. 当服务器收到客户端发来的最后一个响应报文时,服务器会彻底关闭连接,变为 CLOSED 状态。
  6. 而客户端则会等待一个 2MSL(Maximum Segment Lifetime,报文最大生存时间)才会进入 CLOSED 状态。

B. 套接字和四次挥手之间的关系
  • 客户端发起断开连接请求,对应就是客户端主动调用 close 函数关闭套接字。
  • 服务器发起断开连接请求,对应就是服务器主动调用 close 函数关闭套接字。

一个 close 对应的就是两次挥手,双方都要调用 close,因此就是四次挥手

  • 主动断开连接的一方最终状态是 TIME_WAIT。
  • 被动断开连接的一方两次挥手完成后的状态是 CLOSE_WAIT。

a. CLOSE_WAIT 状态

双方在进行四次挥手时,如果只有客户端调用了 close 函数,而服务器不调用 close 函数(不会发送 FIN),此时服务器就会进入 CLOSE_WAIT 状态,而客户端则会进入到 FIN_WAIT_2 状态。

如果发现服务器具有大量的 CLOSE_WAIT 状态的连接时,是什么原因导致的呢?

如果服务器没有主动关闭对应的不需要的文件描述符 sockfd,此时在服务器端就会存在大量处于 CLOSE_WAIT 状态的连接,而每个连接都会占用服务器的资源,最终就会导致服务器可用资源越来越少。

因此在编写网络套接字代码时,如果发现服务器端存在大量处于 CLOSE_WAIT 状态的连接,此时就可以检查一下是不是服务器没有及时调用 close 函数关闭对应的文件描述符。

此时服务器进入了 CLOSE_WAIT 状态,结合我们四次挥手的流程图,可以认为四次挥手没有正确完成。

总结 对于服务器上出现大量的 CLOSE_WAIT 状态, 原因就是服务器没有正确的关闭 socket, 导致四次挥手没有正确完成。 这是一个 BUG, 只需要加上对应的 close 即可解决问题。

b. TIME_WAIT 状态

四次挥手前三次如果发生了丢包情况,我们都可以利用超时重传机制,最担心的自然是第四次ACK应答时丢包

如果客户端在发出第四次挥手后立即进入 CLOSED 状态,此时服务器虽然进行了超时重传,但已经得不到客户端的响应了,因为客户端已经将连接关闭了。

服务器在经过若干次超时重发后得不到响应,最终也一定会将对应的连接关闭,但在服务器不断进行超时重传期间还需要维护这条废弃的连接,这样对服务器是非常不友好的。

为了避免这种情况,因此客户端在四次挥手后没有立即进入 CLOSED 状态,而是进入到了 TIME_WAIT 状态进行等待,此时要是第四次挥手的报文丢包了,客户端也能收到服务器重发的报文然后进行响应。

所以,TIME_WAIT 会保证最后一个 ACK 应答尽量被对方收到,而且可能断开之前发送的报文还滞留在网络中,那么 TIME_WAIT 就可以保证双方通信信道上的数据在网络中尽可能的消散。


c. TIME_WAIT 的等待时长

TCP 协议规定,主动关闭连接的一方在四次挥手后要处于 TIME_WAIT 状态,等待两个 MSL(maximum segment lifetime 报文最大生存时间)的时间才能进入 CLOSED 状态。把从发送方到接收方经过的最大时间叫做 MSL。

使用 Ctrl+C 终止了 Server,所以 Server 是主动关闭连接的一方,在 TIME_WAIT 期间仍然不能再次监听同样的 Server 端口。

MSL 在 RFC1122 中规定为两分钟,但是各操作系统的实现不同,在 Centos7 上默认配置的值是60s。


为什么 TIME_WAIT 的等待时长设置为 2MSL?

MSL 是 TCP 报文的最大生存时间,因此 TIME_WAIT 状态持续存在 2MSL 的话,就能保证在两个传输方向上的尚未被接收或迟到的报文段都已经消失(否则服务器立刻重启,可能会收到来自上一个进程的迟到的数据,但是这种数据很可能是错误的​​​​​​​)。同时也是在理论上保证最后一个报文可靠到达的时间(假设最后一个 ACK 丢失,那么服务器会再重发一个 FIN,这时虽然客户端的进程不在了,但是 TCP 连接还在,仍然可以重发 LAST_ACK)。

虽然 4 次挥手已经完成,但是主动断开连接的一方要维持一段时间的 TIME_WAIT 状态。在该状态下,连接其实已经结束,但是它的地址信息(比如 ip)、port 依旧是被占用的。 


(5)bind 绑定失败(端口复用)

为什么会 bind 绑定失败?

上面的代码里发现如果是服务端主动断开连接,就会导致一段时间内无法 bind,就是因为服务器是 CLOSE_WAIT 状态,该端口和连接依旧存在,所以会绑定失败(端口被占用)。

服务器不能立即重启的危害:比方说双十一的时候,连接过多导致服务器挂掉了,此时想要立即重启却要等很久(60S),那么就会造成巨大的损失。

在 S erver  的  TCP  连接没有完全断开之前不允许重新监听, 某些情况下可能是不合理的。
  • 服务器需要处理非常大量的客户端的连接(每个连接的生存时间可能很短,但是每秒都有很大数量的客户端来请求)。
  • 这个时候如果由服务器端主动关闭连接(比如某些客户端不活跃,就需要被服务器端主动清理掉),就会产生大量 TIME_WAIT 连接。
  • 由于我们的请求量很大,就可能导致 TIME_WAIT 的连接数很多, 每个连接都会占用一个通信五元组(源 ip,源端口,目的 ip,目的端口,协议)。其中服务器的 ip 和端口和协议是固定的。如果新来的客户端连接的 ip 和端口号和 TIME_WAIT 占用的链接重复了,就会出现问题。
如何解决这个问题呢?

设置套接字复用:使用 setsockopt() 设置 socket 描述符的选项 SO_REUSEADDR 为 1,表示允许创建端口号相同但 IP 地址不同的多个 socket 描述符。


在正常情况下,TCP 要经过三次握手建立连接,四次挥手断开连接。

​​​​​​

​​​​服务端状态转化

  • [CLOSED -> LISTEN]:服务器端调用 listen 后进入 LISTEN 状态,等待客户端连接。
  • [LISTEN -> SYN_RCVD]:一旦监听到连接请求(同步报文段),就将该连接放入内核等待队列中,并向客户端发送 SYN 确认报文。
  • [SYN_RCVD -> ESTABLISHED]:服务端一旦收到客户端的确认报文,就进入 ESTABLISHED 状态,可以进行读写数据了。
  • [ESTABLISHED -> CLOSE_WAIT]:当客户端主动关闭连接(调用close), 服务器会收到结束报文段, 服务器返回确认报文段并进入CLOSE_WAIT;
  • [CLOSE_WAIT -> LAST_ACK]:进入CLOSE_WAIT后说明服务器准备关闭连接(需要处理完之前的数据)。当服务器真正调用 close 关闭连接时, 会向客户端发送 FIN,此时服务器进入 LAST_ACK 状态,等待最后一个 ACK 到来(这个 ACK 是客户端确认收到了 FIN)。
  • [LAST_ACK -> CLOSED]:服务器收到了对 FIN 的 ACK,彻底关闭连接。
客户端状态转化
  • [CLOSED -> SYN_SENT]:客户端调用 connect,发送同步报文段。
  • [SYN_SENT -> ESTABLISHED]:connect 调用成功, 则进入 ESTABLISHED 状态,开始读写数据。
  • [ESTABLISHED -> FIN_WAIT_1]:客户端主动调用 close 时,向服务器发送结束报文段,同时进入 FIN_WAIT_1。
  • [FIN_WAIT_1 -> FIN_WAIT_2]:客户端收到服务器对结束报文段的确认,则进入 FIN_WAIT_2,开始等待服务器的结束报文段。
  • [FIN_WAIT_2 -> TIME_WAIT]:客户端收到服务器发来的结束报文段,进入 TIME_WAIT,并发出 LAST_ACK。
  • [TIME_WAIT -> CLOSED]:客户端要等待一个 2MSL(Max Segment Life,报文最大生存时间)的时间,才会进入 CLOSED 状态。

下图是 TCP 状态转换的一个汇总:

​​​​​​​

  • 较粗的虚线表示服务端的状态变化情况。
  • 较粗的实线表示客户端的状态变化情况。
  • CLOSED 是一个假想的起始点,不是真实状态。

5、流量控制

接收端处理数据的速度是有限的。如果发送端发的太快,导致接收端的缓冲区被打满,这个时候如果发送端继续发送就会造成丢包,继而引起丢包重传等等一系列连锁反应。

TCP 支持根据接收端的接收数据的能力来决定发送端发送数据的速度,这个机制叫做流量控制Flow Control)

前面在讲 16 位窗口大小的时候,说传输数据的时候速度要适中,所以报头中有 16 位窗口大小来控制传输速度,通过填写 16 位窗口大小告诉对端自己的接收能力(接收缓冲区还剩多少)。

在进行流量控制时,发送方是如何在第一次发送数据的时候,得知对方的接收能力的呢?

需要通过交换报文,第一次发送数据不等同于第一次交换报文。在通信之前,就已经三次握手(第一次交换报文时)了,TCP 报文就是窗口大小。所以在握手期间,就可以互相交换窗口大小了。

当发送端得知接收端接收数据的能力为 0 时就会停止发送数据,此时发送端会通过以下两种方式来得知何时可以继续发送数据:

  1. 等待告知:接收端上层将接收缓冲区当中的数据读走后,接收端向发送端发送一个 TCP 报文,主动将自己的窗口大小告知发送端,发送端得知接收端的接收缓冲区有空间后就可以继续发送数据了。
  2. 主动询问:发送端每隔一段时间向接收端发送报文(窗口探测),该报文不携带有效数据,只是为了询问发送端的窗口大小,直到接收端的接收缓冲区有空间后发送端就可以继续发送数据了。

这两种策略在实际中是同时使用的,哪个先到就先处理哪个。

  • 接收端将自己可以接收的缓冲区大小放入 TCP 首部中的 “窗口大小” 字段,通过 ACK 端通知发送端。
  • 窗口大小字段越大,说明网络的吞吐量越高。
  • 接收端一旦发现自己的缓冲区快满了,就会将窗口大小设置成一个更小的值来通知给发送端。
  • 发送端接受到这个窗口之后,就会减慢自己的发送速度。
  • 如果接收端缓冲区满了就会将窗口置为 0。这时发送方不再发送数据,但是需要定期发送一个窗口探测数据段,使接收端把窗口大小告诉发送端。

接收端如何把窗口大小告诉发送端呢?
TCP 的 首部中 有一个  16  位窗口字段, 就是存放了窗口大小信息。
16 位数字最大表示 65535,那么 TCP 窗口最大就是 65535 字节吗?
是的。
实际上  TCP  首部  40  字节选项中还包含了一个窗口扩大因子  M, 实际窗口大小是窗口字段的值左移 M 位。
但窗口大小的调整还跟对方接收缓冲区的大小有关,如果对扩大因子进行了调整,那么可能就需要重新编译源代码的内核或者对 TCP 进行重新配置,需要更改操作系统的接收缓冲区的大小。

​​​​​​​6、滑动窗口

在发送数据后,但没收到应答之前,我们必须要把数据先保存起来,以支持后续可能出现的超时重传,那么保存在哪里呢?

滑动窗口。

前面说过,多个报文一般是并行发送,即还没收到应答,下一个报文就已经发送出去了,目的是为了提高效率。

可以把发送缓冲区分成三个部分:

  1. 已经发送并且已经收到 ACK 的数据(上层考虑数据时可以直接覆盖掉)。
  2. 已经发送还但没有收到 ACK 的数据。
  3. 还没有发送的数据。

滑动窗口的本质:sender 方可以一次性向对方推送数据的上限。滑动窗口是自己的发送缓冲区的一部分,通过不断地滑动来重新划分三段区间。


(1)如何理解滑动窗口

把缓冲区看成一个数组,那么滑动窗口的移动其实就是下标进行更新


A. 滑动窗口的大小

滑动窗口有上限,其大小和对方的接收能力有关。不管如何滑动,都要保证对方能够正常接收(滑动窗口大小 <= 对方接受能力)。

滑动窗口一定会整体右移吗?

不一定,可能会向右滑动,也可能保持不变。因为数据可能在对方的接收缓冲区迟迟没有被拿走,那就只会导致滑动窗口的左侧不断向右移动,而右侧不动。

滑动窗口可以为 0 吗?

可以,当 win_start = win_end 时,滑动窗口就为 0。

因为如果发送方发送数据,而接收方的上层一直不取走数据,发送方却一直发送数据,就会导致性能越来越差,tcp_win 越来越小,也就是滑动窗口的左侧一直向后移动,右侧却不变,最终滑动窗口会变为 0。

滑动窗口如何滑动更新?

当发送端收到对方的应答时,如果应答报文中的确认序号为 ACK_SEQ,收到的应答报文中的滑动窗口大小为 tcp_win,此时就可以将 win_start 更新为 ACK_SEQ,win_end 更新为 win_start + tcp_win。

如果收到的 ACK 不是最左侧数据(最开始的报文)的应答,而是中间的,有可能吗?会有影响吗?

可能。因为 TCP 是可靠传输,不可能出现乱序,所以如果收到了中间数据的应答,一定是发生了丢包

超时重传背后的含义:在没有收到应答时,数据必须被暂时保存起来。

确认应答策略对每一个发送的数据段都要给一个 ACK 确认应答,收到 ACK 后再发送下一个数据段。这样做有一个比较大的缺点,就是性能较差,尤其是数据往返的时间较长的时候。

​​​​​​​

既然这样一发一收的方式性能较低,那么一次发送多条数据就可以大大的提高性能(其实是将多个段的等待时间重叠在一起了)。

  • 窗口大小指的是无需等待确认应答而可以继续发送数据的最大值。上图的窗口大小就是 4000 个字节(四个段)。
  • 发送前四个段的时候不需要等待任何 ACK,直接发送。
  • 收到第一个 ACK 后,滑动窗口向后移动,继续发送第五个段的数据,依次类推。
  • 操作系统内核为了维护这个滑动窗口,需要开辟发送缓冲区来记录当前还有哪些数据没有应答。只有确认应答过的数据,才能从缓冲区删掉。
  • 窗口越大,则网络的吞吐率就越高。

如果滑动窗口一直向右滑动,是否会出现越界问题?总有空间用完的时候,该如何处理呢?

不会出现越界问题,TCP 的发送缓冲区被内核组织成了环形结构

流量控制是以可靠性问题为主,防止我们发送过多的数据;以效率问题为辅,对一个已经传输的数据进行丢弃,就得重传,因此就影响了效率。

滑动窗口解决的是效率问题还是可靠性问题?

滑动窗口的侧重点在于解决效率问题,它可以限制缓冲区的范围,能够一次性向对方发送大量的数据。以效率为主,可靠为辅。


那么如果出现了丢包,如何进行重传?

(1)情况一 —— 数据包已经抵达,ACK 应答丢了

根据确认序号的定义,如果收到的是 3001,那么说明 3000 以前的数据全部都收到了,那么就把 win_start 移动到 3001 即可。

这种情况下,部分 ACK 丢了并不要紧,因为可以通过后续的 ACK 进行确认。


(2)情况二 —— 数据包直接丢了​​​​​​​

当 1001~2000 的数据包丢失后,发送端会一直收到确认序号为 1001 的响应报文,就是在提醒发送端 “下一次应该从序号为 1001 的字节数据开始发送”。

而如果连续收到三个同样的确认序号,就会触发重传机制。这种机制被称为 “高速重发控制”(也叫 “快重传”)。
快重传是能够快速进行数据的重发,当发送端连续收到三次相同的应答时就会触发快重传,而不像超时重传一样需要通过设置重传定时器,在固定的时间后才会进行重传。

  • 当某一段报文段丢失之后,发送端会一直收到 1001 这样的 ACK,就像是在提醒发送端 “我想要的是 1001” 一样。
  • 如果发送端主机连续三次收到了同样一个 "1001" 这样的应答,就会将对应的数据 1001 - 2000 重新发送;
  • 这个时候接收端收到了 1001 之后,再次返回的 ACK 就是 7001 了(因为 2001 - 7000)接收端其实之前就已经收到了,被放到了接收端操作系统内核的接收缓冲区中。

总结:滑动窗口的左端就是通过确认序号确定的,右端是通过左端和对方接收缓冲区的剩余空间决定的。​​​​​​​

既然有了快重传,为什么还要有超时重传?

因为快重传是有条件的,必须收到连续三个以上的同样的 ACK。快重传和超时重传不是对立的,而是协作的。


7、拥塞控制

1000 个报文丢掉一两个很正常,重复发即可,但如果 1000 个报文有 999 个都丢了,那我们还要选择重传吗?

举例:一个班 40 个人考试,结果只有一个人挂科了,那大概率是这个人的问题;但如果挂了 39个,那还是学生的问题吗?

针对这种大面积的丢包情况,TCP 就会考虑是网络拥塞问题,此时重传就没什么用了,重传也只会加重网络故障问题。

如何解决网络拥塞问题?

当网络出现拥塞问题时,通信双方虽然不能提出特别有效的解决方案,但双方主机可以做到不加重网络的负担。双方通信时如果出现大量丢包,不应该立即将这些报文进行重传,而应该少发数据甚至不发数据,等待网络状况恢复后双方再慢慢恢复数据的传输速率

注意:网络拥塞时影响的不只是一台主机,而几乎是该网络当中的所有主机,此时所有使用 TCP 传输控制协议的主机都会执行拥塞避免算法。

虽然 TCP 有了滑动窗口,能够高效可靠的发送大量的数据。但是如果在刚开始阶段就发送大量的数据仍然可能引发问题,因为网络上有很多的计算机,可能当前的网络状态就比较拥堵,在不清楚当前网络状态下贸然发送大量的数据,是很有可能引起雪上加霜的。

TCP 引入慢启动机制,在刚开始通信时先发送少量的数据,摸清当前的网络拥堵状态,再决定按照多大的速度传输数据。

​​​​​​​

(1)拥塞窗口

单台主机一次向网络中发送大量数据时,可能会引发网络拥塞的上限值。超过拥塞窗口这个值的时候就可能引发网络拥塞问题。

发送开始的时候定义为 1,每次接收到一个 ACK 应答,就加 1,每次发送数据包的时候,将拥塞窗口和接收端主机反馈的窗口大小做比较,取较小的值作为实际发送数据的窗口大小,即滑动窗口的大小。

滑动窗口大小 = min(拥塞窗口,对方窗口大小[接收能力])

每收到一个 ACK 应答拥塞窗口的值就加 1,此时拥塞窗口的增长速度是以指数级别进行增长的,如果先不考虑对方接收数据的能力,那么滑动窗口的大小就只取决于拥塞窗口的大小,此时拥塞窗口的大小变化为:1 2 4 8 …… 但指数增长是非常恐怖的,此时就有可能导致网络再次拥塞。

此时就引入了慢启动的阈值当拥塞窗口的大小超过这个阈值时,就不再按指数的方式增长,而是按线性的方式增长。慢启动只是指初使时慢,但是增长速度非常快。为了不增长的那么快,因此不能使拥塞窗口单纯的加倍。

​​​​​​​前期慢开始是为了让网络自主恢复后面快是为了尽快恢复通信

  • 当 TCP 开始启动的时候,慢启动阈值设置为对方窗口大小的最大值。
  • 在每次超时重发的时候,慢启动阈值会变成原来的一半,同时拥塞窗口置回 1,如此循环下去

少量的丢包仅仅是触发超时重传,大量的丢包就认为网络拥塞。

当 TCP 通信开始后,网络吞吐量会逐渐上升,随着网络发生拥堵,吞吐量会立刻下降。拥塞控制归根结底是 TCP 协议想尽可能快的把数据传输给对方,但又要避免给网络造成太大压力的折中方案。


8、延迟应答

现在接收方缓冲区有很多数据,但是应用层有很大概率会马上把数据拿走,如果等一等再应答就可以返回更大的窗口。需要注意的是,延迟应答的目的不是为了保证可靠性,而是留出一点时间让接收缓冲区中的数据尽可能被上层应用层消费掉,此时在进行 ACK 响应的时候报告的窗口大小就可以更大,从而增大网络吞吐量,进而提高数据的传输效率。

注意:不是所有的数据包都可以延迟应答。

如果接收数据的主机立刻返回 ACK 应答,这时候返回的窗口可能比较小。假设接收端缓冲区为 1M,一次收到了 500K 的数据。如果立刻应答,返回的窗口就是 500K。但实际上可能处理端处理的速度很快,10ms 之内就把 500K 数据从缓冲区消费掉了。在这种情况下,接收端处理还远没有达到自己的极限,即使窗口再放大一些也能处理过来。如果接收端稍微等一会再应答,比如等待 200ms 再应答,那么这个时候返回的窗口大小就是 1M。

记住 :窗口越大,网络吞吐量就越大,传输效率就越高,目标是在保证网络不拥塞的情况下尽量提高传输效率。

所有的包都可以延迟应答吗?
不是。
  • 数量限制:每隔 N 个包就应答一次。
  • 时间限制:超过最大延迟时间就应答一次(这个时间不会导致误超时重传)。
延迟应答 具体的数量和超时时间依操作系统不同也有差异,一般 N 取 2,超时时间取 200ms。


9、捎带应答

接收方收到数据要给发送方一个应答,如果刚好接收方也要发送数据,可以直接一起返回。捎带应答最直观的角度实际上也是发送数据的效率,此时双方通信时就可以不用再发送单纯的确认报文了。

在延迟应答的基础上,发现很多情况下,客户端服务器在应用层也是 “一发一收” 的,意味着客户端给服务器说了 "How are you",服务器也会给客户端回一个 "Fine, thank you"。那么这个时候 ACK 就可以搭顺风车和服务器回应的 "Fine, thank you" 一起回给客户端。


10、面向字节流

创建一个 TCP 的 socket,同时在内核中创建一个发送缓冲区和一个接收缓冲区

  • 调用 write 时,数据会先写入发送缓冲区中。
  • 如果发送的字节数太长,会被拆分成多个 TCP 的数据包发出。
  • 如果发送的字节数太短,就会先在缓冲区里等待,等到缓冲区长度差不多了,或者其他合适的时机发送出去。
  • 接收数据时,数据也是从网卡驱动程序到达内核的接收缓冲区。
  • 然后应用程序可以调用 read 从接收缓冲区拿数据。
  • 另一方面,TCP 的一个连接既有发送缓冲区,也有接收缓冲区。那么对于这一个连接既可以读数据,也可以写数据,这个概念叫做全双工

由于缓冲区的存在,TCP 程序的读和写不需要一一匹配,例如:

  • 写 100 个字节数据时, 可以调用一次 write 写 100 个字节,也可以调用 100 次 write,每次写一个字节。
  • 读100个字节数据时, 也完全不需要考虑写的时候是怎么写的, 既可以一次read 100个字节, 也可以一次 read 一个字节,重复 100 次。

实际上对于 TCP 来说,它并不关心发送缓冲区当中的是什么数据,在 TCP 看来这些只是一个个的字节数据,它的任务就是将这些数据准确无误的发送到对方的接收缓冲区当中就行了,而至于如何解释这些数据完全由上层应用来决定,这就叫做面向字节流。

对比 UDP,UDP 不是面向字节流的,发 1 次必须就要读 1 次,发 10 次就必须读 10 次。这种报文和报文在传输层有明显边界的的协议就叫做面向数据报。


11、粘包问题

(1)什么是粘包

因为 TCP 是面向字节流的,所以需要应用层来分开这些报文,如果处理的不好就会出现多读了或者少读了影响到了后续报文,这种问题就叫做粘包

首先要明确,粘包问题中的 “包” 是指的应用层的数据包

  • 在 TCP 的协议头中,没有如同 UDP 一样的 “报文长度” 这样的字段,但是有一个序号这样的字段。
  • 站在传输层的角度,TCP 是一个个报文过来的,按照序号排好序放在缓冲区中。
  • 站在应用层的角度,看到的只是一串连续的字节数据。那么应用程序看到了这么一连串的字节数据,就不知道从哪个部分开始到哪个部分,是一个完整的应用层数据包。

如何避免粘包问题呢?
明确两个包之间的边界。解决粘包问题的本质就是要确定报文与报文之间的边界。
  • 对于定长的包保证每次都按固定大小读取即可。例如上面的 Request 结构,是固定大小的,那么就从缓冲区从头开始按 sizeof(Request) 依次读取即可。
  • 对于变长的包,可以在包头的位置,约定一个包总长度的字段,从而就知道了包的结束位置
  • 对于变长的包,还可以在包和包之间使用明确的分隔符(应用层协议,是程序猿自己来定的,只要保证分隔符不和正文冲突即可)。
对于 UDP 协议来说,是否也存在 “粘包问题” 呢?
UDP 的报文与报文之间的边界是明确的,因为 UDP 有标准报头定长和 16 为 UDP 长度,所以当它收到报文时,去掉报头剩下的就是有效载荷,就能够保证读到的就是完整的报头。
对于 UDP,如果还没有上层交付数据,UDP 的报文长度仍然在。同时,UDP 是一个个把数据交付给应用层,本身就有很明确的数据边界。
站在应用层的角度,使用 UDP 的时候,要么收到完整的 UDP 报文,要么不收。不会出现 “半个” 的情况。

12、TCP 异常情况

(1)进程终止

两个已经建立连接的进程,其中一个进程突然挂掉了,此时建立好的连接会怎么样?

其实连接也是个文件,而文件描述符是随进程的,进程退出,操作系统就会 close 掉这个文件。所以操作系统会正常四次挥手断开连接,跟自己 close 掉没区别。

进程终止会释放文件描述符,仍然可以发送 FIN,和正常关闭没有什么区别。


(2)机器重启

和进程终止的情况相同。

当重启主机时,操作系统会先杀掉所有进程然后再进行关机重启,因此机器重启和进程终止的情况是一样的,此时双方操作系统也会正常完成四次挥手,然后释放对应的连接资源。


(3)机器掉电 / 网线断开

当客户端掉线后,服务器端在短时间内无法知道客户端掉线了,因此在服务器端会维持与客户端建立的连接,但这个连接也不会一直维持,因为 TCP 是有保活策略的。
正常的一方会不停的询问对方连接是否还存在,发现不在了就直接断开。

接收端认为连接还在,一旦接收端有写入操作,接收端发现连接已经不在了就会进行 reset。即使没有写入操作,TCP 自己也内置了一个保活定时器,会定期询问对方是否还在。如果对方不在,也会把连接释放。

另外,应用层的某些协议也有一些这样的检测机制。例如 HTTP 长连接中,也会定期检测对方的状态。例如 QQ,在 QQ 断线之后也会定期尝试重新连接。


13、小结

为什么 TCP 这么复杂?
因为要保证可靠性, 同时又尽可能的提高性能。

(1)可靠性

  • 校验和
  • 序列号(按序到达)
  • 确认应答
  • 超时重发
  • 连接管理
  • 流量控制
  • 拥塞控制

(2)提高性能

  • 滑动窗口
  • 快速重传
  • 延迟应答
  • 捎带应答

(3)其他

  • 定时器(超时重传定时器,保活定时器,TIME_WAIT 定时器等)

​​​​​​​(4)基于 TCP 应用层协议

  • HTTP
  • HTTPS
  • SSH
  • Telnet
  • FTP
  • SMTP

当然,也包括自己写的 TCP 程序时自定义的应用层协议。


五、TCP / UDP 对比

TCP  和  UDP  之间的优点和缺点, 不能简单, 绝对的进行比较。
  • TCP 用于可靠传输的情况,应用于文件传输,重要状态更新等场景。
  • UDP 用于对高速传输和实时性要求较高的通信领域。例如,早期的 QQ,视频传输等,另外UDP可以用于广 播。

归根结底,TCP 和 UDP 都是程序员的工具,什么时机用,具体怎么用,还是要根据具体的需求场景去判定。


六、理解 listen 的第二个参数

accept 要不要参与三次握手的过程呢?

不需要参与三次握手,accept 从底层直接获取已经建立好的连接。

换而言之,需要先建立好连接,然后才能 accept 获取对应的连接。

如果不调用 accept,能否建立连接成功呢?

能。因为能否建立连接跟 accept 没有关系,虽然会有影响,但不起决定性因素。一定是要先建立好连接,然后才能调用 accept 成功。

如果上层来不及调用 accept,并且对端还来了大量的连接,难道所有的连接都应该先建立好吗?
并不是。服务器在进行连接获取的时候,服务器本身要维护一个连接队列,不能没有、不能太长,和 listen 的第二个参数有关。

listen 的第二个参数意义底层全连接队列的长度 = listen的第二个参数 + 1

此时启动 2 个客户端同时连接服务器, netstat 查看服务器状态,一切正常。但是启动第 3 个客户端时,发现服务器对于第 3 个连接的状态存在问题了。

客户端状态正常, 但是服务器端出现了 SYN_RECV 状态, 而不是 ESTABLISHED 状态。
这是因为  Linux  内核协议栈为一个  tcp  连接管理使用两个队列:
  1. 半链接队列(生命周期很短,用来保存处于 SYN_SENT 和 SYN_RECV 状态的请求)
  2. 全连接队列(accpetd 队列,用来保存处于 established 状态,但是应用层没有调用 accept 取走的请求)
而全连接队列的长度会受到 listen 第 2 个参数的影响。全连接队列满了的时候, 就无法继续让当前连接的状态进入 established 状态了。这个队列的长度通过上述实验可知, listen 的第二个参数 + 1。

​​​​​​​

  • 42
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 11
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 11
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值