【网络】传输层


一、预备知识

1、端口号

在这里插入图片描述

在TCP/IP协议中, 用 “源IP”, “源端口号”, “目的IP”, “目的端口号”, “协议号” 这样一个五元组来标识一个通信。
在这里插入图片描述

1、端口号范围划分

0 - 1023: 知名端口号, HTTP, FTP, SSH等这些广为使用的应用层协议, 他们的端口号都是固定的。
1024 - 65535: 操作系统动态分配的端口号. 客户端程序的端口号, 就是由操作系统从这个范围分配的。

2、知名端口号

有些服务器是非常常用的, 为了使用方便, 人们约定一些常用的服务器, 都是用以下这些固定的端口号:
ssh服务器, 使用22端口
ftp服务器, 使用21端口
telnet服务器, 使用23端口
http服务器, 使用80端口
https服务器, 使用443

执行下面的命令, 可以看到知名端口号:cat /etc/services
在这里插入图片描述

3、两个问题

  1. 一个进程是否可以bind多个端口号? 可以
  2. 一个端口号是否可以被多个进程bind? 不可以

4、netstat && iostate

netstat是一个用来查看网络状态的重要工具.
语法:netstat [选项]
功能:查看网络状态

常用选项:
n 拒绝显示别名,能显示数字的全部转化成数字
l 仅列出有在 Listen (监听) 的服务状态
p 显示建立相关链接的程序名
t (tcp)仅显示tcp相关选项
u (udp)仅显示udp相关选项
a (all)显示所有选项,默认不显示LISTEN相关

5、pidof

在查看服务器的进程id时非常方便.
语法:pidof [进程名]
功能:通过进程名, 查看进程id

6、谈下面协议始终铭记两个问题

no1:报头和有效载荷如何分离?
no2:有效载荷应该交付给上层的哪个协议(对应的协议字段、方案)?

二、UDP协议(简单)

1、UDP协议端格式

struct udp_header
{
	uint32_t src_port:16;
	uint32_t dst_port:16;
	uint32_t length:16;
	uint32_t check:16;
};

报头是自定义类型,既然是个结构体,设计一个缓冲区进行把UDP报文数据放进来,内核中的sk_buff的结构体将这些UDP报文进行先组织再描述,利用链表的形式将其缓冲区的信息管理起来。

在这里插入图片描述

2、UDP的特点

UDP传输的过程类似于寄信.
无连接: 知道对端的IP和端口号就直接进行传输, 不需要建立连接;
不可靠: 没有确认机制, 没有重传机制; 如果因为网络故障该段无法发到对方, UDP协议层也不会给应用层返回任何错误信息;
面向数据报: 不能够灵活的控制读写数据的次数和数量

3、面向数据报

应用层交给UDP多长的报文, UDP原样发送, 既不会拆分, 也不会合并;
用UDP传输100个字节的数据:

如果发送端调用一次sendto, 发送100个字节, 那么接收端也必须调用对应的一次recvfrom, 接收100个字节; 而不能循环调用10次recvfrom, 每次接收10个字节;

4、UDP缓冲区

UDP没有真正意义上的 发送缓冲区. 调用sendto会直接交给内核, 由内核将数据传给网络层协议进行后续的传输动作;
UDP具有接收缓冲区. 但是这个接收缓冲区不能保证收到的UDP报的顺序和发送UDP报的顺序一致; 如果缓冲区满了, 再到达的UDP数据就会被丢弃;
UDP的socket既能读, 也能写, 这个概念叫做 全双工
在这里插入图片描述

三、TCP协议(重点)

1、TCP协议段格式

有效载荷和报头分离就用:固定长度+自描述字段。
在这里插入图片描述

(1)4位首部长度

在这里插入图片描述

(2)16位窗口大小(实质上是进行流量控制的)

在这里插入图片描述

(3)32位序号和32位确认序号(把确认应答知识融进去)

我们知道,这个世界上绝对不可能存在百分百可靠的网络协议,我收到了应答,那必然是我最近发的消息对方收到了,而我没有收到应答,我们无法保证最新的消息被对方收到,无法保证可靠性,所以不存在百分百可靠的协议的!但局部性是可以确保是可靠的,三次握手,最后一次不管了。

tcp最基本原始通信过程:
在这里插入图片描述

捎带应答:
在这里插入图片描述

(4)32位序号

保证序号的按序到达。
在这里插入图片描述

(5)32位确认序号

填充的是收到的报文的序号+1。意义是表示该确认序号之前的报文数据全部都收到了,下一次发送请从确认序号指定的数字开始发送。比如我给个1000,确认序号是1001表示从1001往后开始发。
在这里插入图片描述
小问题:为什么32位序号和32位确认序号不能复用?
场景一:服务端有捎带应答的功能,也就是说既要用到32位序号的发送数据的序号,同样要用到确认应答的向客户端说下次从哪个序号开始发送。即全双工的场景。
场景二:分开以后方便解析后理解。

(6)六个标记位

我们的每一个Client发送的报文数据的作用是不一样的,所以就有了六个标志位表示发送报文的作用。标记位存在的意义就是区分tcp报文的类型。

URG: 紧急指针是否有效
ACK: 确认号是否有效
PSH: 提示接收端应用程序立刻从TCP缓冲区把数据读走
RST: 对方要求重新建立连接; 我们把携带RST标识的称为复位报文段
SYN: 请求建立连接; 我们把携带SYN标识的称为同步报文段
FIN: 通知对方, 本端要关闭了

i、ACK标记位

有应答属性就置1。

ii、SYN标记位

请求建立连接。

iii、FIN标记位

通知接收方是否关闭了。

iv、PSH标记位

上层太忙了,一直不把接收缓冲区里面的数据取走,导致接收缓冲区挤的很多了。所以发送端解析对端的报文以后,发现对端接收缓冲区已经很拥挤了,那么发送端就将PSH标志位置1,催促对端接收缓冲区赶紧把数据往应用层发送。

v、RST标记位

建立连接一定就是成功的吗?tcp允许连接建立失败。

推进点1:三次握手过程:
在这里插入图片描述
推进点2:最后一次ACK服务端没有收到的情况:

在这里插入图片描述
所以RST主要就是面对一些连接异常的情况!需要重置!

vi、URG标记位

插队哥。URG和16位紧急指针有非常大的联系。当URG为0的话,16位紧急指针无效,当URG为1,16位紧急指针有效。而16位紧急指针填的值表示数据那个位置(偏移量)是需要紧急处理需要插队的数据。而且一个报文仅仅可以带一个字节的紧急数据!

2、确认应答(ACK)机制

TCP将每个字节的数据都进行了编号. 即为序列号。
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
每一个ACK都带有对应的确认序列号, 意思是告诉发送者, 我已经收到了哪些数据; 下一次你从哪里开始发。

3、超时重传机制

在这里插入图片描述

4、连接管理机制

在这里插入图片描述

(1)三次握手

精华:
tcp建立连接时候,为什么要三次握手和四次挥手?
三次握手:
答:保证可靠性,两个方向都有应答。建立连接服务器必须立即同意连接,所以SYN和ACK可以被压缩在一起。而四次挥手的时候有一定的协商成分在,比如我客户端数据都发完了,想跟服务器断开连接,可以先断开一端,服务器还是有数据要发送的时候,就不想断开连接,所以,服务器此时可以继续往客户端发数据,直到发完了再断开连接也没问题。
在这里插入图片描述
1、连接建立成功和上层是否accept无关。三次握手是双方操作系统自动完成的。
2、listen的第二个参数,backlog。当我们客户端和服务端建立三次握手的时候,服务端会同期产生连接文件,而我们要把这些文件都管理起来的标志就是先描述在组织,我们在代码中写了accept函数表示的是将下层的连接文件拿到上层来进行响应,所以我们的listen的第二个参数+1就是底层已经建立好的连接队列的最大长度,其称为全连接队列。(backlog为什么不能太长?因为太长以后,服务器来不及处理以后,全连接队列一直阻塞着,全连接资源占据资源太多了。为什么不能没有呢?餐厅门口有很多等待的椅子,先排队等号,里面的人走一桌以后正好外面有人等着进去一桌,服务器闲的时候能够从全连接直接拿上来进行运行,全连接队列没有的原因是帮助资源的有效利用)
在这里插入图片描述

3、服务端不会长时间维持SYN_RECV,被建立的一方,处于SYN_RECV的状态下就是半连接,我们称为半连接队列,半连接的结点不会长时间维护。
4、客户端和服务端连接建立不一致的问题。
5、在进入全连接的时候需要连接先进入半连接。

(2)四次挥手

四次挥手:
断开连接本质是没有数据给对方发送了,发送数据是双方都可以发,所以必须断开两次。
1、主动断开连接的一方,它在最后四次挥手完成之后,要进入TIM_WAIT状态,等待若干时长,没问题后自动释放。这也就是为什么我们端口号复用的问题。因为当服务方处于TIM_WAIT的状态,连接没有彻底断开,ip和port正在被使用。TIM_WAIT一般持续时间为30-60秒。
2、TIME_WAIT等多久时间?为什么要等?让通信双方历史数据得以消散(本身重传以后的时间已经等完了),让断开连接四次挥手具有较好的容错性(FIN和ACK的传递万一有错误能够及时响应)。

TIME_WAIT状态

TCP协议规定,主动关闭连接的一方要处于TIME_ WAIT状态,等待两个MSL(maximum segment lifetime)的时间后才能回到CLOSED状态.
我们使用Ctrl-C终止了server, 所以server是主动关闭连接的一方, 在TIME_WAIT期间仍然不能再次监听同样的server端口;
MSL在RFC1122中规定为两分钟,但是各操作系统的实现不同, 在Centos7上默认配置的值是60s;
可以通过 cat /proc/sys/net/ipv4/tcp_fin_timeout 查看msl的值。

MSL是TCP报文的最大生存时间, 因此TIME_WAIT持续存在2MSL的话
就能保证在两个传输方向上的尚未被接收或迟到的报文段都已经消失(否则服务器立刻重启, 可能会收到来自上一个进程的迟到的数据, 但是这种数据很可能是错误的);
同时也是在理论上保证最后一个报文可靠到达(假设最后一个ACK丢失, 那么服务器会再重发一个FIN. 这时虽然客户端的进程不在了, 但是TCP连接还在, 仍然可以重发LAST_ACK);

为什么服务器是主动断开的那一方的时候要设置setsockopt而客户端作为经常主动断开的一方不用设置setsockopt呢?原因是因为客户端起来的时候用的都是随机端口,而服务端用的是固定的端口。

服务端状态转化:
[CLOSED -> LISTEN] 服务器端调用listen后进入LISTEN状态, 等待客户端连接;(同步报文段), 就将该连接放入内核等待队列中
[LISTEN -> SYN_RCVD] 一旦监听到连接请求 , 并向客户端发送SYN确认报文.
[SYN_RCVD -> ESTABLISHED] 服务端一旦收到客户端的确认报文, 就进入ESTABLISHED状态, 可以进行读写数据了.
[ESTABLISHED -> CLOSE_WAIT] 当客户端主动关闭连接(调用close), 服务器会收到结束报文段, 服务器返回确认报文段并进入CLOSE_WAIT;
[CLOSE_WAIT -> LAST_ACK] 进入CLOSE_WAIT后说明服务器准备关闭连接(需要处理完之前的数据); 当服务器真正调用close关闭连接时, 会向客户端发送FIN, 此时服务器进入LAST_ACK状态, 等待最后一个ACK到来(这个ACK是客户端确认收到了FIN)
[LAST_ACK -> CLOSED] 服务器收到了对FIN的ACK, 彻底关闭连接

客户端状态转化:
[CLOSED -> SYN_SENT] 客户端调用connect, 发送同步报文段;
[SYN_SENT -> ESTABLISHED] connect调用成功, 则进入ESTABLISHED状态, 开始读写数据;
[ESTABLISHED -> FIN_WAIT_1] 客户端主动调用close时, 向服务器发送结束报文段, 同时进入FIN_WAIT_1;
[FIN_WAIT_1 -> FIN_WAIT_2] 客户端收到服务器对结束报文段的确认, 则进入FIN_WAIT_2, 开始等待服务器的结束报文段;
[FIN_WAIT_2 -> TIME_WAIT] 客户端收到服务器发来的结束报文段, 进入TIME_WAIT, 并发出LAST_ACK;
[TIME_WAIT -> CLOSED] 客户端要等待一个2MSL(Max Segment Life, 报文最大生存时间)的时间, 才会进入CLOSED状态.

5、TCP状态转换汇总

下图是TCP状态转换的一个汇总:
较粗的虚线表示服务端的状态变化情况;
较粗的实线表示客户端的状态变化情况 ;
CLOSED是一个假想的起始点, 不是真实状态;
在这里插入图片描述

6、流量控制

接收端处理数据的速度是有限的. 如果发送端发的太快, 导致接收端的缓冲区被打满, 这个时候如果发送端继续发送,就会造成丢包, 继而引起丢包重传等等一系列连锁反应. 因此TCP支持根据接收端的处理能力, 来决定发送端的发送速度. 这个机制就叫做流量控制(Flow Control)。

接收端将自己可以接收的缓冲区大小放入 TCP 首部中的 “窗口大小” 字段, 通过ACK端通知发送端;
窗口大小字段越大, 说明网络的吞吐量越高;
接收端一旦发现自己的缓冲区快满了, 就会将窗口大小设置成一个更小的值通知给发送端;
发送端接受到这个窗口之后, 就会减慢自己的发送速度;
如果接收端缓冲区满了, 就会将窗口置为0; 这时发送方不再发送数据, 但是需要定期发送一个窗口探测数据段, 使接收端把窗口大小告诉发送端

在这里插入图片描述
窗口探测个窗口更新通知只是个报头,不携带数据。
接收端如何把窗口大小告诉发送端呢? 回忆我们的TCP首部中, 有一个16位窗口字段, 就是存放了窗口大小信息;
那么问题来了, 16位数字最大表示65535, 那么TCP窗口最大就是65535字节么?实际上, TCP首部40字节选项中还包含了一个窗口扩大因子M, 实际窗口大小是 窗口字段的值左移 M 位。

第一次握手的时候,怎么保证发送数据量是合理的?双方进行三次握手的时候已经是交换了报文,也就是交换了双方的报头了,那么也就和对方进行协商接收能力了。
第三次客户端发送ACK的时候可以携带数据,因为已经提前协商好了双方的接收能力的数据了,可以称为捎带应答。
流量控制以可靠性为主,效率为辅。

7、滑动窗口

在这里插入图片描述
既然这样一发一收的方式性能较低, 那么我们一次发送多条数据, 就可以大大的提高性能(其实是将多个段的等待时间重叠在一起了)。
在这里插入图片描述

发送前四个段的时候, 不需要等待任何ACK, 直接发送;
收到第一个ACK后, 滑动窗口向后移动, 继续发送第五个段的数据; 依次类推;
操作系统内核为了维护这个滑动窗口, 需要开辟 发送缓冲区 来记录当前还有哪些数据没有应答; 只有确认应答过的数据, 才能从缓冲区删掉;
窗口越大, 则网络的吞吐率就越高;

在这里插入图片描述
抽象概念:
在这里插入图片描述

那么如果出现了丢包, 如何进行重传? 这里分两种情况讨论.
情况一: 数据包已经抵达, ACK被丢了
我们对于确认序号的定义是确认序号x,x之前的报文我们全部接收到到了。所以我们允许少量的ack丢失。
在这里插入图片描述
这种情况下, 部分ACK丢了并不要紧, 因为可以通过后续的ACK进行确认。
即等待超时补发即可。

情况二: 数据包就直接丢了
滑动窗口保证了线性的连续的向后更新,不会出现跳跃的情况。表示的确认序号x之前的报文都收到了,不会出现报文遗漏。
在这里插入图片描述

当某一段报文段丢失之后, 发送端会一直收到 1001 这样的ACK, 就像是在提醒发送端 “我想要的是 1001” 一样;
如果发送端主机连续三次收到了同样一个 “1001” 这样的应答, 就会将对应的数据 1001 - 2000 重新发送;
这个时候接收端收到了 1001 之后, 再次返回的ACK就是7001了(因为2001 - 7000)接收端其实之前就已经收到了, 被放到了接收端操作系统内核的接收缓冲区中
这种机制被称为 “高速重发控制”(也叫 “快重传”)

问题1:已经有了快重传为什么还要有超时重传?
原因在于快重传是有条件的,快重传要连续三个收到同一个报文,才进行快重传,而快重传也只是为了提高效率的,而超时重传是为我们网络做兜底的,假设就剩最后一个报文了呢?只能用超时重传了。也就是说,能用快重传用快重传,用不了用超时重传。

问题2:滑动窗口会不会向左向右移动?移动的时候大小会变化吗?怎么变化的?会为0吗?
不会向左移动,会向右移动,窗口大小会动态变化的。一旦涉及到动态变化,有三种变化方式:变大变小和不变。会变为0,对方的接收窗口为0的时候就是0.怎么变化的如下图所示:

向右移动:左移动右不变,滑动窗口变小。
在这里插入图片描述

向右移动:左右都移动,范围扩大/范围缩小(主要看ack)。
在这里插入图片描述
在这里插入图片描述
向右移动:左右都移动,但范围不变。
在这里插入图片描述

在这里插入图片描述

问题3:滑动窗口会在发送缓冲区中越界吗?
tcp采用了类似环状算法。
在这里插入图片描述

8、延迟应答

原理:通过延迟应答,让上层有一定概率把数据从缓冲区中取走,这样就能给发送方通告一个更大的窗口让它向我发数据。

在这里插入图片描述

如果接收数据的主机立刻返回ACK应答, 这时候返回的窗口可能比较小.
假设接收端缓冲区为1M. 一次收到了500K的数据; 如果立刻应答, 返回的窗口就是500K;
但实际上可能处理端处理的速度很快, 10ms之内就把500K数据从缓冲区消费掉了;
在这种情况下, 接收端处理还远没有达到自己的极限, 即使窗口再放大一些, 也能处理过来;
如果TCP协议接收端稍微等一会再应答, 比如等待200ms再应答, 那么这个时候返回的窗口大小就是1M;

一定要记得, 窗口越大, 网络吞吐量就越大, 传输效率就越高. 我们的目标是在保证网络不拥塞的情况下尽量提高传输效率;
那么所有的包都可以延迟应答么? 肯定也不是;
数量限制: 每隔N个包就应答一次;
时间限制: 超过最大延迟时间就应答一次;
具体的数量和超时时间, 依操作系统不同也有差异; 一般N取2, 超时时间取200ms;

在这里插入图片描述

9、捎带应答

在延迟应答的基础上, 我们发现, 很多情况下, 客户端服务器在应用层也是 “一发一收” 的. 意味着客户端给服务器说了 “How are you”, 服务器也会给客户端回一个 “Fine, thank you”;那么这个时候ACK就可以搭顺风车, 和服务器回应的 “Fine, thank you” 一起回给客户端。
在这里插入图片描述

10、tcp可靠性和提高性能

为什么TCP这么复杂? 因为要保证可靠性, 同时又尽可能的提高性能.
可靠性:
校验和
序列号(按序到达)
确认应答
超时重发
连接管理
流量控制
拥塞控制
提高性能:
滑动窗口
快速重传
延迟应答
捎带应答
其他:
定时器(超时重传定时器, 保活定时器, TIME_WAIT定时器等)

在这里插入图片描述

11、拥塞控制

如果发送数据,出现问题了,不仅仅是对方主机出现问题,也有可能是网络问题!
1、如果通信的时候出现了少量丢包怎么办?这个是常规情况,比如一个班37个人只有两个人挂科,很正常。
2、如果通信的时候出现了大量丢包怎么办?这个就是网络出现问题了,一个班37个人有35个人挂科,这个一品就是学校出卷子的问题了。数据量太大,引起了阻塞了。

所以,如果我们通信双方出现了大量丢包的问题,即大量数据超时了,tcp就会判断网络出现了问题,此时就是网络拥塞了。

此时我们作为发送方应该怎么办呢?我们不能立即对报文进行超时重发。此时网络本身就是拥塞住了,再发则会加重网络的拥塞。所以我们应该等一等,都等?还是一台主机等?当然是都等,但不一定全部都等!因为主机都是用的是tcp/ip协议,那么就一台主机发现拥塞了,其他主机也大概率也能感受到拥塞控制了,心照不宣的都慢慢发了,简而言之就是都进行拥塞控制了。

在这里插入图片描述

虽然TCP有了滑动窗口这个大杀器, 能够高效可靠的发送大量的数据. 但是如果在刚开始阶段就发送大量的数据, 仍然可能引发问题.
因为网络上有很多的计算机, 可能当前的网络状态就已经比较拥堵. 在不清楚当前网络状态下, 贸然发送大量的数据,是很有可能引起雪上加霜的.
TCP引入 慢启动 机制, 先发少量的数据, 探探路, 摸清当前的网络拥堵状态, 再决定按照多大的速度传输数据;
在这里插入图片描述

此处引入一个概念程为拥塞窗口
发送开始的时候, 定义拥塞窗口大小为1;
每次收到一个ACK应答, 拥塞窗口加1;
每次发送数据包的时候, 将拥塞窗口和接收端主机反馈的窗口大小做比较, 取较小的值作为实际发送的窗口;

在这里插入图片描述

像上面这样的拥塞窗口增长速度, 是指数级别的. “慢启动” 只是指初使时慢, 但是增长速度非常快.
为了不增长的那么快, 因此不能使拥塞窗口单纯的加倍.
此处引入一个叫做慢启动的阈值
当拥塞窗口超过这个阈值的时候, 不再按照指数方式增长, 而是按照线性方式增长
当TCP开始启动的时候, 慢启动阈值等于窗口最大值;
在每次超时重发的时候, 慢启动阈值会变成原来的一半, 同时拥塞窗口置回1

少量的丢包, 我们仅仅是触发超时重传; 大量的丢包, 我们就认为网络拥塞;
当TCP通信开始后, 网络吞吐量会逐渐上升; 随着网络发生拥堵, 吞吐量会立刻下降;
拥塞控制, 归根结底是TCP协议想尽可能快的把数据传输给对方, 但是又要避免给网络造成太大压力的折中方案.

滑动窗口=min(窗口大小,拥塞窗口)。
窗口大小:对方主机的接收能力。
拥塞窗口:考虑的是动态的、网络的接受能力。

所以我们网络中有三大窗口:
滑动窗口
接收窗口
拥塞窗口:主机判断网络健康程度的指标(发送数据超过拥塞窗口,会引发网络拥塞,否则就不会。而网络是动态的,拥塞窗口本身肯定不能是静态的!)

12、面向字节流

我根本不关心我缓冲区有什么能干什么,你发送方给我发的什么我接收方就是什么,我根本不管上层有什么协议这些数据能干嘛,反正就是这样的。
创建一个TCP的socket, 同时在内核中创建一个 发送缓冲区 和一个 接收缓冲区;

调用write时, 数据会先写入发送缓冲区中;
如果发送的字节数太长, 会被拆分成多个TCP的数据包发出;
如果发送的字节数太短, 就会先在缓冲区里等待, 等到缓冲区长度差不多了, 或者其他合适的时机发送出去;
接收数据的时候, 数据也是从网卡驱动程序到达内核的接收缓冲区;
然后应用程序可以调用read从接收缓冲区拿数据;
另一方面, TCP的一个连接, 既有发送缓冲区, 也有接收缓冲区, 那么对于这一个连接, 既可以读数据, 也可以写数据. 这个概念叫做 全双工

由于缓冲区的存在, TCP程序的读和写不需要一一匹配, 例如:

写100个字节数据时, 可以调用一次write写100个字节, 也可以调用100次write, 每次写一个字节;
读100个字节数据时, 也完全不需要考虑写的时候是怎么写的, 既可以一次read 100个字节, 也可以一次read一个字节, 重复100次;

13、粘包问题

首先要明确, 粘包问题中的 “包” , 是指的应用层的数据包.
在TCP的协议头中, 没有如同UDP一样的 “报文长度” 这样的字段, 但是有一个序号这样的字段.
站在传输层的角度, TCP是一个一个报文过来的. 按照序号排好序放在缓冲区中.
站在应用层的角度, 看到的只是一串连续的字节数据.
那么应用程序看到了这么一连串的字节数据, 就不知道从哪个部分开始到哪个部分, 是一个完整的应用层数据包.

那么如何避免粘包问题呢? 归根结底就是一句话, 明确两个包之间的边界(订协议,防止粘包问题).

对于定长的包, 保证每次都按固定大小读取即可; 例如上面的Request结构, 是固定大小的, 那么就从缓冲区从头开始按sizeof(Request)依次读取即可;
对于变长的包, 可以在包头的位置, 约定一个包总长度的字段, 从而就知道了包的结束位置;
对于变长的包, 还可以在包和包之间使用明确的分隔符(应用层协议, 是程序猿自己来定的, 只要保证分隔符不和正文冲突即可);

思考: 对于UDP协议来说, 是否也存在 “粘包问题” 呢?

对于UDP, 如果还没有上层交付数据, UDP的报文长度仍然在. 同时, UDP是一个一个把数据交付给应用层. 就有很明确的数据边界.
站在应用层的站在应用层的角度, 使用UDP的时候, 要么收到完整的UDP报文, 要么不收. 不会出现"半个"的情况.

在这里插入图片描述

14、TCP异常情况

进程终止: 进程终止会释放文件描述符, 仍然可以发送FIN. 和正常关闭没有什么区别.
机器重启: 和进程终止的情况相同.
机器掉电/网线断开: 接收端认为连接还在, 一旦接收端有写入操作, 接收端发现连接已经不在了, 就会进行reset. 即使没有写入操作, TCP , 会定期询问对方是否还在 自己也内置了一个保活定时器 . 如果对方不在, 也会把连接释放.
另外, 应用层的某些协议, 也有一些这样的检测机制. 例如HTTP长连接中, 也会定期检测对方的状态. 例如QQ, 在QQ断线之后, 也会定期尝试重新连接.

15、TCP/UDP对比

我们说了TCP是可靠连接, 那么是不是TCP一定就优于UDP呢? TCP和UDP之间的优点和缺点, 不能简单, 绝对的进行比较
TCP用于可靠传输的情况, 应用于文件传输, 重要状态更新等场景;
UDP用于对高速传输和实时性要求较高的通信领域, 例如, 早期的QQ, 视频传输等. 另外UDP可以用于广播;
归根结底, TCP和UDP都是程序员的工具, 什么时机用, 具体怎么用, 还是要根据具体的需求场景去判定

16、用UDP实现可靠传输

引入序列号, 保证数据顺序;
引入确认应答, 确保对端收到了数据;
引入超时重传, 如果隔一段时间没有应答, 就重发数据;

四、socket和文件之间的关系

linux下一切皆文件。
在这里插入图片描述

  • 15
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

2022horse

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值