传输层协议

目录

传输层 

端口号 

 端口号范围划分

认识知名端口号(Well-Know Port Number)

netstat

pidof

UDP协议UDP协议端格式​编辑

UDP的特点

面向数据报

UDP的缓冲区

UDP使用注意事项

基于UDP的应用层协议

TCP协议

TCP协议段格式

确认应答(ACK)机制

超时重传机制 

连接管理机制 

理解TIME_WAIT状态

理解 CLOSE_WAIT 状态

滑动窗口

流量控制 

拥塞控制

延迟应答

捎带应答

面向字节流

粘包问题

TCP异常情况

TCP小结

基于TCP应用层协议

TCP/UDP对比

用UDP实现可靠传输

TCP 相关实验

使用telnet


传输层 

传输层:负责数据能够从发送端传输到接收端
http等上层协议,本质不是把请求与响应发送给网络,而是将自己的数据给下层的协议(TCP)

端口号 

端口号:端口号(Port)标识了一个主机上进行通信的不同的应用程序;

 在TCP/IP协议中, 用 "源IP", "源端口号", "目的IP", "目的端口号", "协议号" 这样一个五元组来标识一个通信;

可以使用netstat -n查看

 端口号范围划分

  • 0~1023:知名端口号,HTTP,FTP,SSH等这些广为使用的应用层协议;它们的端口号都是固定的(就像110,119一样固定的)
  • 1024~65535:操作系统动态分配的端口号,客户端程序的端口号,就是由操作系统从这个范围划分的(这个是动态分配的)

认识知名端口号(Well-Know Port Number)

有些服务器是非常常用的, 为了使用方便, 人们约定一些常用的服务器, 都是用以下这些固定的端口号:

  • ssh服务器, 使用22端口
  • ftp服务器, 使用21端口
  • telnet服务器, 使用23端口
  • http服务器, 使用80端口
  • https服务器, 使用443

注意:执行下面的命令, 可以看到知名端口号“cat /etc/services”,我们自己写一个程序使用端口号时, 要避开这些知名端口号。

两个小问题:

问题1:一个进程是否可以bind多个端口号?可以
问题2:一个端口号是否可以被多个进程bind?不可以

netstat

netstat是一个用来查看网络状态的重要工具.
语法: netstat [选项]
功能:查看网络状态
常用选项:

  • n 拒绝显示别名,能显示数字的全部转化成数字
  • l 仅列出有在 Listen (监听) 的服務状态
  • p 显示建立相关链接的程序名
  • t (tcp)仅显示tcp相关选项
  • u (udp)仅显示udp相关选项
  • a (all)显示所有选项,默认不显示LISTEN相关 

注意:Local Address:本地的,Foreig Address:目的

pidof

在查看服务器的进程id时非常方便.
语法: pidof [进程名]
功能:通过进程名, 查看进程id

注意:可以搭配xargs:将标准输入转化为命令行参数使用,例如:pidof 进程id | xargs kill -9来将进程杀死

UDP协议
UDP协议端格式

  • 16位UDP长度,表示整个数据报(UDP首部+UDP数据)的最大长度
  • 如果校验和出错,就会直接丢弃

首先在这里我们要理解一下udp如何保证有效载荷和报头的分离以及如何交付(几乎任何协议都要首先解决两个问题:):

  • a.如何分离(封装)固定长度的报头将报头和有效载荷分离
  • b.如何交付根据报头中的16位端口号,进行向上交付进程bind了端口号

注意:这里我么可以发现,为什么我们在应用层编写代码的时候,每一次写端口号的时候,都喜欢uint16_t--协议用的端口号是16位的,udp如何正确的提取整个完整报文的,固定长度的报头->16位udp长度UDP是具有将报文一个一个正确接要的能力的,UDP是面向数据报的。

理解一下udp/tcp报文--理解报文本身

udp协议属于内核协议栈(C语言),用C语言如何表示报头?报头就是一个位段

struct udp_header{

unsinged int src_port: 16;

unsinged int dst_port: 16;

unsinged int udp_len: 16;

unsinged int udp_chk: 16;

}

详细说说报文字段:

首先就是自己的端口号,然后目的端口号,再是udp的长度以及16位效验和,最后就是数据。 

sendto/recvfrom/write/read/recv/send ....iO类接口 

在网络中进行数据收发,其实根本就不是这些函数,这些函数其实本质是拷贝函数。

UDP的特点

UDP传输的过程类似于寄信.

  • 无连接: 知道对端的IP和端口号就直接进行传输, 不需要建立连接;
  • 不可靠: 没有确认机制, 没有重传机制; 如果因为网络故障该段无法发到对方, UDP协议层也不会给应用层返回任何错误信息;
  • 面向数据报: 不能够灵活的控制读写数据的次数和数量;

面向数据报

应用层交给UDP多长的报文, UDP原样发送, 既不会拆分, 也不会合并;
用UDP传输100个字节的数据:

  • 如果发送端调用一次sendto, 发送100个字节, 那么接收端也必须调用对应的一次recvfrom, 接收100个字节; 而不能循环调用10次recvfrom, 每次接收10个字节;

UDP的缓冲区

  • UDP没有真正意义上的 发送缓冲区. 调用sendto会直接交给内核, 由内核将数据传给网络层协议进行后续的传输动作;
  • UDP具有接收缓冲区. 但是这个接收缓冲区不能保证收到的UDP报的顺序和发送UDP报的顺序一致; 如果缓冲区满了, 再到达的UDP数据就会被丢弃;

UDP的socket既能读, 也能写, 这个概念叫做 全双工

UDP使用注意事项

  • 我们注意到, UDP协议首部中有一个16位的最大长度. 也就是说一个UDP能传输的数据最大长度是64K(包含UDP首部).
  • 然而64K在当今的互联网环境下, 是一个非常小的数字.
  • 如果我们需要传输的数据超过64K, 就需要在应用层手动的分包, 多次发送, 并在接收端手动拼装;

基于UDP的应用层协议

  • NFS: 网络文件系统
  • TFTP: 简单文件传输协议
  • DHCP: 动态主机配置协议
  • BOOTP: 启动协议(用于无盘设备启动)
  • DNS: 域名解析协议

当然, 也包括你自己写UDP程序时自定义的应用层协议;

TCP协议

TCP全称为 "传输控制协议(Transmission Control Protocol"). 人如其名, 要对数据的传输进行一个详细的控制;

TCP协议段格式

  • 源/目的端口号:表示数据是从哪个进程来的,要到哪个进程去
  • 4位TCP报头长度:表示该TCP头部有多少个32位bit(有多少个4字节);所以TCP头部最大的长度是 15*4=60
  • 6位标志位:tcp不同报文种类(不同的种类有不同的逻辑处理)
  • URG:紧急指针是否有效,紧急数据在报文中的偏移量
  • ACK:确认号是否有效
  • PSH:提示接收端应用程序立刻从TCP缓冲区把数据读走
  • RST:对方要求重新建立连接,我们把携带RST标识的成为复位报文段
  • SYN:请求建立连接;我们把携带SYN标识的成为同步报文段
  • FIN:通知对方,本端要关闭了,我们把携带FIN标识的称为结束报文段
  • 16位校验和:发送端填充,CRC校验,接收端校验不通过,则认为数据有问题,此处的校验和不光包含TCP首部,也包含TCP数据部分
  • 16位窗口大小:填充的是自身的接受缓冲区中剩余空间的大小;作用:支持流量控制(填我自己的,因为让对方知道我的情况,这样才在知道应该快还是慢)
  • 16位紧急指针:标识哪部分数据是紧急数据(16位紧急指针:是偏移量,数据+偏移量后读一位(也就是不按顺序发送,先发送,不排队),一版用于服务器安全检测)
  • 40字节头部选项:暂时忽略
  • 32位确认序号:通常代表收到的报文+1,代表告知对方A给B发送的N字节之前的所有字节B已经全部收到了,下次从N开始发送

 首先在这里我们要理解一下tcp如何保证有效载荷和报头的分离以及如何交付(几乎任何协议都要首先解决两个问题:):

TCP是如何交付的,TCP是如何解包的,提取20字节,根据标准报头,提取4位首部长度*4=20 - done,读取[提取4位首部长度*4-20]字节数据,读完了报头,剩下的都是有效载荷。

注意:这里的四位首部长度,主要作用是,可以判断有没有选项,但是四位首部长度最大是可以表示15,而报头就有20字节,其实四位首部长度,每一位代表4字节,所以可以表示的范围为[20,60],所以选项最大可以为40字节。

确认应答(ACK)机制

TCP将每个字节的数据都进行了编号. 即为序列号

每一个ACK都带有对应的确认序列号, 意思是告诉发送者, 我已经收到了哪些数据; 下一次你从哪里开始发.

这里我们就可以说一下序号和确认序号的关系以及作用:
tcp是具有可靠性的,什么是可靠?一般而言,我们认为,只有发的消息收到了回应,才算发的消息可靠,被对方收到一般而言,发送的数据都要有响应,这是保证可靠性的底层策略,(确认应答机制)序号+确认序号保证,为什么要有两套序号机制:答因为TCP是全双工的。

超时重传机制 

主机A发送数据给B之后, 可能因为网络拥堵等原因, 数据无法到达主机B;
如果主机A在一个特定时间间隔内没有收到B发来的确认应答, 就会进行重发;

但是, 主机A未收到B发来的确认应答, 也可能是因为ACK丢失了;

因此主机B会收到很多重复数据. 那么TCP协议需要能够识别出那些包是重复的包, 并且把重复的丢弃掉.这时候我们可以利用前面提到的序列号, 就可以很容易做到去重的效果.
那么, 如果超时的时间如何确定?

  • 最理想的情况下, 找到一个最小的时间, 保证 "确认应答一定能在这个时间内返回".
  • 但是这个时间的长短, 随着网络环境的不同, 是有差异的.
  • 如果超时时间设的太长, 会影响整体的重传效率;
  • 如果超时时间设的太短, 有可能会频繁发送重复的包;

TCP为了保证无论在任何环境下都能比较高性能的通信, 因此会动态计算这个最大超时时间.

  • Linux中(BSD Unix和Windows也是如此), 超时以500ms为一个单位进行控制, 每次判定超时重发的超时时间都是500ms的整数倍.
  • 如果重发一次之后, 仍然得不到应答, 等待 2*500ms 后再进行重传.
  • 如果仍然得不到应答, 等待 4*500ms 进行重传. 依次类推, 以指数形式递增.
  • 累计到一定的重传次数, TCP认为网络或者对端主机出现异常, 强制关闭连接

连接管理机制 

在正常情况下, TCP要经过三次握手建立连接, 四次挥手断开连接

  •  建立连接阶段,SYN被设置
  • 三次握手属于通信细节,上层用户不需要关心,双方OS(TCP)自动完成
  • connect():发起三次握手->accept():获取已经建立好的连接(已经完成三次握手的连接)
  • server : client = 1 :n,存在很多的客户端连接

sever如何理解连接?

  • a、面向连接是tcp可靠性的一种
  • b、OS需要管理连接,构建相关结构(先描述再组织)花费成本(时间+空间)

如何理解断开连接?

  • 释放曾经建立好的连接结构体字段

为什么是三次握手?

答:TCP是全双工协议,建立连接的核心是首先要验证双方通信信道是联通的,三次握手是双方通信信道的最小次数 。

那么可以是二次握手或四次握手吗?

TCP的三次握手过程:主机A向B发送连接请求;主机B对收到的主机A的报文段进行确认;主机A再次对主机B的确认进行确认。

采用三次握手是为了防止失效的连接请求报文段突然又传送到主机B,因而产生错误。失效的连接请求报文段是指:主机A发出的连接请求没有收到主机B的确认,于是经过一段时间后,主机A又重新向主机B发送连接请求,且建立成功,顺序完成数据传输。考虑这样一种特殊情况,主机A第一次发送的连接请求并没有丢失,而是因为网络节点导致延迟达到主机B,主机B以为是主机A又发起的新连接,于是主机B同意连接,并向主机A发回确认,但是此时主机A根本不会理会,主机B就一直在等待主机A发送数据,导致主机B的资源浪费。

  • 采用两次握手不行,原因就是上面说的失效的连接请求的特殊情况,因此采用三次握手刚刚好,两次可能出现失效,四次甚至更多次则没必要,反而复杂了。
  • 两次握手还有一个很大的弊端,就是“SYN洪水”,就是我客户端不断的向服务器发起请求连接,然后我客户端忽略服务器该我发送的SYN+ACK,这样服务器的连接不断增加,服务器就会挂掉,如果是三次握手的话,你客户端没先建立链接的话,服务端就不会先建立连接,如果是四次,偶数次握手都会出现这个问题,虽然其数次握手也会有这个问题,但是至少服务端和客户端消耗的资源是一样。

最后一个问题三次握手一定会成功吗?

答案是不一定,因为最后一次握手,并没有确认应答。

client认为自己只要最后一个ACK发出,就建立好了连接,sever认为自己收到ACK,才完成三次握手,建立连接成功client和server认为建立成功是有时间差的,最后一个ACK丢失:client认为自己已经建立成功,server连接建立没完成

解决: client认为连接建立好->发送数据->server(tcp:RST)->重新建立连接 

服务端状态转化:

  • [CLOSE -> LISTEN]服务端调用listen后进入LISTEN状态,等待客户连接
  • [SYN_RCVD -> ESTABLISHED]服务端一旦收到客户端的确认报文,就进入ESTABLISHED状态,可以进行读写数据
  • [ESTABLISHED -> CLOSE_WAIT]当客户端主动关闭连接(调用close),服务器会收到结束报文,服务器返回确认报文并进入CLOSE_WAIT
  • [CLOSE_WAIT -> LAST_WAIT]进入CLOSE_WAIT后说明服务器准备关闭连接(需要处理完之前的数据);当服务器调用close关闭连接时,会问客户端发送FIN,此时服务器进入LAST_ACK状态,等待ACK到来(次ACK是客户端确认收到了FIN)
  • [LAST_ACK_CLOSED]服务器收到了对FIN的ACK,彻底关闭连接

客户端状态转化:

  • [CLOSE -> SYN_SENT]客户端调用connect,发送同步报文
  • [SYN_SENT ->ESTABLISHED]connect调用成功,进入ESTABLISHED状态,开始读写数据
  • [ESTABLISHED -> FIN_WAIT1]c客户端主动调用close时,向服务器发送结束报文段,同时进入FIN_WAIT1
  • [FIN_WAIT1 -> FIN_WAIT2]客户端收到服务器对结束报文的确认,进入FIN_WAIT2,开始等待服务器的结束报文段
  • [FIN_WAIT2 -> TIME_WAIT]客户端收到服务器发来的结束报文段,进入TIME_WAIT,并发出LAST_ACK;
  • [TIME_WAIT -> CLOSED]客户端要等待一个2MSL(报文最大生存时间)的时间,才会进入CLOSED状态

理解TIME_WAIT状态

现在做一个测试,首先启动server,然后启动client,然后用Ctrl-C使server终止,这时马上再运行server, 结果是:

这是因为,虽然server的应用程序终止了,但TCP协议层的连接并没有完全断开,因此不能再次监听同样的server端口.

  • TCP协议规定,主动关闭连接的一方要处于TIME_ WAIT状态,等待两个MSL(maximum segment lifetime)的时间后才能回到CLOSED状态.
  • 我们使用Ctrl-C终止了server, 所以server是主动关闭连接的一方, 在TIME_WAIT期间仍然不能再次监听同样的server端口;
  • MSL在RFC1122中规定为两分钟,但是各操作系统的实现不同, 在Centos7上默认配置的值是60s;
  • 可以通过 cat /proc/sys/net/ipv4/tcp_fin_timeout 查看msl的值;
  • 规定TIME_WAIT的时间请读者参考UNP 2.7节;

为什么是TIME_WAIT的时间是2MSL?

  • MSL是TCP报文的最大生存时间, 因此TIME_WAIT持续存在2MSL的话
  • 就能保证在两个传输方向上的尚未被接收或迟到的报文段都已经消失(否则服务器立刻重启, 可能会收到来自上一个进程的迟到的数据, 但是这种数据很可能是错误的);
  • 同时也是在理论上保证最后一个报文可靠到达(假设最后一个ACK丢失, 那么服务器会再重发一个FIN. 这时虽然客户端的进程不在了, 但是TCP连接还在, 仍然可以重发LAST_ACK);

解决TIME_WAIT状态引起的bind失败的方法

  • 在server的TCP连接没有完全断开之前不允许重新监听, 某些情况下可能是不合理的
  • 服务器需要处理非常大量的客户端的连接(每个连接的生存时间可能很短, 但是每秒都有很大数量的客户端来请求).
  • 这个时候如果由服务器端主动关闭连接(比如某些客户端不活跃, 就需要被服务器端主动清理掉), 就会产生大量TIME_WAIT连接.
  • 由于我们的请求量很大, 就可能导致TIME_WAIT的连接数很多, 每个连接都会占用一个通信五元组(源ip,源端口, 目的ip, 目的端口, 协议). 其中服务器的ip和端口和协议是固定的. 如果新来的客户端连接的ip和端口号和TIME_WAIT占用的链接重复了, 就会出现问题.

使用setsockopt()设置socket描述符的 选项SO_REUSEADDR为1, 表示允许创建端口号相同但IP地址不同的多个socket描述符

理解 CLOSE_WAIT 状态

对于服务器上出现大量的 CLOSE_WAIT 状态, 原因就是服务器没有正确的关闭 socket, 导致四次挥手没有正确完成. 这是一个 BUG. 只需要加上对应的 close 即可解决问题

滑动窗口

刚才我们讨论了确认应答策略, 对每一个发送的数据段, 都要给一个ACK确认应答. 收到ACK后再发送下一个数据段.这样做有一个比较大的缺点, 就是性能较差. 尤其是数据往返的时间较长的时候.


既然这样一发一收的方式性能较低, 那么我们一次发送多条数据, 就可以大大的提高性能(其实是将多个段的等待时间重叠在一起了)

  • 滑动窗口:在自己的发送缓冲区中,限定的一块区域可以直接发送,暂时不用ACK
  • 窗口大小指的是无需等待确认应答而可以继续发送数据的最大值. 上图的窗口大小就是4000个字节(四个段).
  • 发送前四个段的时候, 不需要等待任何ACK, 直接发送;
  • 收到第一个ACK后, 滑动窗口向后移动, 继续发送第五个段的数据; 依次类推;
  • 操作系统内核为了维护这个滑动窗口, 需要开辟 发送缓冲区 来记录当前还有哪些数据没有应答; 只有确认应答过的数据, 才能从缓冲区删掉;
  • 窗口越大, 则网络的吞吐率就越高;

那么如果出现了丢包, 如何进行重传? 这里分两种情况讨论.
情况一: 数据包已经抵达, ACK被丢了

这种情况下, 部分ACK丢了并不要紧, 因为可以通过后续的ACK进行确认,这个我们在之前就说过,如果收到了3001,就表示3001以前的全部收到了;

情况二: 数据包就直接丢了.

 

  • 当某一段报文段丢失之后, 发送端会一直收到 1001 这样的ACK, 就像是在提醒发送端 "我想要的是 1001"一样;
  • 如果发送端主机连续三次收到了同样一个 "1001" 这样的应答, 就会将对应的数据 1001 - 2000 重新发送;
  • 这个时候接收端收到了 1001 之后, 再次返回的ACK就是7001了(因为2001 - 4000)接收端其实之前就已经收到了, 被放到了接收端操作系统内核的接收缓冲区中;
  • 这种机制被称为 "高速重发控制"(也叫 "快重传").

流量控制 

接收端处理数据的速度是有限的. 如果发送端发的太快, 导致接收端的缓冲区被打满, 这个时候如果发送端继续发送,就会造成丢包, 继而引起丢包重传等等一系列连锁反应.
因此TCP支持根据接收端的处理能力, 来决定发送端的发送速度. 这个机制就叫做流量控制(Flow Control);

  • 接收端将自己可以接收的缓冲区大小放入 TCP 首部中的 "窗口大小" 字段, 通过ACK端通知发送端;
  • 窗口大小字段越大, 说明网络的吞吐量越高;
  • 接收端一旦发现自己的缓冲区快满了, 就会将窗口大小设置成一个更小的值通知给发送端;
  • 发送端接受到这个窗口之后, 就会减慢自己的发送速度;
  • 如果接收端缓冲区满了, 就会将窗口置为0;
  • 这时发送方不再发送数据, 但是需要定期发送一个窗口探测数据段, 使接收端把窗口大小告诉发送端;
  • 接收端如何把窗口大小告诉发送端呢? 回忆我们的TCP首部中, 有一个16位窗口字段, 就是存放了窗口大小信息;

那么问题来了, 16位数字最大表示65535, 那么TCP窗口最大就是65535字节么?

  • 实际上, TCP首部40字节选项中还包含了一个窗口扩大因子M, 实际窗口大小是 窗口字段的值左移 M 位;

拥塞控制

  • 虽然TCP有了滑动窗口这个大杀器, 能够高效可靠的发送大量的数据. 但是如果在刚开始阶段就发送大量的数据, 仍然可能引发问题.
  • 因为网络上有很多的计算机, 可能当前的网络状态就已经比较拥堵. 在不清楚当前网络状态下, 贸然发送大量的数据,是很有可能引起雪上加霜的.
  • TCP引入慢启动机制, 先发少量的数据, 探探路, 摸清当前的网络拥堵状态, 再决定按照多大的速度传输数据; 

 

  • 此处引入一个概念程为拥塞窗口
  • 发送开始的时候, 定义拥塞窗口大小为1;
  • 每次收到一个ACK应答, 拥塞窗口加1;
  • 每次发送数据包的时候, 将拥塞窗口和接收端主机反馈的窗口大小做比较, 取较小的值作为实际发送的窗口;
  • 像上面这样的拥塞窗口增长速度, 是指数级别的. "慢启动" 只是指初使时慢, 但是增长速度非常快.
  • 为了不增长的那么快, 因此不能使拥塞窗口单纯的加倍.
  • 此处引入一个叫做慢启动的阈值
  • 当拥塞窗口超过这个阈值的时候, 不再按照指数方式增长, 而是按照线性方式增长
  • 当TCP开始启动的时候, 慢启动阈值等于窗口最大值;
  • 在每次超时重发的时候, 慢启动阈值会变成原来的一半, 同时拥塞窗口置回1;
  • 少量的丢包, 我们仅仅是触发超时重传; 大量的丢包, 我们就认为网络拥塞;
  • 当TCP通信开始后, 网络吞吐量会逐渐上升; 随着网络发生拥堵, 吞吐量会立刻下降;
  • 拥塞控制, 归根结底是TCP协议想尽可能快的把数据传输给对方, 但是又要避免给网络造成太大压力的折中方案.
  • TCP拥塞控制这样的过程, 就好像 热恋的感觉

少量的丢包,触发超时重传,大量的丢包,网络拥塞。
当tcp通信开始后,网络吞吐量会逐渐上升,随着网络发送拥堵,吞吐量会立即下降;
拥塞控制时tcp协议想尽快把数据传输给对方,但是又要避免给网络造成太大压力的折中方案。

延迟应答

如果接收数据的主机立刻返回ACK应答, 这时候返回的窗口可能比较小.

  • 假设接收端缓冲区为1M. 一次收到了500K的数据; 如果立刻应答, 返回的窗口就是500K;
  • 但实际上可能处理端处理的速度很快, 10ms之内就把500K数据从缓冲区消费掉了;
  • 在这种情况下, 接收端处理还远没有达到自己的极限, 即使窗口再放大一些, 也能处理过来;
  • 如果接收端稍微等一会再应答, 比如等待200ms再应答, 那么这个时候返回的窗口大小就是1M;

一定要记得, 窗口越大, 网络吞吐量就越大, 传输效率就越高. 我们的目标是在保证网络不拥塞的情况下尽量提高传输效率;
那么所有的包都可以延迟应答么? 肯定也不是;

  • 数量限制: 每隔N个包就应答一次;
  • 时间限制: 超过最大延迟时间就应答一次;

具体的数量和超时时间, 依操作系统不同也有差异; 一般N取2, 超时时间取200ms;

捎带应答

在延迟应答的基础上, 我们发现, 很多情况下, 客户端服务器在应用层也是 "一发一收" 的. 意味着客户端给服务器说了 "How are you", 服务器也会给客户端回一个 "Fine, thank you";
那么这个时候ACK就可以搭顺风车, 和服务器回应的 "Fine, thank you" 一起回给客户端

面向字节流

创建一个TCP的socket, 同时在内核中创建一个 发送缓冲区 和一个 接收缓冲区;

  • 调用write时, 数据会先写入发送缓冲区中;
  • 如果发送的字节数太长, 会被拆分成多个TCP的数据包发出;
  • 如果发送的字节数太短, 就会先在缓冲区里等待, 等到缓冲区长度差不多了, 或者其他合适的时机发送出去;
  • 接收数据的时候, 数据也是从网卡驱动程序到达内核的接收缓冲区;
  • 然后应用程序可以调用read从接收缓冲区拿数据;
  • 另一方面, TCP的一个连接, 既有发送缓冲区, 也有接收缓冲区, 那么对于这一个连接, 既可以读数据, 也可以写数据. 这个概念叫做 全双工

由于缓冲区的存在, TCP程序的读和写不需要一一匹配, 例如:

  • 写100个字节数据时, 可以调用一次write写100个字节, 也可以调用100次write, 每次写一个字节;
  • 读100个字节数据时, 也完全不需要考虑写的时候是怎么写的, 既可以一次read 100个字节, 也可以一次read一个字节, 重复100次;
     

粘包问题

首先要明确, 粘包问题中的 "包" , 是指的应用层的数据包.

  • 在TCP的协议头中, 没有如同UDP一样的 "报文长度" 这样的字段, 但是有一个序号这样的字段.
  • 站在传输层的角度, TCP是一个一个报文过来的. 按照序号排好序放在缓冲区中.
  • 站在应用层的角度, 看到的只是一串连续的字节数据.
  • 那么应用程序看到了这么一连串的字节数据, 就不知道从哪个部分开始到哪个部分, 是一个完整的应用层数据包.

那么如何避免粘包问题呢? 归根结底就是一句话, 明确两个包之间的边界.

  • 对于定长的包, 保证每次都按固定大小读取即可; 例如上面的Request结构, 是固定大小的, 那么就从缓冲区从头开始按sizeof(Request)依次读取即可;
  • 对于变长的包, 可以在包头的位置, 约定一个包总长度的字段, 从而就知道了包的结束位置;
  • 对于变长的包, 还可以在包和包之间使用明确的分隔符(应用层协议, 是程序猿自己来定的, 只要保证分隔符不和正文冲突即可);

思考: 对于UDP协议来说, 是否也存在 "粘包问题" 呢?

  • 对于UDP, 如果还没有上层交付数据, UDP的报文长度仍然在. 同时, UDP是一个一个把数据交付给应用层. 就有很明确的数据边界.
  • 站在应用层的站在应用层的角度, 使用UDP的时候, 要么收到完整的UDP报文, 要么不收. 不会出现"半个"的情况.

TCP异常情况

  • 进程终止: 进程终止会释放文件描述符, 仍然可以发送FIN. 和正常关闭没有什么区别.
  • 机器重启: 和进程终止的情况相同.
  • 机器掉电/网线断开: 接收端认为连接还在, 一旦接收端有写入操作, 接收端发现连接已经不在了, 就会进行reset. 即使没有写入操作, TCP自己也内置了一个保活定时器, 会定期询问对方是否还在. 如果对方不在, 也会把连接释放.
  • 另外, 应用层的某些协议, 也有一些这样的检测机制. 例如HTTP长连接中, 也会定期检测对方的状态. 例如QQ, 在QQ断线之后, 也会定期尝试重新连接

TCP小结

为什么TCP这么复杂? 因为要保证可靠性, 同时又尽可能的提高性能.
可靠性:

  • 校验和
  • 序列号(按序到达)
  • 确认应答
  • 超时重发
  • 连接管理
  • 流量控制
  • 拥塞控制

提高性能:

  • 滑动窗口
  • 快速重传
  • 延迟应答
  • 捎带应答

其他:

  • 定时器(超时重传定时器, 保活定时器, TIME_WAIT定时器等)

基于TCP应用层协议

  • HTTP
  • HTTPS
  • SSH
  • Telnet
  • FTP
  • SMTP

当然, 也包括你自己写TCP程序时自定义的应用层协议;

TCP/UDP对比

我们说了TCP是可靠连接, 那么是不是TCP一定就优于UDP呢? TCP和UDP之间的优点和缺点, 不能简单, 绝对的进行比较

  • TCP用于可靠传输的情况, 应用于文件传输, 重要状态更新等场景;
  • UDP用于对高速传输和实时性要求较高的通信领域, 例如, 早期的QQ, 视频传输等. 另外UDP可以用于广播;

归根结底, TCP和UDP都是程序员的工具, 什么时机用, 具体怎么用, 还是要根据具体的需求场景去判定.
 

用UDP实现可靠传输

参考TCP的可靠性机制, 在应用层实现类似的逻辑;
例如:

  • 引入序列号, 保证数据顺序;
  • 引入确认应答, 确保对端收到了数据;
  • 引入超时重传, 如果隔一段时间没有应答, 就重发数据;
  • ......

TCP 相关实验

listen的第二个参数
第二个参数:TCP底层所能接收的底层链接个数,也叫全链接的个数
Linux内核协议栈为一个tcp连接管理使用两个队列:

1.半链接队列(用来保存处于SYN_SENT和SYN_RECV状态的请求)
2.全链接队列 (accept队列)
(用来保存ESTABLISHED状态,但是应用层没有调用accept取走的请求)
全链接队列的长度会受到listen的第二个参数的影响,全链接队列满了,就无法让当前链接的状态进入established状态。
队列长度:listen第二个参数+1

accpet要不要参与三次握手的过程呢?不要

先建立好链接,然后才能accept获取对应的连接如果我不调用accept,能建立连接成功吗?能的!

如果上层来不及调用accept,并且对端还来了大量的连接?难道所有的连接都应该先建立好吗? 

答案:不应该,但是应该有一个队列将他们保存起来,但是队列不应该太长,其实这个就像我们生活中去吃火锅,如果里面人已经满了,店员就会让你在外面排一下队,但是这个队不能太长,比如这个队已经排到他们今天所接待的极限了,就不能再排下去了,这个就和listen的第二个参数一样,就是维护一个队列。

使用telnet

telnet ip port

在telnet中输入ctrl+]回到telnet控制界面,输入quit退出。

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

pythoncjavac++

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值