视频来自b站链接
第一章概述
1. 网络、互联网和因特网
明确网络=结点+链路,互连网=网络+路由器(internet,泛指,网络之间的通信协议任意),因特网是最大的互联网(Internet,采用TCP/IP协议族作为通信的规则)!
现在重新定义了,互联网=因特网=Internet都是当今世界上最大的计算机网络,互连网=internet是在局部范围互连起来的计算机网络。
1969年第一个分组交换网ARPANET出现,1983年因特网Internet正式成立(原因:TCP/IP协议变成ARPANET的标准协议),1994年WWW万维网建立!
2. 因特网服务提供者ISP(Internet Service Provider)
普通用户通过ISP与因特网相连,ISP从因特网管理机构中申请成块的IP地址,同时拥有通信线路以及路由器等连接设备。因特网上的所有主机必须通过ISP提供的IP地址才能进行通信。
基于ISP的三层结构的因特网
根据服务面积和拥有的IP地址数量,可分为不同层次的ISP。第一层服务面积最大,通常被称为因特网主干网,国际性、高速链条设备。第一层ISP的用户为第二层ISP和一些大公司,区域性国家性。第三层ISP又称为本地ISP,它们是第二层ISP的用户,且只拥有本地范围的网络,校园网、企业网、住宅用户、移动用户往往是本地ISP的用户。
注意,一旦某个用户能够接入到IN,那么他也可以成为一个ISP。他已经有IP地址了,所以再需要购买一些通信设备或者路由器就能作为一个ISP,让其他用户与之相连。
因特网的标准化工作
就是求评论,公开的文档求社会评论
因特网的组成
从功能角度划分:边缘部分+核心部分
边缘部分:台式电脑、笔记本、平板、手机、手表、摄像头等等。
内层负责连通,外层负责共享。边缘部分就是资源子网,核心部分就是通信子网。
路由器是一种专用计算机,但我们不称它为主机。它是实现分组交换的关键构件(分组交换网ARPANET),其任务是转发收到的分组,是网络核心部分的最重要的功能。
3. 电路交换、分组交换、报文交换
交换Switching:按照某种方式动态分配传输线路的资源。
电路交换Circuit Switching
电话交换机——让电话连接的中间件,可以视为具有多个开关的开关器,可以将与之相连的任意两部电话的电话线路按需接通。多个交换机构成电信网,而电话交换机接通电话线的方式称为电路交换。
电路交换是一种面向连接的交换方式! 能够保证通话质量。
接电话之后,连接建立,形成一条专用的物理通路。该连接保证了双方通话时所需要的通信资源,在通信时资源不会被其他用户占用!取消连接不需要ACK。
分组交换不适合计算机之间的通信,简单来说,因为谁也不喜欢在忙碌的时候别人打个电话煲电话粥断断续续一整天结果没什么重要的事。换言之,计算机在准备、编辑数据的时候,传输资源被持续占用,线路的传输效率往往很低。所以计算机网络通常使用分组交换。
分组交换Packet Switching
因特网最重要的分组交换机就是路由器:使网络互联,并对接收到的分组 packet 进行转发,转发的过程对应的就是分组交换的过程。存储转发store and forward!
报文又能够继续分组为更小的等长数据段,这个数据段加上控制信息(首部),就能够形成分组,也就是包packet。
首部,也可以称为包头,包含分组的目的地址。分组交换机收到分组后,先暂时将分组存储,再检查首部,根据首部中的目的地址进行查表,找到合适的转发接口,通过该接口将分组转发给下一个分组交换机。
在接收段收到这些分组后,把每个分组中的首部去掉,然后将各个数据段组合还原出原始的报文。路由器是分组转发的重要的结点交换机。
协议设定的东西就能够保证分组传输的有序性,能够在接收端在去掉首部之后能够按照顺序组合成完整的报文。
报文交换Message Switching
报文交换也是上面三方,但是对报文的大小没有限制。这就要求中间件交换结点需要有较大的缓存空间。主要用于早期的电报通信网,现在很少使用。
对于报文转发,通常涉及到的设备是交换机(如以太网交换机)和网桥,它们工作在数据链路层。报文转发的基本单位是帧,而不是分组。帧是网络上数据链路层的协议数据单元,包括MAC地址等信息。
路由器和交换机是网络的关键设备,负责在不同层次上的数据转发:
- 路由器工作在网络层,负责分组转发,使用IP地址进行路由选择。
- 交换机和网桥工作在数据链路层,负责报文或帧转发,使用MAC地址来指导数据在局域网内的移动。
三者对比
ABCD是结点交换机,纵坐标为时间。
电路交换:连续传输大量数据!物理信道是独立的不会产生冲突,既可以适用于传输模拟信号,也可以传输数字信号。但是鲁棒性不好,不利于发送紧急重要的通信。不同类型、规格、速率的终端很难相互进行通信。cut-through直达终点。
分组交换就是将报文分组,能够减少转发时延(各个分组的操作允许并行),也可以避免过长的报文长时间占用链路,同时也有利于进行差错控制。分组、电报交换时用户都能随时发送(提供多目标服务),无需建立连接,并且是在不同时间分段上占用物理线路,利用率很高。
4. 计算机网络定义和分类
计算机网络的定义
三网融合的前提:物理硬件发展与协议相通!
硬件广泛、功能广泛
首先一点:传统终端机不算自治的计算机,具体介绍如下:
终端机
终端机,通常指的是计算机终端(Computer Terminal),它在传统的计算机架构中起到用户交互的作用。传统的终端机不具备自主的计算能力,而是依赖于主机(如大型机或服务器)来进行计算任务。
早期的终端机通常由以下部分组成:
- 显示屏:显示来自主机的信息。
- 输入设备:如键盘,用于用户输入指令或数据。
- 通信接口:如串行端口,用于与主机通信。
终端机不包含处理器或独立的存储能力来运行复杂的应用程序或操作系统,它们仅仅是输入和输出设备的集合。因此,终端机不属于自治的计算机。
随着技术的发展,现代的“终端”可能指的是有更多功能的设备,比如:
- 智能终端:拥有一些处理能力,可以执行简单的程序和缓存数据,但仍然依赖于网络中的服务器来处理复杂任务。
- 虚拟终端:现代操作系统中的一个程序,它模拟传统终端机的功能,允许用户与系统交互。
- 终端仿真程序:在个人电脑上运行,模拟传统终端机的行为,使得个人电脑可以通过网络与大型机等远程计算机进行通信。
综上所述,传统的终端机是不自治的,它们依赖于连接的主机计算机来执行任务和处理数据。而现代的终端可以是软件模拟的,也可以是拥有一定自治功能的智能设备,但是终究还是不属于自治的计算机。
计算机网络的分类
其中:
- 公用网是电信公司建造的大型网络,所有愿意按照电信公司设立规则缴费的用户都可以使用公用网。(类比学校宿舍网)专用网是特殊需要建造的网络。
- 有线网络包括双绞线网络、光纤网络;无线网路包括WIFI等
- 我没老婆WMLP:广域网、城域网、局域网、个域网。广域网是因特网的核心部分,为核心路由器提供远距离高速连接!个域网就是自用设备:计算机、打印机、鼠标、键盘、耳机、吉他用无线技术(比如蓝牙)连接起来的网络。
- WLAN:无线局域网
- 如果多个处理机距离很近,小于1m,就通常称为多处理机系统,而不叫计算机网络。所以我周围的两台电脑合作的话就是多处理机系统。
- AN接入网,用于将用户接入互连网。就是本地ISP所拥有的网络,是用户与本地ISP连接 的桥梁。既不属于核心部分,也不属于边缘部分。
- FTTR:光纤到room,全屋智能。
5. 计算机网络性能指标
速率
这个作者之前学过测试,估计难度很小了。好吧定义不太一样。
计算机固态中标明的250GB,是以1000为进制(kb中的k)进行KB/MB/GB换算的;而实际的OS中显示的都是根据1024(Kb中的K)进行计算。所以总容量相同的情况下,OS除以1024得到的大小更小,但同时显示的是最准确的,而250GB只是近似值,偏大。
性能指标——速率,就是比特率,即单位时间内传输比特的数量。严重注意,比特率中的k,M,G对应的都是1000倍率,但是比特的K,M,G对应的都是1024倍率。在计算传输时间时,严格来说M,G等不能直接约掉!不过平时如果没说,就能忽略!主要还是看题意!
带宽
核心概念——信号不同频率对应的频率范围(频域称谓)
带宽200兆,其实就是出口带宽,就是家里的最高数据率、最高比特率是200Mb/s,只不过平时会省略b/s直接说多少兆。所以在计网中,带宽就是最高比特率!(时域称谓)
吞吐量
单位时间内通过某个网络、信道、接口的数据量
吞吐量受带宽限制,通常只能达到带宽的70%(前三个性能指标的单位都是b/s)。
时延
可以参考之前学的处理机内部和传输层所耽误的时间,计网中的时延就是从源主机到目的主机这一过程中的时间(延误)。
源主机——传输线路:发送时延
传输线路(链路)上电信号的传输:传播时延
路由器存储转发——处理时延
排队时延
相当于处理时延仅仅是路由器所需要的时间(每个路由器的处理能力都不同),而排队时延是分组在输入输出队列中的时间,在实际中必须要考虑这个问题。
需要注意的是:
- 在构建网络时,应该做到各设备以及传输介质的速率匹配,才能发挥出最大的潜力,尽可能减少时延。
- 在计算传播时延时,首先应该确定采用什么传输媒体,然后根据这个媒体选择匹配的电磁波传输速率!这三个速率最好都要记住。
- 路由器的繁忙程度动态变化,所以处理时延一般不方便计算
时延带宽积
时延带宽积 = 传播时延 * 带宽
当将传播时延(以秒为单位)乘以带宽(以比特/秒为单位),得到的结果是一个以比特为单位的值,称为时延带宽积。这个值实际上代表了从发送端发出信号到信号到达接收端之间,在链路上的任意时刻能够存在的最大比特数。也就是整个链路立方体中的所有比特粒子数,而且是最大的,因为乘的是带宽而不是平均速率。
- 传播时延是信号在介质中传播一定距离所需的时间。它取决于信号传播的总距离和信号在介质中的传播速度。
- 带宽(以比特/秒为单位)是网络链路在单位时间内能够传输数据的最大速率。
链路的时延带宽积又称为以比特位单位的链路长度
这里的“链路长度”并不是指链路的物理长度,而是指在链路上能够“存储”的数据量,也就是说,如果你开始发送数据,那么在第一个比特到达另一端之前,可以发送多少比特而不会丢失。换句话说,它是在传输过程中链路上可以存储的最大比特数,或者可以理解为“在路上”的数据量。
例如,如果一个链路的传播时延是10毫秒,带宽是1Gbps,那么时延带宽积就是:
10 ms * 1 Gbps = 10 * 10^-3 * 10^9 bps = 10^7 bits
这意味着在任意时刻,该链路可以有10^7比特的数据在传输中,尚未到达接收端。
为什么这个概念重要?
了解时延带宽积对于网络设计非常重要,因为它影响了如窗口大小这样的网络参数的设置,这些参数是用于流量控制和确保数据传输可靠性的。例如,在TCP连接中,时延带宽积可以帮助确定合适的发送窗口大小,以最大化链路利用率并减少延迟。
往返时间
往返时间(Round-Trip Time,RTT)是网络性能指标之一,它衡量数据从源到目的地再返回源的总时间。这个时间,主要在于面向连接的情况,包括:
- 数据分组从源主机到目的主机的传输时间。
- 目的主机处理分组并生成确认消息的时间。
- 确认消息从目的主机返回源主机的传输时间。
注意,成功发送的总时延,才是从发送方发送时延开始计算到确认ACK;而往返时间RTT,并不包含发送方的发送时延,是指发送完后数据的传输确认过程。
在不同的协议和网络环境中,确认分组(acknowledgment packet,ACK)的形式可能有所不同。在大多数情况下,确认是一个轻量级的消息,其大小远小于原始数据分组的大小。例如:
-
在 TCP(Transmission Control Protocol) 中,确认是一个很小的分组,它包含了确认接收的数据分组的序列号。TCP ACKs 不仅仅是一个简单的信号,它们还包含了流量控制和拥塞控制信息,比如窗口大小。TCP的确认包通常不包含任何应用层的数据,它们仅仅是传输层级别的确认。
-
在 UDP(User Datagram Protocol) 中,不提供内建的确认机制,因此如果应用层需要确认机制,必须由应用自己定义。这可能会是一个特定格式的小数据包,也可能包含某些状态信息。
-
在其他一些协议中,如HTTP协议的请求/响应模型中,确认的形式可能是一个完整的HTTP响应,该响应不仅确认收到了请求,还可能包含请求的数据。
在所有这些情况中,确认消息的主要目的是让发送方知道其发送的数据已成功到达接收方,并且接收方已经对数据进行了处理。这是网络通信中确保数据可靠传输的关键步骤,特别是在可靠的传输协议(如TCP)中。
综上,往返时间RTT就是:从源主机发送分组开始,直到源主机收到来自目的主机的确认分组为止,所需要的时间。
图中的卫星链路耗时最久。虽然是自由空间,但是距离非常远,几乎产生了0.24s的延时。
利用率
利用率越高,网络当前的时延也就越高。
当我们说利用率越高,网络的时延也就越高时,我们是在讨论网络资源接近饱和时带来的效应。根据排队论:
- 当网络中的设备(如路由器、交换机)接近或达到它们的处理能力极限时,必然会出现排队现象,即数据包需要等待被处理。
- 当设备的利用率接近100%时,即设备几乎在每个时刻都在处理数据包,这时即使有很小的流量增加也会导致延迟急剧增加,因为数据包的排队等待时间变长。
- 在这种情况下,网络中的缓存可能会开始填满,增加的排队时延(队列中等待的时间)加上处理时延和传播时延,导致整体网络时延上升。
因此,虽然高利用率意味着资源被充分使用,但过高的利用率可能导致网络性能下降,特别是在高负载时,网络延迟可能变得不可接受。在网络设计和管理中,通常会设计一定的容量余量,以避免网络时延过高,确保网络的稳定性和可靠性。
排队论
既然学了数学建模,那么就来研究一下吧。
排队论的基本原理被用来解释和预测网络中的排队延迟,特别是在高利用率的情况下。排队论中的一些关键公式可以帮助我们理解这一点。
排队论的经典模型之一是M/M/1队列,其中:
M
表示到达流是泊松过程(Markovian/ Memoryless/ Poisson process)。- 第二个
M
表示服务时间是指数分布的(Markovian/ Memoryless)。1
表示有一个服务窗口或服务器。
这个模型简洁地捕捉了服务过程中的关键动态,尤其是在单服务窗口和随机服务时间场景下。在M/M/1队列模型中,系统的平均延迟(D)可以用以下公式表示:
其中:
λ
(lambda)是平均到达率(单位时间内到达的顾客数)。μ
(mu)是平均服务率(单位时间内服务的顾客数)。
系统的利用率(ρ,rho)定义为到达率与服务率的比例:
当系统利用率接近1(即 λ
接近 μ
),根据平均延迟D的公式可知,系统的平均延迟 D
会趋向于无限大。这是因为当几乎在每个单位时间内都有顾客到达,并且服务器总是忙碌的时候,顾客的等待时间会迅速积累,造成系统延迟的增加。
如果我们把这个模型应用到网络环境中,到达率可以看作是数据包的到达率,服务率可以看作是路由器或交换机处理数据包的速率。当网络设备(如路由器)的处理速率接近其最大能力时(即利用率接近1),数据包的平均等待时间会增加,从而导致整体网络延迟的增加。
因此,为了保持网络性能和避免显著的延迟,网络设计师通常会保证网络设备的利用率远离极限值1。例如,在设计时可能会确保网络设备的最大利用率不超过70%或80%,以便留出处理突发流量的余地,避免排队延迟成为问题。
排队论推导课件所给公式
老师的公式为D=D0/(1-ρ),其中D0表示空闲网络的时延,在所述的排队论模型中,推导的结果应该等于1/μ,这二者相等吗?
在排队论中,D0
或 1/μ都
表示系统在不考虑排队时单个顾客的平均服务时间,也就是空闲网络中的时延。而 D
表示系统的平均总时延,这包括顾客在队列中的等待时间和服务时间。
具体解释:
μ
表示服务率,即单位时间内服务设施能够服务的顾客数量。因此,1/μ
也就是时间除以顾客数量,表示每服务一个顾客所花费的时间,就是单个顾客的平均服务时间,也就是一个顾客被服务的期望时间。这是在没有其他顾客等待的情况下,即服务设施(如服务器、路由器、柜台等)完全空闲时,单个顾客的服务时间。
这样就能推导下面老师课件中的公式是正确的:
这里:
- D 是系统中顾客的平均总时延(包括等待服务的时间和服务本身所需的时间)。
- D0 是单个顾客的平均服务时间,即在没有等待时间的情况下服务一个顾客所需的时间。
- ρ 是系统的利用率,代表系统的繁忙程度。
因此,当系统空闲(也就是说没有排队时),顾客的平均服务时间是 D0
。但是,当系统不空闲并且存在排队时,总的平均时延 D
会增加,因为顾客需要等待已经在服务的顾客完成服务。
这个公式反映了排队时延对总时延的影响。当 ρ
接近1时(这意味着系统的到达率接近其服务率,系统接近或处于饱和状态),分母 1-ρ
接近0,这将导致 D
显著增加,反映了高利用率时系统延迟的增加。
因此,D0
和 1/μ
是相等的,它们都表示没有排队时的服务时间,而 D
是考虑排队后的总平均时延。
进一步思考
μ和λ本身是不是也是在没有排队等待时的服务率和到达率?不然1/μ也不会有这个先决条件
答案是否定。
在排队论中,服务率 μ 和到达率 λ 的定义实际上是独立于系统是否存在排队等待的情况。
服务率 μ 是指服务设施在单位时间内能够服务的平均顾客数(或处理的任务数、数据包等)。它是服务设施性能的一个度量,表明在理想条件下(即服务设施始终忙碌,没有空闲时间)服务设施的最大处理能力。
到达率 λ 是指单位时间内到达系统的平均顾客数(或请求、数据包等)。它描述了顾客到达模式的一个特性,而不是系统内部处理能力的特性。
这两个率通常被视为系统分析中的基本参数,它们的值假定是已知的或可以通过观测获得的。在排队论的模型中,这些参数用于描述和分析系统的行为,包括等待时间、系统的利用率、队列长度等。
当我们讨论 1/μ 作为“平均服务时间”的时候,我们是在说在没有其他延迟(比如不需要等待前面的顾客完成服务)的情况下,单个顾客被服务的平均时间。这是服务率 μ 的一个直接结果,但并不意味着 μ 和 λ 本身的定义附带了“没有排队等待”的先决条件。相反,它们是用来帮助我们理解和分析当存在排队等待时系统如何表现的工具。
因此,虽然 1/μ 反映了在理想条件下的单个顾客服务时间μ 和 λ 本身的定义是为了排队系统的分析而抽象化的,不特指是否存在排队等待的情况。
丢包率
6. 计算机网络体系结构
常见计网体系结构
TCP/IP结构考试必考!
二层交换机/三层交换机:数据链路层和网络层(OSI体系结构的层)
- OSI开放性系统互连参考模型已经不适用了,商业价值不如后者TCP/IP体系结构。
- 由于TCP/IP在网络层使用的是IP协议,而IP协议的中文是网际协议,所以将网络层称为网际层
- TI协议的网络接口层并没有规定具体的内容,这是为了扩展网络接口层的连接范围,连接世界上各种不同的网络接口。(比如有线的以太网接口或者无线的WIFI接口)但是这也不利于计网的原理学习,所以计网中考虑的是后面的五层体系结构。
IP协议将不同的网络接口互联,并且向其上的TCP和UDP传输协议提供网络互联服务。TCP和UDP在享受IP协议提供的网络互联服务的基础上,分别向应用层的HTTP等应用协议提供可靠/不可靠的传输互联服务。
原理体系结构各层任务
物理层:实现数据在主机之间的传播!
解决何种信号来传输比特的问题,使得主机之间可以传输比特。
两点:传输媒体不属于物理层;比特流的信号形式不是方波,这里只是为了便于理解。
数据链路层:实现数据在网络上的传播!
交换机每一个接口都是相同网段的。
网卡上的MAC地址:主机在网络中的地址。当有数据包传输到某主机时,该主机需要比较该包的目的地址与自身地址是否相同以判断是否接收该数据。
网络层:实现数据在互联网上的传播!
主要涉及各个网络中主机和路由器的编址以及路由器的路由选择问题。
路由器每一个接口都是不同网段的。
运输层:实现数据在互联网上进程之间的传播!
确保运输的准确性,增加网络安全与进程通信范围。
应用层:实现互联网上进程的具体应用!
计网体系结构分层举例
假设主机通过浏览器向Web服务器通信,这个通信本质上就是浏览器的应用层产生了一段HTTP报文(可以看成是HTTP请求头),里面含有需要访问的信息。然后在运输层中添加TCP首部(使之成为TCP报文段,该首部作用是区分进程和实现可靠传输),在网络层中添加IP首部(使之成为IP数据报,该首部作用是允许其在互联网上被路由器正确转发),在数据链路层首部和尾部填补作为帧(首部使之在主机之间传输,尾部能够让目的主机判断传输是否有误码),最终将帧变成比特流,把比特流转换成信号在信道中传输。
而路由器则可以视为是一种U型结构,两边都是物理层.在以太网中,完整的比特流中的前导码通过物理层进行拆解,然后链路层拆解帧结构,最终网络层查看IP段,根据目的地址查表然后选择合适的转发接口进行转发。选择好之后,继续通过链路层形成帧,通过物理层变成比特流,传递到Web服务器中。
在解析过程中,其实道理和路由器类似,就是逐步拆解、识别发送端逐步封装的首部,不断根据这些信息探索所需资源,得到结果之后按照同样的方法逐步封装并传递HTTP响应报文,在主机收到相应报文后就可以解析得到页面渲染内容。
计网体系结构专用术语
分为实体、协议和服务三类术语
软硬件:比如网卡、应用进程都属于对等实体!而协议就是控制两个对等实体通信的规则集。但是这种通信属于逻辑通信,实际上不存在,它只是我们假设出来的一种通信,便于专注研究体系中的某一层。
协议主要是防止大量的意外发生。
同步定义的是收发双方的时序关系,比如TCP三次握手中TCP客户端和TCP服务器之间的时序关系非常明显!同步:事件实现顺序的详细说明。 不是时间上的同步,而是事情发生的一去一回的时序过程。
例如,物理层对等实体在物理层协议的控制下,向数据链路层提供服务;数据链路层对等实体在数据链路层协议的控制下,向网络层提供服务;网络层对等实体在网络层协议的控制下,向运输层提供服务。
注意:协议在上下层透明,以服务作为各层传递对象。比如大部分人享受手机带来的服务,但是不清楚手机具体受什么协议控制。
这个服务访问点作为逻辑接口,我觉得就可以把它视为各层服务的ID或者接口。数据链路层的服务访问点是帧的“类型”字段;网络层的服务访问点就是IP首部的“协议”字段;运输层的服务访问点是“端口号”。
协议数据单元PDU,服务数据单元SDU!
习题
计算机体系结构
最重要的一点就是:互联网上主机之间的通信不是端到端的逻辑通信,所以第一个提供端到端服务的不是网络层而是传输层。端到端是指进程到进程!
TCP/IP参考模型描述了每一层使用的协议(除了没有具体内容的网络接口层),所以,计网的体系结构把网络的层次、协议、功能都描述了,但内部实现细节应该涉及到计网原理。
后面的练习就比较简单了:
时延问题
注意发送时延的分组长度啊,如果是报文交换则一定注意此时的分组长度就是报文长度!同时,右上角表示,主机的发送速率是网卡最大速率、传输信道带宽、交换机接口速率的最小者。
这种总时延,不仅要考虑发送时延,也要考虑传播时延!但无论发送多少比特,传播时延都不变,只改变发送时延的数量。(发送时延与比特长度其实也是分组长度有关,而传播时延只与距离和电磁波速率有关)就像是出水的水龙头,无论出多少水,总时间就是所有水到达口子的时间+水流下的时间。
而无论距离多远,只要传输比特个数不变,则其发送时延就不变(因为分组的长度和带宽都不变),改变的是传输时延!
重点:网络多段链路传播的时延计算
m+n-1段发送时延+m段链路的传播时延。
注意m是链路数,所以与传播时延完全相关,而对于发送时延考虑的是转发次数中的发送时延+n个分组的发送时延,转发次数是链路数m-1,所以总和为m+n-1。
最大最小的问题可能要考虑求导!
分组长度是总的长度p+h,但是如果要根据报文长度求分组个数的话,报文是总数居,那么也要除以分组的数据部分而不是完整的分组,才能得到正确的分组个数!
习题四是重点!一定要注意,报文的发送时延,对于报文交换来说,是整体数据在一起考虑的,所以直接将报文发送时延*(n+m-1),此时n=1,m=2,所以是1.6s。
而对于分组交换来说,与报文交换的最大不同在于,还在进行后续分组的传播的同时,就能够准备前面分组的进一步发送和传播。所以每个链路额外准备的发送时延就不是整个报文的发送时延了,而是分组中的最后一组的发送时延。这样的话,就是报文发送时延(相当于n组发送时延的和)+ m-1次单个组的发送时延!
注意分组头大小,分组头就是首部而不是数据段,所以在求分组个数的时候,是980000B/(1000-20)B,但是分组大小还是1000B。用分组大小1000B/100Mbps可得发送时延!