网络核心

1. 存储转发机制

考虑两个经一台路由器连接的端系统构成的简单网络。如下图所示在这里插入图片描述

一台路由器通常有多条繁忙的链路,因为它的任务就是把一个入分组交换到一条出链路。

在以上的简单例子中, 该路由器的任务相当简单:将分组从一条(输入)链路转移到另一条唯一的连接链路。

在图所示的特定时刻,源已经传输了分组的一部分,分组 1 的前沿已经到达了路由器。因为该路由器应用了存储转发机制,所以此时它还不能传输已经接收的比特,而是必须先缓存该分组的全部比特。 仅当路由器已经接收了该分组的所有比特后,它才能开始向出链路传输(即“转发” )该分组。

存储转发机制,先存储完整分组,再转发。

源在时刻 0 开始传输 , 在时刻 L / R 秒, 因为该路由器刚好接收到整个分组,所以它能够朝着目的地向出链路开始传输分组;

在时刻 2L/R , 路由器已经传输了整个分组,并且整个分组已经被目的地接收,总时延是 2L/ R 。

如果交换机一旦比特到达就转发比特,总时延是 L/R 。

情况2: 现在我们来计算从源开始发送第一个分组直到目的地接收到所有三个分组所需的时间

与前面一样, 在时刻 L/R ,路由器开始转发第一个分组。 同时 源开始发送第二个分组, 因为它已经完成了发送整个第一个分组。

在时刻 2L/R ,目的地已经收到第一个分组, 路由器收到第二个分组。

在时刻 3L/R ,目的地已经收到前两个分组并且路由器已经收到第三个分组。

我们来考虑通过由 N 条速率均为 R 的链路组成的路径:

所以,在源和目的地之间有 N -1 台路由器。

从源到目的地发送一个分组的总体情况,应用如上相同的逻辑,我们看到的端到端的时延是:

d端到端 = NL / R

排队时延与丢包

假定主机 A 和 B向主机 E 发送分组, 主机 A 和 B 先通过 10Mbps 的以太网链路向第一个路由器发送分组。

该路由器则将这些分组导向一条 1.5 Mbps 的链路。 如果在某个短时间间隔中,分组到达路由器的到达率(转换为每秒比特)超过了 1.5 Mbps。

在这里插入图片描述

这些分组在通过链路传输之前, 将在链路输出缓存中排队, 在该路由器中将出现阻塞。

即输入路由器的量大于输出路由器的量

电路交换

在这里插入图片描述
图中显示了一个电路交换网络。在这个网络中,用 4 条链路互联了 4 台电路交换机, 这些链路中的每条都有 4 条电路因此每条链路都能够支持 4 条并行的连接。

每台主机(例如PC 和工作站)都与一台交换机直接相连。 当两台主机要通信时,该网络在两台主机之间创建一条专用的端到端连接(end-to-end connection)。

因此,主机 A 为了向主机 B 发送报文, 网络必须在两条链路之一上先预留一条电路。 因为每条链路具有 4 条电路, 对于由 端到端连接所使用的每条链路而言,该连接在连接期间获得链路带宽的 1/4 部分。

在这里插入图片描述
图中显示了一个支持多达 4 条电路的特定网络链路的 FDM 和 TDM。 对于 FDM, 其频率域被分隔为 4 个频段,每个频段的带宽为 4kHz 。 对于 TDM, 其时域被分割为 帧。在每个帧中具有 4个时隙。

在循环的 TDM 帧中每条电路被分配相同的专用时隙。对于 TDM,一条电路的的传输速率等于帧速率乘以一个时隙中的比特数量。

例如,如果链路每秒传输 8000 个帧,每个时隙由 8 个比特组成,则每条电路的传输速率是 64kbps。
在这里插入图片描述
在这里插入图片描述

网络的网络

我们已经看到,端系统经过一个接入 ISP 与因特网相连, 该接入 ISP 能够提供有线或无线连接, 使用了包括 DSL、电缆、FTTH、WiFI 和蜂窝等多种接入技术。

值得注意的是,接入 ISP 不必是本地电信局或电缆公司,它可以是大学、公司这样的单位。

但为端用户和内容提供商提供与接入 ISP的连接仅解决了连接难题中的很小一部分,因为因特网是由数以亿计的用户构成的。要解决这个难题, 接入 ISP 自身必须互联。

通过创建网络的网络可以做到这一点。

年复一年,构成因特网的“ 网络的网络” 已经演化成一个非常复杂的结构。这种演化很大部分是由经济和国家策略驱动的,而不是由性能考虑驱动的。

为了理解今天的因特网网络结构,我们来逐步递进建造一些列网络结构,其中的每个新结构都更好地接近我们现有的复杂因特网。

回顾前面互联接入 ISP 的目标,是使所有端系统能够彼此发送分组。 一种幼稚的方法是使 每个接入 ISP 直接与每个其他接入 ISP连接。 当然,这样的网络设计对于接入 ISP 费用太高。因为这将要求每个接入 ISP 与世界上数十万个其他接入 ISP 有一条单独的通信链路。

任何一个复杂的结构最初都有一个单纯的思路,通过对思路的不断优化,才有了最后的复杂,所以一开始掌握了思想,之后的任何优化都容易理解了,因为都是为了解决最初思路的不足之处。


我们的第一个网络结构即 网络结构 1

单一的全球承载 ISP 互联所有接入 ISP。

我们假想的全球承载 ISP 是一个由路由器和通信链路构成的网络, 该网络不仅跨越全球,而且至少具有一个路由器靠近数十万接入 ISP 中的每一个, 当然,对于全球承载 ISP,这样耗资巨大,所以要向每个连接的 ISP 收费, 价格反映一个接入 ISP 经过全球 ISP 交换的流量大小。

因为接入 ISP 向全球承载 ISP 收费, 故接入 ISP 被认为是 客户, 而全球承载 ISP 被认为是 提供商

如果某个公司建立并运行了一个可盈利的全球承载 ISP,其他公司建立自己的全球承载 ISP 并与最初的全球承载 ISP 竞争是一件自然的事,这就导致了 网络结构 2 的出现。

网络结构 2

由数十万接入 ISP 和多个全球承载 ISP 组成。 接入 ISP 无疑喜欢网络结构 2,因为它们现在能够根据价格和服务的函数,在多个竞争的全球承载提供商之间进行选择。

值得注意的是,这些全球承载 ISP 之间必须是互联的: 不然的话,与某个全球承载 ISP 连接的接入 ISP 将不能与连接到其他全球承载 ISP的 接入 ISP通信。

刚才描述的网络结构 2 是一种两层的等级结构,全球承载商位于顶层,而接入 ISP 位于底层。 这假设了全球承载 ISP 不仅能够接近每个接入 ISP, 而且确实直接与许多接入 ISP 连接。 但世界上没有 ISP 是存在于每个城市中的, 相反, 在任何给定的区域,可能有一个区域 ISP, 区域 ISP 则与第一层 ISP 连接。

第一层 ISP 类似于我们假想的全球承载 ISP; 尽管第一层 ISP 不是在世界上每个城市中都存在,但它确实存在。 有大约十几个第一层 ISP, 包括 level 3 通信、 AT&T、 Sprint 和 NTN。 有趣的是,没有组织正式认可第一层状态。

返回到网络的网络,不仅有多个竞争的第一层 ISP,而且在一个区域可能有多个竞争的区域 ISP。 在这样的等级结构中,每个接入 ISP 向区域 ISP 支付其连接费用,并且每个区域 ISP 向它连接的第一层 ISP 支付费用。

使事情更为复杂的是, 在某些区域,可能有较大的区域 ISP(可能跨越整个国家),区域中较小的区域 ISP 与之相连, 较大的区域 ISP 则与第一层 ISP 连接。

例如,在中国,每个城市有接入 ISP, 它们与省级 ISP 连接, 省级 ISP又与国家级 ISP 连接, 国家级 ISP 最终与第一层 ISP 连接,这就是 网络结构 3.

客户 ISP 能够与提供商 ISP 连接, 对于要与提供商 PoP 连接的客户网络,它能从第三方通信提供商租用高速链路直接将它的路由器之一连接到位于该 PoP 的一台路由器。

PoP 是指在因特网内,由因特网服务提供商为用户接入因特网而提供的点。一般它是一个物理实体。
因特网接入点通常是 ISP 站点的一组调制解调器和接入服务器, 用户通过拨号线路拨入因特网接入点,用 PPP协议通信,

任何 ISP(除了第一层 ISP)可以选择为多宿(multi-home),即可以与两个或更多提供商 ISP 连接。 例如, 一个接入 ISP 可能与两个区域 ISP 多宿,或者可以与两个区域 ISP 多宿, 也可以与多个第一层 ISP 多宿,当一个 ISP 多宿时, 即使它的提供商之一出现故障,它仍能够继续发送和接收分组。

网络结构5

增加了内容提供网络(content provider network) ,谷歌是当前这样内容提供商网络的一个突出例子。 谷歌估计有30~50个数据中心部署在北美、欧洲、亚洲、南美和澳大利亚。 其中的某些数据中心容纳了超过十万台的服务器,而另一些数据中心较小,仅容纳数百台服务器。

谷歌数据中心经过专用的 TCP/IP 网络互连,该网络跨越全球, 但仍然独立于公共因特网。 重要的是,谷歌专用网络仅承载出入谷歌服务器主机的流量。
在这里插入图片描述

如图所示,谷歌专用网络通过与较低层 ISP 对等(无结算)尝试“ 绕过” 因特网的较高层。 采用的方式是直接与它们连接,或者在 IXP 处于他们连接。

然而许多接入 ISP 通过第一层网络的承载仍能到达,所以谷歌网络也与第一层 ISP连接,并就与它们交换的流量向这些 ISP 付费。

通过创建自己的网络,内容提供商不仅减少了向顶层ISP支付的费用,而且对其服务最终如何交付给端用户由了更多的控制。

时延

在这里插入图片描述

作为源和目的地之间的端到端路径的一部分,一个分组从上游结点通过路由器 A 向路由器 B 发送。

我们的目标是路由器 A刻画出结点时延, 值得注意的是, 路由器 A具有通往路由器 B 的出链路。 该链路前面有一个队列(也称为缓存)。

当分组从上游结点到路由器 A 时, 路由器 A 检查该分组的首部以决定该分组的适当出链路, 并将该分组导向该链路。也就是通向路由器 B 的那条链路。

仅当在该链路没有其他分组正在传输并且灭有其他分组排在该队列前面时,才能在这条链路上传输该分组, 如果该链路当前正繁忙或有其他分组已经在该链路上排队,则新到达的分组将参与排队。

假定:

a 表示分组到达队列的平均速率 ( a 的单位是分组 / 秒)
L : 假定所有分组都是由 L 比特组成的。
La bps: 比特到达队列的平均速率

假定该队列非常大, 因此它基本能容纳无限数量的比特。 比率 La / R 被称为流量强度(traffic intensity), 它在估计排队时延的范围方面经常起着重要的作用。

  • La/ R > 1 , 说明比特到达队列的平均速率超过从该队列传输出去的速率, 在这种情况下,该队列将趋于增加,并且排队时延趋于无限大。

到达队列的过程通常是随机的,即到达并不遵循任何模式,分组之间的时间间隔是随机的。 在这种更为真实的情况下, 量 La/R 通常不足以全面表征时延的统计量。

不过,直观的理解排队时延的范围很有用,特别的是,如果流量强度接近于0,则几乎没有分组到达并且到达间隔很大,那么到达的分组将不可能在队列中发现别的分组,因此,平均排队时延将接近于 0.

在另一方面,当流量强度接近于1 时, 将存在到达率超过传输能力的时间间隔(由于分组到达率的波动),在这些时段中将形成队列

无论如何,随着流量强度接近 1 ,平均排队长度变得越来越长。 平均排队时延与流量强度的定性关系
在这里插入图片描述

随着流量强度接近于1. 平均排队时延迅速在呢个价。 该强度少量的增加将导致时延大得多的增加。
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值