为什么上传速度比下载速度慢

很多误解都是因为不了解才产生的,我从技术上来讲一下为什么用户级宽带下行的带宽要远远比上行带宽大。

首先从用户行为而言,下载应用要远大于上传应用,这就导致上下行带宽一致下,大量的上行带宽被浪费,所以上行带宽分配的就比较少了。

主干网络的设计基本上可以做到上下行带宽相等,但为什么用户级别的下行带宽无法做到一致哪?

就整个网络而言,下载应用对整个网络的压力其实是远远小于上行应用的。

我们用户的下行应用对网站的服务器而言,使用的是服务器的上行带宽。

大家想一下,现在视频网站有的热门电影的同时在线观看人数可能高达千万,按照每个用户2M的带宽来算,服务器需要2千万兆以上的带宽才可以满足用户的需要,为什么视频类服务器还没有崩溃哪?难道他们真的花了这么多钱买了这么大的上行带宽吗?

其实目前的网络设计要聪明的多,运营商在整个网络中布设了大量的缓存服务器。

访问量比较大的网站中,被访问比较多的内容,都已经被各个缓存服务器存储下来了。当你在北京,访问一个服务器在上海的视频类服务器里的热门电影的时候,其实你并没有访问上海的服务器,而是直接在北京的缓存服务器内取得了电影的资源。这样就让我们在访问网站速度更快的同时,省去了从北京到上海这段互联网的带宽资源。大量的北京用户访问北京的缓存服务器,就节省了大量北京到上海的带宽资源。

正是因为这些缓存服务器的存在,才让我们可以拥有这么大的下行带宽,否则的话互联网早就崩溃了或者拥塞的水泄不通。

其实也有反向的缓存服务器,网站会布设一些反向缓存服务器在自己的服务器之前,首先经过缓存服务器,并将用户的请求和应用服务器应答的内容写入缓存服务器中,从而为后续用户的访问提供更快的响应。

同时也可以将大量用户同样的上传内容合并,减轻服务器的压力。但是这些缓存服务器更多的靠近网站而远离用户,这样一来,从用户直到缓存服务器的带宽还是无法减少。

所以,反向缓存服务器对整个网络的宽带压力的降低起到的作用并不是很大。

从技术角度来讲,缓存服务器的存在让用户拥有大量的下行带宽的实现,而无法让用户拥有同样的上行带宽。换句话来讲,就是从整个互联网的设计而言,下行带宽某种程度被技术角度做成了“共享",而上行的带宽基本是独享的,共享的比独享的要便宜很多,所以我们的宽带才能做到目前的低廉的价格。

总而言之,对于运营商而言,下载对于整个网络占用的资源比较小,上传对于整个网络的资源占用比较大,一分钱一分货,想要大的上传带宽就需要付出更高的代价,一点儿毛病也没有。

  • 1
    点赞
  • 0
    评论
  • 0
    收藏
  • 一键三连
    一键三连
  • 扫一扫,分享海报

©️2021 CSDN 皮肤主题: 数字20 设计师:CSDN官方博客 返回首页
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、C币套餐、付费专栏及课程。

余额充值