服务器集群负载均衡原理

提出的疑问:在分布式集群环境中,如何把众多并发请求分布到不同的服务器上?是通过DNS手段还是通过软件手段(比如web服务器软件nginx、apache)?

负载均衡,核心就是网络流量分发,分很多维度。

从网络层看,基本是四层(TCP,UDP),和七层(HTTP,HTTPS等),基本就是解析到对应的网络层,然后根据不同特征分发。比如四层的,基本就是根据连接信息(TCP)或者本身的特征(源IP,目标IP)等做。七层的,就可以用域名(HTTP头里的Host),URL,Cookie,Header这些来做。


从实现上看,基本可以分软负载均衡和反向代理:

  • 软负载均衡不会过中间代理,网络rt,性能会较好,但是一般不好做精细的流量控制,有的方案还有延时问题。实现有DNS实现,iptables实现的方案。
  • 反向代理,故名思意就是通过代理来做。由于流量都会过LB,因此可以做到比较精细的流量分发(比如各种权重,七层的各种转发规则)。坏处就是代理本身可能成为瓶颈,以及过了一层代理造成网络延时的增加。而代理本身也会有一定成本,因此实现成本较高。

从实现方式看,有软件负载均衡和硬件负载均衡:

  • 软件负载均衡的具体软件实现有Nginx,Haproxy,LVS,以及比较古老的Apache等。现在比较新的做法是用dpdk这种内核bypass方案做的负载均衡,由于绕过了linux内核比较复杂的
    网络协议栈(人家本身就不是做负载均衡的。。。),因此性能会有明显的提升(轻松跑满万兆网卡)。
  • 硬件负载均衡有大名鼎鼎的F5之类,这种不差钱的企业会采用。但是现在互联网公司用的越来越少。现在硬件使用较多的是使用支持OSPF协议的交换机(基本都支持了),通过ECMP做的负载均衡集群。这个查查云计算厂商的负载均衡文档,大部分都是用这个作为分发集群的。性能非常好(随便几十G器),稳定性也很高。就是贵,搭建麻烦(需要机房支持),所以不是一般用户搞的起的。不过这个也可以用软件路由器(比如quagga这种)自己搭建一套软件的OSPF集群,不过稳定性和性能相比硬件的要大打折扣。

每个云服务都会提供负载均衡服务,(负载均衡服务_流量分发服务 介绍)

相关阅读:

3分钟带你了解负载均衡服务


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值