问题描述
四个方面:
1. 负载均衡产生的背景
2. 负载均衡的实现技术
3. 负载均衡的作用范围
4. 负载均衡的常用算法
负载均衡的诞生背景
在互联网发展早期,由于用户量较少、业务需求也比较简单。对于软件应用,我们只需要一台高配的服务器即可完成业务的支撑,这样的软件架构称为单体架构(展示单体架构的图片)
随着用户量的增加,服务器的请求流量也随之增加,在这个过程中单体架构会产生两个问题。
1、软件的性能逐步下降,访问延迟越来越高
2、容易出现单点故障
为了解决这个问题,我们引入了集群化部署的架构,也就是把一个软件应用同时部署在多个服务器上。
架构的变化带来了两个问题:
1. 客户端请求如何均匀的分发到多台目标服务器上?
2. 如何检测目标服务器的健康状态,使得客户端请求不向已经宕机的服务器发送请求。
为了解决这两个问题,引入了负载均衡的设计,简单来说,负载均衡机制的核心目的是让客户端的请求合理均匀的分发到多台目标服务器,由于请求被多个节点分发,使得服务端的性能得到有效的提升。
如何实现负载均衡呢?
常见的实现方案有三种:
1、基于 DNS 实现负载均衡
2、基于硬件实现负载均衡
3、基于软件实现负载均
先来说一下基于 DNS 实现负载均衡的方式,它的实现方式比较简单,只需要在 DNS 服务器上针对某个域名做多个 IP 映射即可 。
它的工作原理是:当用户通过域名访问某个网站时,会先通过 DNS 服务器进行域名解析得到一个 IP 地址,DNS 服务器可以随机分配一个 IP 地址进行访问,这样就可以实现目标服务集群的请求分发。
除此之外,DNS 还可以根据不同的地域分配就近机房的 IP,比如长沙的小伙伴,可能会得到在湖南范围内最近的一个机房的 IP,在这个模式下可以实现「就近原则」实现请求处理,缩短了通信距离从而提升网站访问效率。
DNS 实现负载均衡的优点是: 配置简单,实现成本低,无需额外的开发和维护。
不过缺点也很明显:
由于 DNS 多级缓存的特性,当我们修改 DNS 配置之后,会因为缓存导致 IP 变更不及 时,从而影响负载均衡的效果。
第二种,基于硬件实现负载均衡。
硬件负载设备,我们可以简单把它理解成一个网络设备,类似于网络交换机,
1、它的性能很好,每秒能够处理百万级别的请求,
2、支持多种负载均衡算法,我们可以非常灵活的配置不同的负载策略
3、它还具备防火墙等安全功能。
4、 硬件负载是商业产品,有专门的售后来支持,所以企业不需要花精力去做维护。
F5 是比较常见的硬件负载设备,由于硬件负载设备价格比较贵,一般应用在大型银行、 政府、电信等领域。
第三种,基于软件实现负载均衡
所谓软件负载,就是通过一些开源软件或者商业软件来完成负载均衡的功能。常见的软件负载技术有:Nginx、LVS、HAProxy 等。
目前互联网企业绝大部分采用的都是软件负载,主要原因是: 1. 免费,企业不需要投入较高的成本。 2. 开源,不同企业对于负载均衡的要求有差异,所以可以基于开源软件上做二次开发。 3. 灵活性较高 这三种方式,没有好坏之分,只有是否合适,因此大家可以根据实际情况选择。