前言
负载均衡这个概念在我们工作中经常被提及到,因为纵观我们系统的整个链路层,每层都会用到负载均衡,从接入层,服务层,到最后的数据层,当然还有MQ,分布式缓存等等都会存在一些负载均衡的思路在里面;给负载均衡做一个简短的定义:就是将请求分摊到多个操作单元上进行执行;其实就是一种分而治之的思想,面对高并发的情况下,这是一种非常行之有效的方法。
核心功能
上面简短的定义中我们大致可以看到两个内容:将请求分发,操作单元;其实就是控制器+执行器模式、Master+Worker模式等等,是不是很熟悉;当然一个成熟的负载均衡器不光有这两个核心功能,还有一些其他的功能,下面看看都有哪些核心功能:
-
操作单元配置
这里的操作单元其实就是上游的服务器,是真正来处理业务的执行者,这个需要可配置的(最好能支持动态配置),方便用户添加和删除操作单元;这些操作单元就是负载均衡器分发消息的对象; -
负载均衡算法
既然需要分发,那具体通过何种方式把消息分给配置的执行器,这就需要有相关的分发算法了,比如我们常见的轮询、随机、一致性哈希等等; -
失败重试
既然配置了多个执行单元,所以某台服务器宕机是大概率事件,这样我们在分发请求给某台已经宕机的服务器时,需要有失败重试功能,将请求重新分发给正常的执行器; -
健康检查
上面的失败重试是只有真正转发的时候才知道服务器宕机了,是一种惰性策略,健康检查就是提前将宕机的机器排除掉,比如常见的通过心跳的方式去检查执行器是否还存活;
有了以上几个核心的功能,一个负载均衡器大致就形成了,可以把这几个原则用在很多地方,形成不同的中间件或者说内嵌在各种中间件中,比如接入层的LVS,F5,Nginx等,服务层各种RPC框架,消息队列RocketMQ、Kafka,分布式缓存Redis、memcached,数据库中间件shardingsphere、mycat等等,这种分而治之的思路在各种中间件中广泛使用,下面对一些常见的中间件是如何做负载均衡的进行分析,大体上可以分为有状态和无状态两种类型;
无状态
执行单元本身没有状态,其实是更加容易去做负载均衡,每个执行单元都是一样的,常见的无状态的中间件有Nginx,RPC框架,分布式调度等;
接入层
Nginx可以说是我们最常见的接入层中间件了,提供四层到七层的负载均衡功能,提供了高性能的转发,对以上的几个核心功能提供了支持;
- 操作单元配置
Nginx提供了简单的静态的操作单元配置,如下:
upstream tomcatTest {
server 127.0.0.1:8081; #tomcat-8081
server 127.0.0.