一、Nginx负载均衡
为什么要使用负载均衡?
当Web服务器直接面向用户,往往要承载大量并发请求,单台服务器难以负荷,那么就需要使用多台Web服务器组成集群,前端使用Nginx负载均衡,将请求分散的打到后端服务器集群中,实现负载的分发。那么会大大提升系统的吞吐率、请求性能、高容灾。
为什么要使用集群?
高性能(Performance)
价格有效性(Cost-effectiveness)
可伸缩性(Scalability)
高可用性(Availability)
可管理性(Manageability)
集群的分类
- 负载均衡集群(Load Balancing clusters),简称LBC或者LB。
- 高可用性集群(High-availability(HA)clusters),简称HAC。
- 高性能计算集群(High-performance(HP)clusters),简称HPC。
- 网格计算(Grid computing)集群。
负载均衡集群的作用:
- 分担用户访问请求及数据流量(负载均衡)。
- 保持业务连续性,即7×24小时服务(高可用性)。
- 应用于Web业务及数据库从库等服务器的业务。
- 负载均衡集群典型的开源软件包括LVS、Nginx、Haproxy等。
负载均衡可以分为硬件负载均衡和软件负载均衡,前者一般是专用的软件和硬件相结合的设施,设施商会提供完整成熟的处理方案,通常也会更加昂贵。软件的复杂均衡以Nginx占据绝大多数。
常用的集群软硬件介绍及选型
企业运维中常见的集群软硬件产品互联网企业常用的开源集群软件有:Nginx、LVS、Haproxy、Keepalived、Heartbeat。
互联网企业常用的商业集群硬件有:F5、Netscaler、Rad-ware、A10等,工作模式相当于Haproxy的工作模式。
负载均衡叫法:调度、负载均衡、 负载、 Load Balance、 LB(SLB 阿里云负载均衡、QLB 青云负载均衡、CLB 腾讯云负载均衡、ULB ucloud负载均衡)、
负载均衡原理
客户端向反向代理发送请求,接着反向代理根据某种负载机制转发请求至目标服务器(这些服务器都运行着相同的应用),并把获得的内容返回给客户端,期中,代理请求可能根据配置被发往不同的目标服务器。
往往我们接触的最多的是SLB(Server Load Balance)负载均衡,实现最多的也是SLB、那么SLB它的调度节点和服务节点通常是在一个地域里面(即调度节点和后端服务节点在一个局域网内)。那么它在这个小的逻辑地域里面决定了他对部分服务的实时性、响应性是非常好的。
所以说当海量用户请求过来以后,它同样是请求调度节点,调度节点将用户的请求转发给后端对应的服务节点,服务节点处理完请求后在转发给调度节点,调度节点最后响应给用户节点。这样也能实现一个均衡的作用,那么Nginx则是一个典型的SLB
负载均衡能实现的应用场景一:四层负载均衡
所谓四层负载均衡指的是OSI七层模型中的传输层,那么传输层Nginx已经能支持TCP/IP的控制,所以只需要对客户端的请求进行TCP/IP协议的包转发就可以实现负载均衡,那么它的好处是性能非常快、只需要底层进行应用处理,而不需要进行一些复杂的逻辑。
负载均衡能实现的应用场景二:七层负载均衡
七层负载均衡它是在应用层,那么它可以完成很多应用方面的协议请求,比如常说的http应用的负载均衡,它可以实现http信息的改写、头信息的改写、安全应用规则控制、URL匹配规则控制、以及转发、rewrite等等的规则,所以在应用层的服务里面,可以做的内容就更多,那么Nginx则是一个典型的七层负载均衡SLB
四层负载均衡与七层负载均衡区别
四层负载均衡数据包在底层就进行了分发,而七层负载均衡数据包则是在最顶层进行分发、由此可以看出,七层负载均衡效率没有四负载均衡高。
但七层负载均衡更贴近于服务,如:http协议就是七层协议,可以用Nginx可以作会话保持,URL路径规则匹配、head头改写等等,这些是四层负载均衡无法实现的。
注意:四层负载均衡不识别域名,七层负载均衡识别域名
二、Nginx负载均衡模块 ngx_http_upstream_module
ngx_http_upstream_module 模块用于定义可以被 proxy_pass、fastcgi_pass、uwsgi_pass、scgi_pass 以及memcached_pass 等指令引用的服务器群。
对于常用的HTTP负载均衡,主要先定义一个upstream作为backend group,而后通过proxy_pass/fastcgi_pass等方式进行转发操作,其中fastcgi_pass几乎算是Nginx+PHP站点的标配。
Nginx负载均衡也是一种代理,与Nginx代理不同地方在于,Nginx的一个location仅能代理一台服务器,而Nginx负载均衡则是将客户端请求代理转发至一组upstream虚拟服务池(对应于后端多个服务器,逻辑上的一组),即负载均衡能对物理主机进行逻辑上的捆绑
ngx_http_upstream_module提供的常用配置指令:
upstream 与 server 指令
Syntax: upstream name {
... }
Default: —
Context: http
Syntax: server address [parameters];
Default: —
Context: upstream
功能:定义一组upstream虚拟服务池(池中为后端服务器地址),地址可以是域名、IP 地址或者 Unix Socket 地址。可以在域名或者 IP 地址后加端口,如果不加端口,那么默认使用 80 端口。
参数parameters:
负载均衡状态配置参数:后端服务器在负载均衡调度中的状态
down 当前的server暂时不参与负载均衡,常用于停机维护
例:
server 192.168.126.10:80 down;
backup 预留的备份服务器(仅当非备份 server 不可用时,请求才会转发到该server)
例:
server 192.168.126.10:80 backup;
max_fails 允许请求失败的次数。
fail_timeout 经过max_fails失败后, 服务暂停时间。
例:
server 192.168.126.10:80 max_fails=3 max_conns=10s;
max_conns 限制最大的接收连接数。
例:
server 192.168.126.10:80 max_conns=100;
负载均衡调度策略参数:
调度算法 概述
轮询 按时间顺序逐一分配到不同的后端服务器(默认);按客户端请求顺序把客户端的请求逐一分配到不同的后端的服务器,这相当于lvs中 rr算法,如果后端服务器宕机(默认值检测80端口),当即服务器会被自定剔除,使用户访问不受影响,请求会分配给正常的服务器。
例:
upstream test1 {
server 192.168.126.10:80;
server 192.168.126.11:80;
}
weight 加权轮询,weight值越大,分配到的访问几率越高;在轮询算法的基础上加上权重(默认是rr+weight),权重轮询和访问成正比,权重越大转发的请求也就越多
例:
upstream test2 {
server 192.168.126.10:80 weight=5;
server 192.168.126.11:80 weight=1;