目录
前言:本章学习Haproxy调度算法、Haproxy群集配置、Haproxy日志管理以及Haproxy参数优化
(1)LVS基于Linux操作系统实现软负载均衡,而Haproxy和Nginx是基于第三方应用实现的软负载均衡
(2)LVS是可实现4层的IP负载均衡技术,无法实现基于目录、URL的转发。而实现Haproxy和Nginx都可以实现4层和7层技术,Haproxy可提供TCP和Http应用的负载均衡综合解决方案
(3)LVS因为工作在ISO模型的第四层,其状态监测功能单一,而Haproxy在状态监测方面功能更丰富、强大,可支持端口、URL、脚本等多种状态监测方式
(4)Haproxy功能强大,但整体性能低于4层模式的LVS负载均衡
(5)Nginx主要用于web服务器或缓存服务器,Nginx的upstream模块虽然也支持群集功能,但是对群集节点健康检查功能不强,性能没有Haproxy好
4.1部署nginx服务器1(192.168.137.15)
4.2部署nginx服务器2(192.168.137.20)
4.3部署haproxy服务器(192.168.137.10)
4.3.1关闭防火墙、增强机制,将安装Haproxy所需软件包传到/opt目录下
前言:本章学习Haproxy调度算法、Haproxy群集配置、Haproxy日志管理以及Haproxy参数优化
一:Haproxy简介
HAProxy是可提供高可用性、负载均衡以及基于TCP和HTTP应用的代理,是免费、快速并且可靠的一种解决方案。
HAProxy非常适用于并发大(并发达1w以上)web站点,这些站点通常又需要会话保持或七层处理。
HAProxy的运行模式使得它可以很简单安全的整合至当前的架构中,同时可以保护web服务器不被暴露到网络上。
1.1Haproxy应用分析
LVS在企业应用中抗负载能力很强,但存在不足
LVS不支持正则处理,不能实现动静分离
对于大型网站,LVS的实施配置复杂,维护成本相对较高
Haproxy是一款 可提供高可用性、负载均衡、及基于TCP和HTTP应用的代理软件
适用于负载大的web站点
运行在硬件上可支持数以万计的并发连接的连接请求
1.2Haproxy的特性
- 可靠性和稳定性非常好,可以与硬件级的F5负载均衡设备相媲美
- 最高可以同时维护40000-50000个并发连接,单位时间内处理的最大请求数为20000个,最大处理能力可达10Git/s
- 支持多达8种负载均衡算法,同时也支持会话保持
- 支持虚机主机功能,从而实现web负载均衡更加灵活
- 支持连接拒绝、全透明代理等独特的功能
- 拥有强大的ACL支持,用于访问控制
- 其独特的弹性二叉树数据结构,使数据结构的复杂性上升到了0(1),即数据的查寻速度不会随着数据条目的增加而速度有所下降
- 支持客户端的keepalive功能,减少客户端与haproxy的多次三次握手导致资源浪费,让多个请求在一个tcp连接中完成
- 支持TCP加速,零复制功能,类似于mmap机制
- 支持响应池(response buffering)
- 支持RDP协议
- 基于源的粘性,类似nginx的ip_hash功能,把来自同一客户端的请求在一定时间内始终调度到上游的同一服务器
- 更好统计数据接口,其web接口显示后端集群中各个服务器的接收、发送、拒绝、错误等数据的统计信息
- 详细的健康状态检测,web接口中有关于对上游服务器的健康检测状态,并提供了一定的管理功能
- 基于流量的健康评估机制
- 基于http认证
- 基于命令行的管理接口
- 日志分析器,可对日志进行分析
二:常见负载均衡策略
HAProxy负载均衡策略非常多,常见的有如下8种:
(1)RR(Round Robin)
RR算法是最简单最常用的一种算法,即轮询调度
理解举例:有三个节点A、B、C
第一个用户访问会被指派到节点A
第二个用户访问会被指派到节点B
第三个用户访问会被指派到节点C
第四个用户访问继续指派到节点A,轮询分配访问请求实现负载均衡效果
(2)LC(Least Connections)
最小连接数算法,根据后端的节点连接数大小动态分配前端请求
理解举例: 有三个节点A、B、C,各节点的连接数分别为A:4 B:5 C:6
第一个用户连接请求,会被指派到A上,连接数变为A:5 B:5 C:6
第二个用户请求会继续分配到A上,连接数变为A:6 B:5 C:6;再有新的请求会分配给B,每次将新的请求指派给连接数最小的客户端
由于实际情况下A、B、C的连接数会动态释放,很难会出现一样连接数的情况
此算法相比较rr算法有很大改进,是米钱用到比较多的一种算法
(3)SH(Source Hashing)
基于来源访问调度算法,用于一些有Session会话记录在服务端的场景,可以基于来源的IP、Cookie等做集群调度
理解举例 有三个节点A、B、C,第一个用户第一次访问被指派到了A,第二个用户第一次访问被指派到了B
当第一个用户第二次访问时会被继续指派到A,第二个用户第二次访问时依旧会被指派到B,只要负载均衡器不重启,第一个用户都会被指派到A,第二个用户访问都会被指派到B,实现集群的调度
此调度算法好处是实现会话保持,但某些IP访问量非常大时会引起负载不均衡,部分节点访问量超大,影响业务使用
(4)uri
表示根据请求的URI,做cdn需使用
(5)url_param
表示根据HTTP请求头来锁定每 一 次HTTP请求
(6)rdp—cookie(name)
表示根据据cookie (name)来锁定并哈希每一次TCP请求
(7)source
表示根据请求的源IP,类似Nginx的IP hash机制
(8)static-rr
表示根据权重,轮询
三:LVS、Haproxy、Nginx区别
(1)LVS基于Linux操作系统实现软负载均衡,而Haproxy和Nginx是基于第三方应用实现的软负载均衡
(2)LVS是可实现4层的IP负载均衡技术,无法实现基于目录、URL的转发。而实现Haproxy和Nginx都可以实现4层和7层技术,Haproxy可提供TCP和Http应用的负载均衡综合解决方案
(3)LVS因为工作在ISO模型的第四层,其状态监测功能单一,而Haproxy在状态监测方面功能更丰富、强大,可支持端口、URL、脚本等多种状态监测方式
(4)Haproxy功能强大,但整体性能低于4层模式的LVS负载均衡
(5)Nginx主要用于web服务器或缓存服务器,Nginx的upstream模块虽然也支持群集功能,但是对群集节点健康检查功能不强,性能没有Haproxy好
并发性能: LVS > HAproxy > Nginx
LVS是基于0s的内核,HAproxY 和Nginx是基于用户态的软件应用实现的
功能: LVS只支持4层转发,HAproxy 和Nginx都能支持4层和7层转发
健康检查: LVS监测功能单一,和Nginx都主要用端口来检测,Haproxy检测手段很多,url, 端口,脚本等
四、Haproxy集群的部署
主机 | 操作系统 | IP地址 | 所需软件包 |
Haproxy-Server | Centos7 | 192.168.137.10 | haproxy-1.5.19.tar.gz |
Nginx-Server1 | Centos7 | 192.168.137.15 | nginx-1.12.0.tar.gz |
Nginx-Server2 | Centos7 | 192.168.137.20 | nginx-1.12.0.tar.gz |
客户端 | Win10 | 192.168.137.100 | ----------------------------- |
4.1部署nginx服务器1(192.168.137.15)
4.1.1关闭防火墙、增强机制
systemctl stop firewalld
systemctl disable firewalld
setenforce 0
4.1.2安装关系依赖包
yum -y install pcre-devel zlib-devel gcc gcc-c++ make
4.1.3新建用户和组便于管理
useradd -M -s /sbin/nologin nginx
4.1.4切换至opt目录,将下载好的压缩包传进来解压
cd /opt
tar -zxf nginx-1.15.9.tar.gz
4.1.5切换至解压后的目录下编译
cd nginx-1.15.9
./configure \
--prefix=/usr/local/nginx \
--user=nginx \
--group=nginx \
--with-http_stub_status_module
4.1.6安装
make && make install -j2
4.1.7做软连接,让系统识别nginx的操作命令
ln -s /usr/local/nginx/sbin/nginx /usr/local/sbin/
4.1.8将nginx命令加入服务
cd /lib/systemd/system
vim nginx.service
#!/bin.bash
[Unit]
Description=nginx
After=network.target
[Service]
Type=forking
PIDFile=/usr/local/nginx/logs/nginx.pid
ExecStart=/usr/local/nginx/sbin/nginx
ExecReload=/usr/bin/kill -s HUP $MAINPID
ExecStop=/usr/bin/kill -s QUIT $MAINPID
PrivateTmp=true
[Install]
WantedBy=multi-user.target
4.1.9创建站点目录
echo "nynynyny" > /usr/local/nginx/html/index.html
cat /usr/local/nginx/html/index.html
4.1.10重新加载单元、启动服务
systemctl daemon-reload
systemctl start nginx
4.1.11查看是否能成功启动
netstat -anpt | grep nginx
http://192.168.137.15/
4.2部署nginx服务器2(192.168.137.20)
4.2.1关闭防火墙、增强机制
systemctl stop firewalld
systemctl disable firewalld
setenforce 0
4.2.2安装关系依赖包
yum -y install pcre-devel zlib-devel gcc gcc-c++ make
4.2.3新建用户和组便于管理
4.2.4切换至opt目录,将下载好的压缩包传进来解压
cd /opt
tar -zxf nginx-1.15.9.tar.gz
4.2.5切换至解压后的目录下编译
cd nginx-1.12.2
./configure \
--prefix=/usr/local/nginx \
--user=nginx \
--group=nginx \
--with-http_stub_status_module
4.2.6安装
make && make install -j2
4.2.8将nginx命令加入服务
cd /lib/systemd/system
vim nginx.service
#!/bin.bash
[Unit]
Description=nginx
After=network.target
[Service]
Type=forking
PIDFile=/usr/local/nginx/logs/nginx.pid
ExecStart=/usr/local/nginx/sbin/nginx
ExecReload=/usr/bin/kill -s HUP $MAINPID
ExecStop=/usr/bin/kill -s QUIT $MAINPID
PrivateTmp=true
[Install]
WantedBy=multi-user.target
4.2.9创建站点目录
echo "hihihihihihi" > /usr/local/nginx/html/index.html
cat /usr/local/nginx/html/index.html
4.2.10重新加载单元、启动服务
systemctl daemon-reload
systemctl start nginx
4.2.11查看是否能成功启动
ss -anpt | grep nginx
http://192.168.137.20/
4.3部署haproxy服务器(192.168.137.10)
4.3.1关闭防火墙、增强机制,将安装Haproxy所需软件包传到/opt目录下
systemctl stop firewalld
systemctl disable firewalld
setenforce 0
cd /opt
haproxy-1.5.19.tar.gz
4.3.2安装依赖软件
yum install -y pcre-devel bzip2-devel gcc gcc-c++ make
4.3.3解压安装包,并切换至该软件包
tar zxf haproxy-1.5.19.tar.gz
cd haproxy-1.5.19/
4.3.4编译安装Haproxy
make TARGET=linux2628 ARCH=x86_64
make install
uname -r #查看内核版本 如:2.6.18-371.el5,此时该参数用TARGET=linux26;kernel大于2.6.28的用TARGET=linux2628
ARCH=x86_64 #系统位数,64位系统
4.3.5Haproxy服务器配置
mkdir /etc/haproxy
cp examples/haproxy.cfg /etc/haproxy/
cd /etc/haproxy/
vim haproxy.cfg
global
--4~5行--修改,配置日志记录,local0为日志设备,默认存放到系统日志
log /dev/log local0 info
log /dev/log local0 notice
#log loghost local0 info
maxconn 4096 #最大连接数,需考虑ulimit -n限制
--8行--注释,chroot运行路径,为该服务自设置的根目录,一般需将此行注释掉
#chroot /usr/share/haproxy
uid 99 #用户UID
gid 99 #用户GID
daemon #守护进程模式
defaults
log global #定义日志为global配置中的日志定义
mode http #模式为http
option httplog #采用http日志格式记录日志
option dontlognull #不记录健康检查日志信息
retries 3 #检查节点服务器失败次数,连续达到三次失败,则认为节点不可用
redispatch #当服务器负载很高时,自动结束当前队列处理比较久的连接
maxconn 2000 #最大连接数
contimeout 5000 #连接超时时间
clitimeout 50000 #客户端超时时间
srvtimeout 50000 #服务器超时时间
--删除下面所有listen项--,添加
listen webcluster 0.0.0.0:80 #定义一个名为webcluster的应用
option httpchk GET /index.html #检查服务器的index.html文件
balance roundrobin #负载均衡调度算法使用轮询算法roundrobin
server inst1 192.168.137.15:80 check inter 2000 fall 3 #定义在线节点
server inst2 192.168.137.20:80 check inter 2000 fall 3
balance roundrobin #负载均衡调度算法
#轮询算法:roundrobin;最小连接数算法:leastconn;来源访问调度算法:source,类似于nginx的ip_hash
check inter 2000 #表示haproxy服务器和节点之间的一个心跳频率
fall3 #表示连续三次检测不到心跳频率则认为该节点失效
若节点配置后带有“backup”表示该节点只是个备份节点,只有主节点失效该节点才会上。不携带“backup”,表示为主节点,和其它主节点共同提供服务。
4.3.6添加haproxy系统服务
cp /opt/haproxy-1.5.19/examples/haproxy.init /etc/init.d/haproxy
cd /etc/init.d/
chmod +x haproxy
chkconfig --add /etc/init.d/haproxy
ln -s /usr/local/sbin/haproxy /usr/sbin/haproxy
service haproxy start
4.4在客户端进行测试
4.4.1修改客户机网段
4.4.2进行测试
五:Haproxy集群日志重新定义
默认haproxy的日志是输出到系统的syslog中,查看起来不是非常方便,为了更好的管理haproxy的日志,我们在生产环境中一般单独定义出来。需要将haproxy的info及notice日志分别记录到不同的日志文件中
vim /etc/haproxy/haproxy.cfg
global
log /dev/log local0 info
log /dev/log local0 notice
service haproxy restart
需要修改rsyslog配置,为了便于管理。将haproxy相关的配置独立定义到haproxy.conf,并放到/etc/rsyslog.d/下,rsyslog启动时会自动加载此目录下的所有配置文件
vim /etc/rsyslog.d/haproxy.conf
if ($programname == 'haproxy' and $syslogseverity-text == 'info')
then -/var/log/haproxy/haproxy-info.log
&~
if ($programname == 'haproxy' and $syslogseverity-text == 'notice')
then -/var/log/haproxy/haproxy-notice.log
&~
#说明:
这部分配置是将haproxy的info日志记录到/var/log/haproxy/haproxy-info.log下,将notice日志记录到/var/log/haproxy/haproxy-notice.log下。
“&~”表示当日志写入到日志文件后,rsyslog停止处理这个信息
systemctl restart rsyslog.service
tail -f /var/log/haproxy/haproxy-info.log #查看haproxy的访问请求日志信息
六:总结
LVS性能最好;LVS只支持四层转发,haproxy、nginx都能支持4层和7层的转发;对节点健康检查,haproxy、LVS都是注定检查;haproxy检查的方式更丰富;nginx只能被动检查,通过转发请求是否失败来做判断