一、常见的Web集群调度器
目前常见的Web集群调度器分为软件和硬件:
软件通常使用开源的LVS、Haproxy、 Nginx:
- LVS性能最好,但是搭建相对复杂;Nginx 的upstream模块支持群集功能,但是对群集节点健康检查功能不强,高并发性能没有Haproxy好。
硬件一般使用比较多的是F5、Array,也有很多人使用国内的一些产品,如梭子鱼、绿盟等
硬件的效果比软件好,更加稳定,但管理成本高
二、Haproxy 应用分析
LVS在企业应用中抗负载能力很强,但存在不足
- LVS不支持正则处理,不能实现动静分离
- 对于大型网站,LVS的实施配置复杂,维护成本相对较高
Haproxy是一款可提供高可用性、负载均衡、及基于TCP和HTTP应用的代理的软件
- 适用于负载大的Web站点
- 运行在硬件上可支持数以万计的并发连接的连接请求
三、HAProxy的特性
HAProxy是可提供高可用性、负载均衡以及基于TCP和HTTP应用的代理,是免费、快速并且可靠的一种解决方案。HAProxy非常适用于并发大的(并发达1w以上)web站点,这些站点通常又需要会话保持或七层处理。HAProxy的运行模式使得它可以很简单安全的整合至当前的架构中,同时可以保护web服务器不被暴露到网络上
HAProxy的主要特性有:
●可靠性和稳定性非常好,可以与硬件级的F5负载均衡设备相媲美;
●最高可以同时维护40000-50000个并发连接,单位时间内处理的最大请求数为20000个,最大处理能力可达10Git/s;
●支持多达8种负载均衡算法,同时也支持会话保持;
●支持虚机主机功能,从而实现web负载均衡更加灵活;
●支持连接拒绝、全透明代理等独特的功能;
●拥有强大的ACL支持,用于访问控制;
●其独特的弹性二叉树数据结构,使数据结构的复杂性上升到了0(1),即数据的查寻速度不会随着数据条目的增加而速度有所下降;
●支持客户端的keepalive功能,减少客户端与haproxy的多次三次握手导致资源浪费,让多个请求在一个tcp连接中完成;
●支持TCP加速,零复制功能,类似于mmap机制;
●支持响应池(response buffering);
●支持RDP协议;
●基于源的粘性,类似nginx的ip_hash功能,把来自同一客户端的请求在一定时间内始终调度到上游的同一服务器;
●更好统计数据接口,其web接口显示后端集群中各个服务器的接收、发送、拒绝、错误等数据的统计信息;
●详细的健康状态检测,web接口中有关于对上游服务器的健康检测状态,并提供了一定的管理功能;
●基于流量的健康评估机制;
●基于http认证;
●基于命令行的管理接口;
●日志分析器,可对日志进行分析。
四、Haproxy调度算法
HAProxy负载均衡策略非常多,常见的有如下8种:
(1)roundrobin,表示简单的轮询
(2)static-rr,表示根据权重
(3)leastconn,表示最少连接者先处理
(4)source,表示根据请求源IP
(5)uri,表示根据请求的URI,做cdn需使用;
(6)url_param,表示根据请求的URl参数'balance url_param' requires an URL parameter name
(7)hdr(name),表示根据HTTP请求头来锁定每一次HTTP请求;
(8)rdp-cookie(name),表示根据cookie(name)来锁定并哈希每一次TCP请求。
五、haproxy提供了3种实现会话保持的方式
(1)源地址hash
(2)设置cookie
(3)会话粘性表stick-table
六、LVS、Nginx、HAproxy的区别
- LVS基于Linux操作系统内核实现软负载均衡,而HAProxy和Nginx是基于第三方应用实现的软负载均衡;
- LVS是可实现4层的IP负载均衡技术,无法实现基于目录、URL的转发。而HAProxy 和Nginx都可以实现4层和7层技术,HAProxy可提供TCP和HTTP应用的负载均衡综合解决方案;
- LVS因为工作在ISO模型的第四层,其状态监测功能单一,而HAProxy在状态监测方面功能更丰富、强大,可支持端口、URL、脚本等多种状态检测方。
- HAProxy功能强大,单纯从效率上来讲HAProxy会比Nginx有更出色的负载均衡速度,在并发处理上也是优于Nginx的。但整体性能低于4层模式的LVS负载均衡;
- Nginx主要用于web服务器或缓存服务器。Nginx的upstream模块虽然也支持群集功能,但是对群集节点健康检查功能不强,性能没有Haproxy好
七、使用Haproxy搭建web群集
实验环境:
Haproxy负载均衡器:192.168.126.22
Nginx1:192.168.126.23
Nginx2:192.168.126.24
客户端:192.168.126.21
1 部署2台web服务器(两台配置一样可以同时操作)
#关闭防火墙,selinux
[root@zy3 ~]# systemctl stop firewalld
[root@zy3 ~]# setenforce 0
#安装nginx
[root@zy3 ~]# cd /etc/yum.repos.d/
[root@zy3 yum.repos.d]# ls
bak local.repo
[root@zy3 yum.repos.d]# rz -E
rz waiting to receive.
[root@zy3 yum.repos.d]# yum -y install nginx
[root@zy3 conf.d]# cd /usr/share/nginx/html/
[root@zy3 html]# ls
50x.html index.html
[root@zy3 html]# echo 'this is nginx1 web' > test2.html #nginx2中 改为nginx2
#启动nginx,并检查nginx是否打开
[root@zy3 html]# systemctl start nginx
[root@zy3 html]# systemctl enable nginx
Created symlink from /etc/systemd/system/multi-user.target.wants/nginx.service to /usr/lib/systemd/system/nginx.service.
[root@zy3 html]# ss -lntp | grep nginx
LISTEN 0 128 *:80 *:* users:(("nginx",pid=4206,fd=6),("nginx",pid=4205,fd=6),("nginx",pid=4204,fd=6))
用客户端测试访问两台web服务器
[root@zy1 ~]# curl 192.168.126.23/test.html
this is nginx1 web
[root@zy1 ~]# curl 192.168.126.24/test.html
this is nginx2 web
2 部署haproxy负载调度器
编译安装haproxy
#关闭防火墙,selinux
[root@zy2 ~]# systemctl stop firewalld
[root@zy2 ~]# setenforce 0
#安装依赖包
[root@zy2 ~]# yum install -y pcre-devel bzip2-devel gcc gcc-c++ make
#解压依赖包,编译安装haproxy
[root@zy2 opt]# ls
haproxy-1.5.19.tar.gz rh
[root@zy2 opt]# tar xf haproxy-1.5.19.tar.gz
[root@zy2 opt]# ls
haproxy-1.5.19 haproxy-1.5.19.tar.gz rh
[root@zy2 opt]# cd haproxy-1.5.19
#查看内核版本
[root@zy2 haproxy-1.5.19]# uname -r
3.10.0-693.el7.x86_64
[root@zy2 haproxy-1.5.19]# make TARGET=linux2628 ARCH=x86_64
[root@zy2 haproxy-1.5.19]# make install
#使用uname -r查看内核,如:2.6.18-371.el5,此时该参数用TARGET=linux26;kernel大于2.6.28的用TARGET=linux2628,64位系统
Haproxy服务器配置
haproxy支持的最大并发量=并发进程数×每个进程最大连接数,即"nbproc的值 × maxconn的值"
# this config needs haproxy-1.1.28 or haproxy-1.2.1
global #全局配置,主要用于定义全局参数,属于进程级的配置,通常和操作系统配置有关。
--4~5行--修改,定义haproxy日志输出设备和日志级别,local0为日志设备,默认存放到系统日志
log /dev/log local0 info #修改
log /dev/log local0 notice #修改
#log loghost local0 info
maxconn 4096 #每个进程最大连接数,需考虑"ulimit -n"限制,推荐使用10240
--8行--注释,chroot运行路径,为该服务自设置的根目录,一般需将此行注释掉。
#chroot /usr/share/haproxy
uid 99
gid 99
daemon #守护进程模式
nbproc 1 #添加,设置并发进程数,建议与当前服务器CPU核数相等或为其2倍
#debug
#quiet
defaults #配置默认参数,这些参数可以被用到Listen,frontend,backend组件
log global #引入global定义的日志格式
mode http #模式为http(7层代理http,4层代理tcp)
option httplog #日志类别为http日志格式
option dontlognull #不记录健康检查日志信息
retries 3 #检查节点服务器失败次数,连续达到三次失败,则认为节点不可用
redispatch #当服务器负载很高时,自动结束当前队列处理比较久的连接
maxconn 2000 #最大连接数,“defaults”中的值不能超过“global”段中的定义
#contimeout 5000 #设置连接超时时间,默认单位是毫秒
#clitimeout 50000 #设置客户端超时时间,默认单位是毫秒
#srvtimeout 50000 #设置服务器超时时间,默认单位是毫秒
timeout http-request 10s #默认http请求超时时间
timeout queue 1m #默认队列超时时间
timeout connect 10s #默认连接超时时间,新版本中替代contimeout,该参数向后兼容
timeout client 1m #默认客户端超时时间,新版本中替代clitimeout,该参数向后兼容
timeout server 1m #默认服务器超时时间,新版本中替代srvtimeout,该参数向后兼容
timeout http-keep-alive 10s #默认持久连接超时时间
timeout check 10s #设置心跳检查超时时间
--删除下面所有listen项--,之后添加
listen webcluster 0.0.0.0:80 #haproxy实例状态监控部分配置,定义一个名为webcluster的应用
option httpchk GET /test.html #检查服务器的test.html文件,option指定健康检查的方式为 httpchk, 发送http的GET请求检查index.html文件,返回2xx、3xx表示正常;返回4xx/5xx表示异常,则会将该web服务器隔离起来,不会将访问请求分配给它。
balance roundrobin #负载均衡调度算法使用轮询算法roundrobin
server inst1 192.168.126.24:80 check inter 2000 fall 3 #定义在线节点
server inst2 192.168.126.23:80 check inter 2000 fall 3
####### 参数说明 ##################
instl :为服务器名称,可以自定义,可以使用主机名或域名来管理
check inter 2000 :表示启用对此后端服务器执行健康检查,设置健康状态检查的时间间隔,单位为毫秒
rise 2 : 表示连续2次检测成功后,则会认为server UP,恢复该节点。
因为默认为2次,这一项可以省略不设置。(隔离节点后也会进行健康检查,连续2次检测成功后就会恢复)
fall 3 :表示连续三次检测不到心跳频率则认为该节点失效。
若节点配置后带有"backup"表示该节点只是个备份节点,仅在所有在线节点都失效该节点才启用。不携带"backup",表示为主节点,和其它在线节点共同提供服务。
添加haproxy系统服务(把haproxy加入系统服务管理中)
#将haproxy.init文件复制到/etc/init.d/目录下,并改名为haproxy
[root@zy2 haproxy]# cp /opt/haproxy-1.5.19/examples/haproxy.init /etc/init.d/haproxy
[root@zy2 haproxy]# cd /etc/init.d/
[root@zy2 init.d]# ls
functions haproxy netconsole network README
[root@zy2 init.d]# chmod +x haproxy #增加文件的执行权限
[root@zy2 init.d]# chkconfig --add /etc/init.d/haproxy #把haproxy加入系统服务管理中
#做个软链接,将haproxy的可执行文件放入环境PATH的目录下
[root@zy2 init.d]# ln -s /usr/local/sbin/haproxy /usr/sbin
[root@zy2 init.d]# service haproxy start
Starting haproxy (via systemctl): [ OK ]
3 客户端访问测试
八、日志管理
默认haproxy的日志是输出到系统的syslog中,查看起来不是非常方便,为了更好的管理haproxy的日志,要将haproxy的info及notice日志分别记录到不同的日志文件中。(其他级别的日志仍记录在系统日志/var/log/messages中;因为error日志较少,故一般不做分离)
vim /etc/haproxy/haproxy.cfg
global
log /dev/log local0 info
log /dev/log local0 notice
service haproxy restart
需要修改rsyslog配置,为了便于管理。将haproxy相关的配置独立定义到haproxy.conf,并放到/etc/rsyslog.d/下,rsyslog启动时会自动加载此目录下的所有配置文件。
vim /etc/rsyslog.d/haproxy.conf
if ($programname == 'haproxy' and $syslogseverity-text == 'info')
then -/var/log/haproxy/haproxy-info.log
&~
if ($programname == 'haproxy' and $syslogseverity-text == 'notice')
then -/var/log/haproxy/haproxy-notice.log
&~
#说明:
这部分配置是将haproxy的info日志记录到/var/log/haproxy/haproxy-info.log下,将notice日志记录到/var/log/haproxy/haproxy-notice.log下。“&~”表示当日志写入到日志文件后,rsyslog停止处理这个信息。
systemctl restart rsyslog.service
查看haproxy的访问请求日志信息:(注意:先要用客户机访问后才会生成日志)
tail -f /var/log/haproxy/haproxy-info.log
总结
1、对比集群调度工具Haproxy、LVS和Nginx的区别
区别:
- LVS基于Linux操作系统内核实现软负载均衡,而HAProxy和Nginx是基于第三方应用实现的软负载均衡;
- LVS是可实现4层的IP负载均衡技术,但不支持正则处理,无法实现基于目录、URL的转发。而HAProxy 和Nginx都可以实现4层和7层技术,HAProxy可提供TCP和HTTP应用的负载均衡综合解决方案;
- LVS性能最好,但搭建相对复杂,成本较高。一般在100台左右web主机的集群中使用。
- nginx做负载均衡调度器,配置简单,管理方便,但并发量不高,且没有主动健康检查。性能没有Haproxy好。可用于并发量不高的场景
2、HTTP请求的两种方式
方式: GET、POST方式
区别: GET把参数包含在URL中,POST通过request body传递参数
- GET: 产生一个TCP数据包
- POST: 产生两个TCP数据包
3、haproxy配置文件重要参数说明:
全局配置: global 作用: 用于设定义全局参数,属于进程级的配置,通常与操作系统配置有关
- maxconn 4096 #进程最大连接数,需考虑"ulimit -n"的限制,推荐使用10240
- daemon #守护进程模式。可以使用非守护进程模式,在生产环境中建议使用守护进程模式
- nbproc 1 #并发进程数,建议与当前服务器CPU核数相等或为其2倍
默认配置: defaults 作用: 配置默认参数,一般会被应用组件继承
- retries 3 #检查节点服务器失败次数,连续3次失败,则认为节点不可用
- redispatch #当服务器负载很高时,自动结束当前队列处理比较久的连接
- maxconn 2000 #最大连接数,"defaults"中 的值不能超过“global"段中的定义
- timeout http-request 10s #默认http请求超时时间。建议设置时间为5~10s,增加http连接释放的速度
- timeout http-keep-alive 10s #默认长连接超时时间
- timeout check 10s #设置心跳检查超时时间
应用组件配置: listen 作用: 一般配置应用模块参数
- option httpchk GET /index. html #检查服务器的index.html文件。发送http的GET请求检查index.html文件,返回2xx、3xx表示正常;返回4xx/5xx表示异常,则隔离该节点。
- balance roundrobin #负载均衡调度算法使用轮询算法roundrobin
- server inst1 192.168.126.23:80 check inter 2000 rise 2 fall 3 #定义在线节点
- server inst2 192.168.126.24:80 check inter 2000 rise 2 fall 3 #定义在线节点
- #server inst2 192.168.126.25:80 check inter 2000 rise 2 fall 3 backup #定义备份节点