文章目录
一、常见的web集群调度器
- 目前常见的web集群调度器分为软件和硬件
- 软件通常使用开源的LVS、Haproxy、Nginx
- 硬件一般使用比较多的F5,也有很多人使用国内的一些产品,如梭子鱼、绿盟等
二、Haproxy应用分析
1.LVS在企业应用中抗负载能力很强,但存在不足
LVS不支持正则处理,不能实现动静分离(nginx都支持)
对于大型网站,LVS的实施配置复杂,维护成本相对较高
2.Haproxy是一款可提供高可用性、负载均衡、及基于TCP和HTTP应用的代理的软件,适用于负载大的web站点
运行在硬件上可支持数以万计的并发连接的连接请求
三、Haproxy调度算法原理
第一种 RR算法(RoundRobin):
RR算法是最简单的最常用的一种算法,即轮询调度
- 有三个节点A、B、C
- 第一个用户访问会被指派到节点A
- 第二个用户访问会被指派到节点B
- 第三个用户访问会被指派到节点C
- 第四个用户访问会被继续指派到节点A,轮询分配访问请求实现负载均衡效果
第二种 LC算法(Least Connections):
最小连接数算法,根据后端的节点连接数大小动态分配前端请求
- 有三个节点A、B、C,各节点的连接数分别为A:4、 B:5、C:6
- 第一个用户连接请求,会被指派到A上,连接数变为A:5 、B:5、C:6
- 第二个用户请求会继续分配到A上,连接数变为A:6、B:5、C:6,再有新的请求会分配给B,每次将新的请求指派给连接最小的客户端
- 由于实际情况下A、B、C的连接数会动态释放,很难出现一样连接数的情况
- 此算法比较rr算法有很大改进,是目前用到比较多的一种算法
第三种 SH(Source Hashing):
基于来源访问调度算法,用于一些有Session会话记录在服务器端的场景,可以基于来源的IP、Cookie等做集群调度
- 有三个节点A、B、C,第一个用户第一次访问被指派到了A,第二个用户第一次访问被指派到了B
- 当第一个用户第二次访问时会被继续指派到A,第二个用户第二次访问时依旧会被指派到B,只要负载均衡调度器不重启,第一个用户访问都会被指派到A,第二个用户访问都会被指派到B,实现集群的调度
- 此调度算法好处是实现会话保持,但某些IP访问量非常大时会引起负载不均衡,部分节点访问量超大,影响业务使用
四、Haproxy配置文件详解
4.1 Haproxy配置文件通常分为三个部分
- global:全局配置
- defaults:默认配置
- listen:应用组件配置
4.2 global配置参数
- log127.0.0.1 lcal0:配置日志记录,local0为日志设备,默认存放到系统日志
- log127.0.0.1 loca1 notice:notice为日志级别,通常有24个级别
- maxconn4096:最大连接数
- uid 99:用户uid
- gid 99:用户gid
4.3 defaults配置项配置默认参数
一般会被应用组件继承,如果在应用组件中没有特别声明,将安装默认配置参数设置
- log global:定义日志为global配置中的日志定义
- mode http:模式为http
- option httplog:采用http日志格式记录日志
- retries 3:检查节点服务器失败连续达到三次则认为节点不可用
- maxconn2000:最大连接数
- contimeout5000:连接超时时间
- clitimeout:客户端超时时间
- srvtimeout:50000:服务器超时时间
4.4 listen配置项目一般为配置应用模块参数
- listen appli4- backup 0.0.0.0:10004:定义一个appli4-backup的应用
- option httpchk /index.html检查服务器的index.html文件
- option persist:强制将请求发送到已经down掉的服务器(注释掉,否则起服务会报错)
- balance roundrobin:负载均衡调度算法使用轮询算法
- server inst1 192.168.114.56:80 check inter 2000 fall 3:定义在线节点
- server inst2 192.168.114.56:81 check inter 2000 fall 3 backup:定义备份节点
五、使用Haproxy搭建web群集
5.1 实验环境
三台虚拟服务器模拟搭建一套web集群,网站使用nginx搭建;
虚拟机安装Centos 7.6的系统,另外一台win10作为客户端
主机 | IP地址 |
---|---|
Haproxy | IP地址 |
Haproxy | 192.168.235.10 |
Nginx | 192.168.235.20 |
Nginx | 192.168.235.30 |
5.2 实验步骤
两台Nginx节点服务器配置
1.安装依赖环境
yum -y install gcc gcc-c++ make pcre-devel zlinb-devel
2.编译安装nginx,并创建用户nginx
useradd -M -s /sbin/nologin nginx
./configure
>--prefix=/usr/local/nginx \
>--user=nginx \
>--group=nginx
make && make install
3.为两台nginx服务器创建首页内容并优化启动项
[root@nginx1 ~]# echo "<h1>Server1</h1>" > /usr/local/nginx/html/index.html
[root@nginx1 ~]# ln -s /usr/local/nginx/sbin/nginx /usr/local/sbin
[root@nginx1 ~]# nginx
[root@nginx1 ~]# netstat -anpt | grep nginx
tcp 0 0 0.0.0.0:80 0.0.0.0:* LISTEN 54179/nginx: master
Haproxy服务器
1.安装依赖环境
yum -y install gcc gcc-c++ make pcre-devel bzip2-devel
2.安装haproxy软件包
tar zxvf haproxy-1.4.24.tar.gz
cd haproxy-1.4.24/
make TARGET=linux26 && make install
- 在/etc目录下创建haproxy目录,将软件包中的配置文件模板复制到haproxy目录中
mkdir /etc/haproxy
cp examples/haproxy.cfg /etc/haproxy
4.修改haproxy. cfg配置参数
[root@Haproxy haproxy-1.4.24]# cd /etc/haproxy/
[root@Haproxy haproxy]# vim haproxy.cfg
下面两项前面加上注释
#chroot /usr/share/haproxy #固有目录,可注释掉
#redispatch #当使用了cookie时,haproxy将会将其请求的后端服务器的serverID插入到cookie中,以保证会话的SESSION持久性;而此时,如果后端的服务器宕掉了,但是客户端的cookie是不会刷新的,如果设置此参数,将会将客户的请求强制定向到另外一个后端server上,以保证服务的正常。需要注释掉
将原来的listen配置项删除,添加如下参数
listen webcluster 0.0.0.0:80
option httpchk GET /index.html
balance roundrobin
server web1 192.168.235.20:80 check inter 2000 fall 3
server web2 192.168.235.30:80 check inter 2000 fall 3
5.优化服务启动
[root@Haproxy haproxy-1.4.24]# cp examples/haproxy.init /etc/init.d/haproxy
[root@Haproxy haproxy-1.4.24]# vi /etc/init.d/haproxy
# chkconfig: 35 80 90
[root@Haproxy ~]# chmod 755 /etc/init.d/haproxy
[root@Haproxy ~]# chkconfig --add /etc/init.d/haproxy
[root@Haproxy ~]# ln -s /usr/local/sbin/haproxy /usr/sbin/haproxy
[root@Haproxy ~]# systemctl start haproxy
[root@Haproxy ~]# systemctl stop firewalld
[root@Haproxy ~]# setenforce 0
验证
在win10的浏览器中访问haproxy服务器的IP地址进行验证,能够成功访问并且刷新网页能跳转到另一台nginx服务器的页面代表试验成功
六、Haproxy日志管理
默认是输出到系统的syslog中,生产环境中一般单独定义
定义方法:
- 修改Haproxy配置文件中关于日志配置的选项,加入配置(上面配置文件已经修改)
log /dev/log local0 info
log /dev/log local0 notice - 修改rsylog配置,将Haproxy相关的配置独立定义到haproxy.conf,并放到/etc/rsylog.d/下
[root@haproxy ~]# touch /etc/rsyslog.d/haproxy.conf
[root@haproxy ~]# vi /etc/rsyslog.d/haproxy.conf
#创建客户机的访问日志
if ($programname == 'haproxy' and $syslogseverity-text == 'info')
then -/var/log/haproxy/haproxy-info.log
&~
#Haproxy群集的状态日志
if ($programname == 'haproxy' and $syslogseverity-text == 'notice')
then -/var/log/haproxy/haproxy-notice.log
&~
- 保存配置文件并重启ryslog服务,完成rsyslog配置
systemctl restart rsyslog.service
systemctl restart haproxy.service
- 访问Haproxy集群测试网页,并查看日志信息
[root@haproxy ~]# cd /var/log/haproxy/
[root@haproxy haproxy]# ll
总用量 8
-rw-------. 1 root root 658 11月 5 19:20 haproxy-info.log
-rw-------. 1 root root 132 11月 5 19:20 haproxy-notice.log
#以http格式记录的日志
[root@haproxy haproxy]# cat haproxy-info.log
Nov 5 19:21:18 haproxy haproxy[57949]: 192.168.235.10:59064 [05/Nov/2020:19:20:24.881] webcluster webcluster/web1 0/0/1/0/53181 200 604 - - cD-- 0/0/0/0/0 0/0 "GET / HTTP/1.1"
Nov 5 19:22:41 haproxy haproxy[57949]: 192.168.235.10:59080 [05/Nov/2020:19:21:50.160] webcluster webcluster/web2 0/0/1/0/51108 200 426 - - cD-- 0/0/0/0/0 0/0 "GET / HTTP/1.1"
[root@haproxy haproxy]# cat haproxy-notice.log #群集状态日志
Nov 5 19:20:15 haproxy haproxy[57948]: Proxy webcluster started.
Nov 5 19:20:15 haproxy haproxy[57948]: Proxy webcluster started.
七、Haproxy参数优化
随着企业网站负载增加,haproxy参数优化相当重要,可根据需要进行修改
- maxconn:最大连接数,根据实际情况进行调整,推荐使用10240
- daemon:守护进程模式,Haproxy可以使用非守护进程模式启动,建议使用守护进程模式启动
- nbproc:负载均衡的并发进程数,建议与当前服务器CPU核数相等或为其两倍
- retries:重试次数,主要用于对集群节点的检查,如果节点多,且并发量大,设置为2到3次
- option http-server-close:主动关闭http请求选项,建议在生产环境中使用此选项
- timeout http-keep-alive:长连接超时时间,设置长连接超时时间,可以设置为10s
- timeout http-request:http请求超时时间,建议将此时间设置为5-10s,增加http连接释放速度
- timeout client:客户端超时时间,如果访问量过大,节点响应慢,可以将此时间设置短一些,建议设置为1min左右就可以了