文章目录
一、常见的Web集群调度器
●目前常见的Web集群调度器分为软件和硬件
●软件通常使用开源的LVS、Haproxy、Nginx
●硬件一般使用比较多的是F5,也有很多人使用国内的一些产品,如梭子鱼、绿盟等
二、Haproxy应用分析
●LVS在企业应用中抗负载能力很强,但存在不足
LVS不支持正则处理,不能实现动静分离(nginx都支持)
对于大型网站,LVS的实施配置复杂,维护成本相对较高
●Haproxy是一款可提供高可用性、负载均衡、及基于TCP和HTTP应用的代理的软件
适用于负载大的Web站点
运行在硬件上可支持数以万计的并发连接的连接请求
三、Haproxy调度算法原理
●Haproxy支持多种调度算法,最常用的有三种
第一种:
R算法是最简单最常用的一种算法,即轮询调度
理解举例
有三个节点A、B、C,第一个用户访问会被指派到节点A,第二个用户访问会被指派到节点B,第三个用户访问会被指派到C节点
第四个用户访问继续指派到节点A,轮询分配访问请求实现负载均衡效果
第二种:
LC算法即最小连接数算法,根据后端的节点连接数大小动态分配前端请求
理解举例
有三个节点A、B、C,各节点的连接数分别为A:4、B:5、C:6,此时如果有第一个用户连接请求,会被指派到A上,连接数变为A:5、B:5、C:6
第二个用户请求会继续分配到A上,连接数变为A6、B:5、C:6;再有新的请求会分配给B,每次将新的请求指派给连接数最小的客户端
由于实际情况下A、B、C的连接数会动态释放,很难会出现一样连接数的情况,因此此算法相比较rr算法有很大改进,是目前用到比较多的一种算法
第三种:
SH即基于来源访问调度算法,此算法用于一些有 Session会话记录在服务器端的场景,可以基于来源的IP、Cookie等做集群调度(上一次请求分给哪个web服务器的下次还是分给该服务器)
理解举例
有三个节点A、B、C,第一个用户第一次访问被指派到了A,第二个用户第次访问被指派到了B
当第一个用户第二次访问时会被继续指派到A,第二个用户第二次访问时依旧会被指派到B,只要负载均衡调度器不重启,第一个用户访问都会被指派到A,第二个用户访问都会被指派到B,实现集群的调度
此调度算法好处是实现会话保持,但某些IP访问量非常大时会引起负载不均衡,部分节点访问量超大,影响业务使用
四、Haproxy配置文件详解
4.1Haproxy配置文件通常分为三个部分
● global:全局配置
● defaults:默认配置
● listen:应用组件配置
4.2global配置参数
●log127.0.0.1 lcal0:配置日志记录,local0为日志设备,默认存放到系统日志
●log127.0.0.1 loca1 notice:notice为日志级别,通常有24个级别
●maxconn4096:最大连接数
●uid 99:用户uid
●gid 99:用户gid
4.3defaults配置项配置默认参数
一般会被应用组件继承,如果在应用组件中没有特别声明,将安装默认配置参数设置
●log global:定义日志为global配置中的日志定义
●mode http:模式为http
●option httplog:采用http日志格式记录日志
●retries 3:检查节点服务器失败连续达到三次则认为节点不可用
●maxconn2000:最大连接数
●contimeout5000:连接超时时间
●clitimeout50000:客户端超时时间
●srvtimeout50000:服务器超时时间
4.4listen配置项目一般为配置应用模块参数
●listen appli4- backup 0.0.0.0:10004:定义一个appli4- backup的应用
●option httpchk /index.html检查服务器的index.html文件
●option persist:强制将请求发送到已经down掉的服务器(注释掉,否则起服务会报错)
●balance roundrobin:负载均衡调度算法使用轮询算法
●server inst1 192.168.114.56:80 check inter 2000 fall 3:定义在线节点
●server inst2 192.168 114.56:81 check inter 2000 fall 3 backup:定义备份节点
五、使用Haproxy搭建Web群集
5.1实验环境
三台虚拟服务器模拟搭建一套Web集群;网站使用nginx搭建;
虚拟机安装Centos 7.6的系统,另外一台Windows10作为客户端
5.2实验步骤
两台Nginx节点服务器配置
1.安装依赖包
[root@nginx1 ~]# yum -y install gcc gcc-c++ make pcre-devel zlib-devel
2.为web服务器创建用户nginx,便于管理,再进行编译安装
[root@nginx1 ~]# useradd -M -s /sbin/nologin nginx
[root@nginx1 ~]# tar zxf nginx-1.12.0.tar.gz
[root@nginx1 ~]# cd nginx-1.12.0/
[root@nginx1 nginx-1.12.0]# ./configure \
--prefix=/usr/local/nginx \
--user=nginx \
--group=nginx
[root@nginx1 nginx-1.12.0]# make && make install
3.两台Nginx节点服务器创建首页,首页文件名一样,内容不一样
[root@nginx1 nginx-1.12.0]# cd /usr/local/nginx/html/
[root@nginx1 html]# echo "this is test01 web" > index.html
([root@nginx2 html]# echo "this is test02 web" > index.html)
[root@nginx1 html]# ln -s /usr/local/nginx/sbin/nginx /usr/local/sbin/
[root@nginx1 html]# systemctl stop firewalld.service
[root@nginx1 html]# setenforce 0
[root@nginx1 html]# nginx
Haproxy服务器
1.安装依赖包
[root@localhost ~]# yum -y install gcc gcc-c++ make pcre-devel bzip2-devel
2.安装haproxy软件包
[root@localhost ~]# tar zxf haproxy-1.5.19.tar.gz
[root@localhost ~]# cd haproxy-1.5.19/
[root@localhost haproxy-1.5.19]# make TARGET=linux26
[root@localhost haproxy-1.5.19]# make install
3.在/etc目录下创建haproxy目录,将软件包中的配置文件模板复制到haproxy目录中
[root@localhost haproxy-1.5.19]# mkdir /etc/haproxy
[root@localhost haproxy-1.5.19]# cp examples/haproxy.cfg /etc/haproxy/
4.修改haproxy.cfg配置参数
[root@localhost haproxy-1.5.19]# cd /etc/haproxy/
[root@localhost haproxy]# vim haproxy.cfg
下面两项前面加上注释
#chroot /usr/share/haproxy #固有目录,可注释掉
#redispatch #当使用了cookie时,haproxy将会将其请求的后端服务器的serverID插入到cookie中,以保证会话的SESSION持久性;而此时,如果后端的服务器宕掉了,但是客户端的cookie是不会刷新的,如果设置此参数,将会将客户的请求强制定向到另外一个后端server上,以保证服务的正常。需要注释掉
将原来的listen配置项删除,添加如下参数
listen webcluster 0.0.0.0:80
option httpchk GET /index.html
balance roundrobin
server inst1 14.0.0.20:80 check inter 2000 fall 3
server inst2 14.0.0.30:80 check inter 2000 fall 3
5.将软件包中的服务启动脚本复制到/etc/init.d下,便于service管理
root@localhost ~]# cp /root/haproxy-1.5.19/examples/haproxy.init /etc/init.d/haproxy
[root@localhost ~]# chmod +x /etc/init.d/haproxy
[root@localhost ~]# chkconfig --add /etc/init.d/haproxy
[root@localhost ~]# ln -s /usr/local/sbin/haproxy /usr/sbin/haproxy
[root@localhost ~]# service haproxy start
Starting haproxy (via systemctl): [ 确定 ]
6.在win10的浏览器中访问haproxy服务器的IP地址进行验证,能够成功访问并且刷新网页能跳转到另一台nginx服务器的页面代表实验成功
六、Haproxy日志管理
●默认是输出到系统的syslog(系统日志)中,生成环境中一般单独定义
●定义的方法步骤
修改Haproxy配置文件中关于日志配置的选项,加入配置
log /dev/log local0 info
log /dev/log local0 notice
修改rsyslog配置,将Haproxy相关的配置独立定义到haproxy.conf,并放到/etc/rsyslog.d下
保存配置文件并重启rsyslog服务,完成rsyslog配置
●访问Haproxy集群测试网页并查看日志信息
●具体配置(基于上面的Haproxy搭建web群集实验)
[root@localhost ~]# vim /etc/haproxy/haproxy.cfg
global区段修改如下参数
log /dev/log local0 info
log /dev/log local0 notice
[root@localhost ~]# service haproxy restart
[root@localhost ~]# vim /etc/rsyslog.d/haproxy.conf
[root@localhost ~]# systemctl restart rsyslog.service
在win10客户端浏览器中访问网页,查看指定haproxy的日志文件内容进行验证
[root@localhost ~]# cat /var/log/haproxy/haproxy-info.log
Sep 2 19:38:58 localhost haproxy[71265]: 14.0.0.130:50276 [02/Sep/2020:19:38:58.834] webcluster webcluster/inst1 0/0/0/0/0 200 255 - - ---- 1/1/0/1/0 0/0 "GET / HTTP/1.1"
Sep 2 19:38:59 localhost haproxy[71265]: 14.0.0.130:50276 [02/Sep/2020:19:38:58.835] webcluster webcluster/inst2 242/0/1/0/243 200 255 - - ---- 1/1/0/1/0 0/0 "GET / HTTP/1.1"
七、Haproxy参数优化
随着企业网站负载增加, haproxy参数优化相当重要
●maxconn:最大连接数,根据应用实际情况进行调整,推荐使用10240
●daemon:守护进程模式, Haproxy可以使用非守护进程模式启动,建议使用守护进程模式启动
●nbproc:负载均衡的并发进程数,建议与当前服务器CPU核数相等或为其2倍
retries:重试次数,主要用于对集群节点的检查,如果节点多,且并发量大,设置为2次或3次
●option http-server-close:主动关闭http请求选项,建议在生产环境中使用此选项
●timeout http-keep-alive:长连接超时时间,设置长连接超时时间,可以设置为10s
●timeout http-request:http请求超时时间,建议将此时间设置为5~10s,增加http连接释放速度
●timeout client:客户端超时时间,如果访问量过大,节点响应慢,可以将此时间设置短一些,建议设置为1min左右就可以了