高效多用群集之Haproxy配合Nginx搭建Web集群
一、常见的Web集群调度器
-
目前常见的Web集群调度器分为软件和硬件
-
软件通常使用开源的LVS、Haproxy、Nginx
- LVS性能最好,但是搭建相对复杂;
- Nginx的upstream模块支持集群功能,但是对集群节点健康检查功能不强,高并发没有Haproxy好
-
硬件一般使用的比较多的是F5,也有很多人使用梭子鱼、绿盟等国内产品
二、Haproxy应用分析
LVS在企业应用中抗负载能力很强,但存在不足
- LVS不支持正则处理,不能实现动静分离
- 对于大型网站,LVS的实施配置复杂,维护成功相对较高
Haproxy是一款可提供高可用性、负载均衡、及基于TCP和HTTP应用的代理的软件
- 适用于负载大的Web站点
- 运行在硬件上可支持数万计的并发连接的连接请求
三、Haproxy调度算法原理
Haproxy支持多种调度算法,最常用的有三种
- RR (Round Robin)
- RR算法是最简单常用的一种算法,即轮询调度
- LC(Least Connections)
- 最小连接数算法,根据后端的节点连接数大小动态分配前端请求。
- SH(Source Hashing)
- 基于来源访问调度算法,用于一些有Session会话记录在服务器端的场景,可以基于来源的IP、Cookie等做集群调度
四、Haproxy搭建Web群集
实验所需安装包
链接:https://pan.baidu.com/s/1djcdBVrX2-kX2Hhi0F-EmQ
提取码:0121
环境配置
主机 | 操作系统 | IP地址 | 所需软件/安装包/工具 |
---|---|---|---|
Haproxy-Server | CentOS7 | 192.168.100.10 | haproxy-1.5.19.tar.gz |
Nginx-Server1 | CentOS7 | 192.168.100.11 | nginx-1.12.0.tar.gz |
Nginx-Server2 | CentOS7 | 192.168.100.12 | nginx-1.12.0.tar.gz |
客户端 | window7 | 102.168.100.13 |
4.1、编译安装Nginx服务器
详细步骤请看:web服务之Nginx网站服务
Nginx-Server1:192.168.100.11
Nginx-Server2:192.168.100.12
安装Nginx服务可以直接使用脚本安装
#!/bin/bash
#编译安装nginx服务,使用本脚本前请将相应的安装包放入/opt目录下
#安装所需开发包和编译环境、编译器
yum -y install pcre-devel zlib-devel gcc gcc-c++ make
#创建程序用户,便于准确控制访问
useradd -M -s /sbin/nologin nginx
#解压安装包
cd /opt
tar zxvf nginx-1.12.0.tar.gz -C /opt/
#指定安装路径、指定用户名和组名
cd nginx-1.12.0/
./configure --prefix=/usr/local/nginx --user=nginx --group=nginx
#编译及安装
make && make install
#软链接便于系统识别nginx操作命令
ln -s /usr/local/nginx/sbin/nginx /usr/local/sbin/
#添加nginx系统服务
echo '[Unit]
Description=nginx
After=network.target
[Service]
Type=forking
PIDFile=/usr/local/nginx/logs/nginx.pid
ExecStart=/usr/local/nginx/sbin/nginx
ExecrReload=/bin/kill -s HUP $MAINPID
ExecrStop=/bin/kill -s QUIT $MAINPID
PrivateTmp=true
[Install]
WantedBy=multi-user.target' > /lib/systemd/system/nginx.service
#赋权及开启服务、开启开机自启
chmod 754 /lib/systemd/system/nginx.service
systemctl start nginx.service
systemctl enable nginx.service
注:
Nginx-Server1:192.168.100.11
echo "this is 192.168.100.11 web" > /usr/local/nginx/html/test.html
Nginx-Server2:192.168.100.12
echo "this is 192.168.100.12 web" > /usr/local/nginx/html/test.html
4.2、部署Haproxy服务器
Haproxy-Server:192.168.100.10
1)、关闭防火墙,将所需软件包放到/opt目录下
systemctl stop firewalld
setenforce 0
cd /opt
haproxy-1.5.19.tar.gz
2)、编译安装Haproxy
yum install -y pcre-devel bzip2-devel gcc gcc-c++ make
tar zxvf haproxy-1.5.19.tar.gz
cd haproxy-1.5.19/
make TARGET=linux2628 ARCH=x86_64
make install
参数说明
#使用uname -r查看内核,如:2.6.18-371.el5,此时该参数用TARGET=linux26;kernel大于2.6.28的用TARGET=linux2628
TARGET=linux26 #内核版本
ARCH=x86_64 #系统位数,64位系统
3)、Haproxy服务器配置
mkdir /etc/haproxy
cp examples/haproxy.cfg /etc/haproxy/
cd /etc/haproxy/
vim haproxy.cfg
global
#4~5行–修改,配置日志记录,local0为日志设备,默认存放到系统日志3
log /dev/log local0 info
log /dev/log local0 notice
#log loghost local0 info
maxconn 4096 #最大连接数,需考虑ulimit-n限制
#8行–注释,chroot运行路径,为该服务自设置的根目录,一般需将此行注释掉
#chroot /usr/share/haproxy
uid 99 #用户UID
gid 99 #用户GID
daemon #守护进程模式
defaults
log global #定义日志为global配置中的日志定义
mode http #模式为http
option httplog #采用http日志格式记录日志
option dontlognull #不记录健康检查日志信息
retries 3 #检查节点服务器失败次数,连续达到三次失败,则认为节点不可用
redispatch #当服务器负载很高时,自动结束当前队列处理比较久的连接
maxconn 2000 #最大连接数
contimeout 5000 #连接超时时间
clitimeout 50000 #客户端超时时间
srvtimeout 50000 #服务器超时时间
#删除下面所有listen项–,添加
listen webcluster 0.0.0.0:80
option httpchk GET /test.html #检查服务器的test.html文件
balance roundrobin #负载均衡调度算法使用轮询算法roundrobin
server inst1 192.168.100.11:80 check inter 2000 fall 3 #定义在线节点
server inst2 192.168.100.12:80 check inter 2000 fall 3
#--参数说明----------------
balance roundrobin #负载均衡调度算法
#轮询算法: roundrobin;最小连接数算法: leastconn;来源访问调度算法: source,类似于nginx的ip_hash
check inter 2000 #表示haproxy服务器和节点之间的一个心跳频率
fall 3 #表示连续三次检测不到心跳频率则认为该节点失效
若节点配置后带有""backup"表示该节点只是个备份节点,只有主节点失效该节点才会上。不携带"backup",表示为主节点,和其它主节点共同提供服务。
4)、添加Haproxy系统服务
(如果你先做Haproxy服务器,这步需要等到Nginx服务器搭建好再去做,不然会启动失败)
cp /opt/haproxy-1.5.19/examples/haproxy.init /etc/init.d/haproxy
cd /etc/init.d/
ll
chmod +x haproxy
chkconfig --add /etc/init.d/haproxy
ln -s /usr/local/sbin/haproxy /usr/sbin/haproxy
service haproxy start
4.3、测试Web集群
在客户端使用浏览器打开 http://192.168.100.10/test.html ,不断刷新浏览器测试负载均衡效果