Haproxy搭建Web集群

本文详细解析了Haproxy作为web集群调度器的优势,比较了与LVS和Nginx的区别,演示了如何部署Haproxy集群并配置常用调度算法。重点介绍了 RR、LC 和 SH 算法,以及如何优化日志和健康检查。
摘要由CSDN通过智能技术生成

目录

常见的web集群调度器

软件调度器

硬件调度器

Haproxy简介

Haproxy应用分析

HAProxy的主要特性

Haproxy支持的调度算法

其中,常用的调度算法有三种

RR(Round Robin)

LC(Least Connections)

SH(Source Hashing)

LVS、Nginx、HAproxy的区别

Haproxy集群的部署

部署nginx节点服务器

 部署Haproxy服务器

客户端测试

日志定义优化

查看日志文件是否添加


常见的web集群调度器

web集群调度器分为软件和硬件

软件调度器

LVS:性能最好,搭建复杂

Nginx:性能较好,但集群节点健康检查功能呢不强,高并发性能较弱

Haproxy:高并发性能好

硬件调度器

国内品牌:梭子鱼、绿盟等

国外品牌:F5、Array等

Haproxy简介

Haproxy 是一个使用C语言编写的自由及开放源代码软件,其提供高可用性、负载均衡,以及基于TCP和HTTP的应用程序代理

Haproxy应用分析

LVS在企业应用中抗负载能力很强,但存在不足

LVS不支持正则处理,不能实现动静分离

对于大型网站,LVS的实施配置复杂,维护成本相对较高

Haproxy是一款可提供高可用性、负载均衡、及基于TCP和HTTP应用的代理软件

适用于负载大的web站点

运行在硬件上可支持数以万计的并发连接的连接请求

HAProxy的主要特性

靠性和稳定性非常好,可以与硬件级的F5负载均衡设备相媲美;

最高可以同时维护40000-50000个并发连接,单位时间内处理的最大请求数为20000个,最大处理能力可达10Git/s;

支持多达8种负载均衡算法,同时也支持会话保持;

支持虚拟机主机功能,从而实现web负载均衡更加灵活;

支持连接拒绝、全透明代理等独特的功能;

拥有强大的ACL支持,用于访问控制;

其独特的弹性二义树数据结构,使数据结构的复杂性上升到了0(1),即数据的查寻速度不会随着数据条日的增加而速度有所下降;·支持客户端的keepalive功能,减少客户端与haproxy的多次三次握手导致资源浪费,让多个请求在一个tcp连接中完成;

支持TCP加速,零复制功能,类似于mmap机制;

支持响应池(response buffering) ;

支持RDP协议;

基于源的粘性,类似nginx的ip hash功能,把来自同一客户端的请求在一定时间内始终调度到上游的同一服务器;·更好统计数据接口,其web接口显示后端集群中各个服务器的接收、发送、拒绝、错误等数据的统计信息;

详细的健康状态检测,web接口中有关于对上游服务器的健康检测状态,并提供了一定的管理功能;

基于流量的健康评估机制;

基于http认证;

基于命令行的管理接口;

日志分析器,可对日志进行分析。

Haproxy支持的调度算法

roundrobin,表示简单的轮询
static-rr,表示根据权重
leastconn,表示最少连接者先处理
source,表示根据请求源IP
uri,表示根据请求的URI,做cdn需使用;
url param,表示根据请求的UR1参数balance url param'requires an URI parameter name
hdr(name),表示根据HTTP请求头来锁定每一次HTTP请求;
rdp-cookie(name),表示根据cookie(name)来锁定并哈希每一次TCP请求。

其中,常用的调度算法有三种

RR(Round Robin)

RR算法是最简单最常用的一种算法,即轮询调度

理解举例:有三个节点A、B、C

第一个用户访问会被指派到节点A

第二个用户访问会被指派到节点B

第三个用户访问会被指派到节点C

第四个用户访问继续指派到节点A,轮询分配访问请求实现负载均衡效果

LC(Least Connections)

最小连接数算法,根据后端的节点连接数大小动态分配前端请求

理解举例: 有三个节点A、B、C,各节点的连接数分别为A:4 B:5 C:6

第一个用户连接请求,会被指派到A上,连接数变为A:5 B:5 C:6

第二个用户请求会继续分配到A上,连接数变为A:6 B:5 C:6;再有新的请求会分配给B,每次将新的请求指派给连接数最小的客户端

由于实际情况下A、B、C的连接数会动态释放,很难会出现一样连接数的情况

此算法相比较rr算法有很大改进,是米钱用到比较多的一种算法

SH(Source Hashing)

基于来源访问调度算法,用于一些有Session会话记录在服务端的场景,可以基于来源的IP、Cookie等做集群调度

理解举例 有三个节点A、B、C,第一个用户第一次访问被指派到了A,第二个用户第一次访问被指派到了B

当第一个用户第二次访问时会被继续指派到A,第二个用户第二次访问时依旧会被指派到B,只要负载均衡器不重启,第一个用户都会被指派到A,第二个用户访问都会被指派到B,实现集群的调度

此调度算法好处是实现会话保持,但某些IP访问量非常大时会引起负载不均衡,部分节点访问量超大,影响业务使用

LVS、Nginx、HAproxy的区别

Lvs基于Linux操作系统内核实现软负载均衡,而HAProxy和Nginx是基于第三方应用实现的软负载均衡;背一家物。

LVS是可实现4层的IP负载均衡技术,无法实现基于录、URL的转发。而HAProxy和Nginx都可以实现4层和7层技术,HAProxy可提供TCp和HTTp应用的负载均衡综合解决方案;

LVS因为工作在Iso模型的第四层,其状态监测功能单一,而HAProxy在状态监测方面功能更丰富、强大,可支持端口、URL、脚本等多种状态检测方

HAProxy功能强大,单纯从效率上来讲AProxy会比Nginx有更出色的负载均衡速度,在并发处理上也是优于Nginx的。但整体性能低于4层模式的LVS负载均衡;

Nginx主要用于Web服务器或缓存服务器。Nginx的upstream模块虽然也支持群集功能,但是对群集节点健康检查功能不强,性能没有Haproxy好。

Haproxy集群的部署

环境:
Haproxy服务器:192.168.217.120
Nginx 服务器1:192.168.217.100
Nginx 服务器2:192.168.217.110
客户端:192.168.217.200

部署nginx节点服务器

Nginx 服务器1:192.168.217.100

#关闭防火墙

systemctl stop firewalld

setenforce 0

#yum安装 nginx
vim /etc/yum.repos.d/nginx.repo

[nginx-stable]
name=nginx stable repo
baseurl=http://nginx.org/packages/centos/7/$basearch/

gpgcheck=0
enabled=1
 
yum install nginx -y 
 
systemctl start nginx
systemctl enable nginx
 

[root@localhost ~]# cd /usr/share/nginx/html/
[root@localhost html]# ls
50x.html  index.html
[root@localhost html]# echo "<h1>nginx test1</h1>" >index.html

网页测试

192.168.217.100

Nginx 服务器2:192.168.217.110

#关闭防火墙

systemctl stop firewalld

setenforce 0

#yum安装 nginx
vim /etc/yum.repos.d/nginx.repo

[nginx-stable]
name=nginx stable repo
baseurl=http://nginx.org/packages/centos/7/$basearch/

gpgcheck=0
enabled=1
 
yum install nginx -y 
 
systemctl start nginx
systemctl enable nginx

[root@localhost ~]# cd /usr/share/nginx/html/
[root@localhost html]# ls
50x.html  index.html
[root@localhost html]# echo "<h1>nginx test2</h1>" >index.html

网页测试

192.168.217.110

 部署Haproxy服务器

关闭防火墙,将安装Haproxy所需软件包传到/opt目录下

systemctl stop firewalld

setenforce 0

cd /opt

haproxy-1.5.19.tar.gz

安装依赖软件 

yum install -y pcre-devel bzip2-devel gcc gcc-c++ make

将安装包解压并切换目录

tar zxf haproxy-1.5.19.tar.gz

cd haproxy-1.5.19/

编译安装Haproxy

make TARGET=linux2628 ARCH=x86_64

make install

####################参数说明###################
TARGET=linux26 #内核版本,
#使用uname -r查看内核,如:2.6.18-371.el5,此时该参数用TARGET=linux26;kernel大于2.6.28的用TARGET=linux2628
ARCH=x86_64 #系统位数,64位系统
####################参数说明###################

#Haproxy服务器配置

mkdir /etc/haproxy

cp examples/haproxy.cfg /etc/haproxy/

修改配置文件 

vim haproxy.cfg


global
--4~5行--修改,配置日志记录,local0为日志设备,默认存放到系统日志
        log /dev/log    local0 info        
        log /dev/log    local0 notice
        #log loghost    local0 info
        maxconn 4096                    #最大连接数,需考虑ulimit -n限制
--8行--注释,chroot运行路径,为该服务自设置的根目录,一般需将此行注释掉
        #chroot /usr/share/haproxy
        uid 99                            #用户UID
        gid 99                            #用户GID
        daemon                            #守护进程模式
 
defaults        
        log     global                    #定义日志为global配置中的日志定义
        mode    http                    #模式为http
        option  httplog                    #采用http日志格式记录日志
        option  dontlognull                #不记录健康检查日志信息
        retries 3                        #检查节点服务器失败次数,连续达到三次失败,则认为节点不可用
        redispatch                        #当服务器负载很高时,自动结束当前队列处理比较久的连接
        maxconn 2000                    #最大连接数
        contimeout      5000            #连接超时时间
        clitimeout      50000            #客户端超时时间
        srvtimeout      50000            #服务器超时时间
 
--删除下面所有listen项--,添加
listen  webcluster 0.0.0.0:80            #定义一个名为webcluster的应用
        option httpchk GET /index.html    #检查服务器的index.html文件
        balance roundrobin                #负载均衡调度算法使用轮询算法roundrobin
        server inst1 192.168.59.97:80 check inter 2000 fall 3        #定义在线节点
        server inst2 192.168.59.99:80 check inter 2000 fall 3
        
        
        
##########################参数说明########################
balance roundrobin #负载均衡调度算法
#轮询算法:roundrobin;最小连接数算法:leastconn;来源访问调度算法:source,类似于nginx的ip_hash
 
check inter 2000 #表示haproxy服务器和节点之间的一个心跳频率
fall3 #表示连续三次检测不到心跳频率则认为该节点失效
若节点配置后带有“backup”表示该节点只是个备份节点,只有主节点失效该节点才会上。不携带“backup”,表示为主节点,和其它主节点共同提供服务。

添加haproxy系统服务

cp /opt/haproxy-1.5.19/examples/haproxy.init /etc/init.d/haproxy
cd /etc/init.d/
chmod +x haproxy 
chkconfig --add /etc/init.d/haproxy 
ln -s /usr/local/sbin/haproxy /usr/sbin/haproxy
service haproxy start

查看端口

客户端测试

日志定义优化

#修改日志输出路径 #默认haproxy的日志输出到系统syslog中,查看起来不方便,为了更好管理haproxy的日志,我们在生产环境中一般单独定义出来需要将haproxy的info及notice日志分别记录到不同的日志文件中。

vim haproxy.cfg global

--4~5行--修改,配置日志记录,local0为日志设备,默认存放到系统日志

log /dev/log   local0 info      

log /dev/log   local0 notice

wq保存

service haproxy restart


修改rsyslog配置

需要修改rsyslog配置,为了便于管理,将haproxy相关的配置单独定义到haproxy.conf,并放到/etc/rsyslog.d/下,rsyslog启动时会自动加载此目录下的所有配置文件

cd /etc/rsyslog.d/

vim haproxy.conf                #创建新文件配置

if ($programname == 'haproxy' and $syslogseverity-text == 'info')

then -/var/log/haproxy/haproxy-info.log

&~

if ($programname == 'haproxy' and $syslogseverity-text == 'notice')

then -/var/log/haproxy/haproxy-notice.log

&~

说明: 这部分配置是将haproxy的info日志记录到/var/log/haproxy-info.log下,将notice日志记录到/var/log/haproxy/haproxy-notice.log下。"&~"表示当日志写入到日志文件后,rsyslog停止处理这个信息。

systemctl restart rsyslog.service

客户端刷新网页192.168.172.120/index.html
 

查看日志文件是否添加

[root@localhost rsyslog.d]# cd /var/log/haproxy/
[root@localhost haproxy]# ls
haproxy-info.log

tail -f /var/log/haproxy/haproxy-info.log        #查看haproxy的访问请求日志信息 ​

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值