Haproxy 集群

Web服务Haproxy 集群

一.Haproxy 集群

Haproxy 是一个使用 C 语言编写的自由及开放源代码软件,其提供高可用性、负载均衡,以及基于 TCP 和 HTTP 的应用程序代理。

二.Haproxy集群特性

  • 可靠性和稳定性非常好,可以与硬件级的F5负载均衡设备相媲美;
  • 最高可以同时维护40000-50000个并发连接,单位时间内处理的最大请求数为20000个,最大处理能力可达10Git/s;
  • 支持多达8种负载均衡算法,同时也支持会话保持;
  • 支持虚机主机功能,从而实现web负载均衡更加灵活;
  • 支持连接拒绝、全透明代理等独特的功能;
  • 拥有强大的ACL支持,用于访问控制;
  • 其独特的弹性二叉树数据结构,使数据结构的复杂性上升到了0(1),即数据的查寻速度不会随着数据条目的增加而速度有所下降;
  • 支持客户端的keepalive功能,减少客户端与haproxy的多次三次握手导致资源浪费,让多个请求在一个tcp连接中完成;
  • 支持TCP加速,零复制功能,类似于mmap机制;
  • 支持响应池 (response buffering);
  • 支持RDP协议;
  • 基于源的粘性,类似nginx的ip hash功能,把来自同一客户端的请求在一定时间内始终调度到上游的同一服务器;
  • 更好统计数据接口,其web接口显示后端集群中各个服务器的接收、发送、拒绝、错误等数据的统计信息;
  • 详细的健康状态检测,web接口中有关于对上游服务器的健康检测状态, 并提供了一定的管理功能;
  • 基于流量的健康评估机制;
  • 基于http认证;
  • 基于命令行的管理接口;
  • 日志分析器,可对日志进行分析

三. LVS、Nainx、Haproxy 的区别

  • LVS基于Linux操作系统实现软负载均衡,而 HAProxy 和 Nginx 是基于第三方应用实现的软负载均衡;
  • LVS是可实现4层的IP负载均衡技术,无法实现基于目录、URL 的转发。而 HAProxy 和 Nainx 都可以实现4层和7层技术,HAProxy 可提供 TCP 和HTTP应用的负载均衡综合解决方案;
  • LVS因为工作在ISO模型的第四层,其状态监测功能单一, 而HAProxy在状监测方面功能更丰富、强大, 可支持端口、URL、脚本等多种状态检测方式;
  • HAProxy 功能强大,但整体性能低于4层模式的LVS 负载均衡。
  • Nginx 主要用干 Web 服务器或缓存服务器。

负载均衡策略

roundrobin表示简单的轮询
static-rr表示根据权重
leastconn表示最少连接者先处理
source表示根据请求的源IP,类似Nginx的IP hash机制
ri表示根据请求的URI
rl_param表示根据HTTP请求头来锁定每 一 次HTTP请求
rdp-cookie (name)表示根据据cookie (name)来锁定并哈希每一次TCP请求

四.Haproxy集群的构建

(1)Haproxy集群的构建的步骤(理论)

准备工作:

Haproxy服务器:192.168.80.30

Nginx 服务器1:192.168.80.10

Nginx 服务器2:192.168.80.20

客户端:192.168.80.200

1.关闭防火墙,将安装Haproxy所需软件包传到/opt目录下

1 systemctl stop firewalld
2 setenforce 0
3 
4 haproxy-1.5.19.tar.gz

2.编译安装 Haproxy

yum install -y pcre-devel bzip2-devel gcc gcc-c++ make

tar zxvf haproxy-1.5.19.tar.gz
cd haproxy-1.5.19/
make TARGET=linux2628 ARCH=x86_64
make install

3.Haproxy 服务器配置

 mkdir /etc/haproxy
cp examples/haproxy.cfg /etc/haproxy/ 
cd /etc/haproxy/
vim haproxy.cfg
global
--4~5行--修改,配置日志记录,local0为日志设备,默认存放到系统日志
        log /dev/log   local0 info
        log /dev/log   local0 notice
        #log loghost    local0 info
        maxconn 4096                    #最大连接数,需考虑ulimit -n限制
--8行--注释,chroot运行路径,为该服务自设置的根目录,一般需将此行注释掉
        #chroot /usr/share/haproxy
        uid 99                            #用户UID
        gid 99                            #用户GID
        daemon                            #守护进程模式

defaults
        log     global                     #定义日志为global配置中的日志定义
        mode    http                       #模式为http
        option  httplog                    #采用http日志格式记录日志
        option  dontlognull                #不记录健康检查日志信息
        retries 3                          #检查节点服务器失败次数,连续达到三次失败,则认为节点不可用
        redispatch                         #当服务器负载很高时,自动结束当前队列处理比较久的连接
        maxconn 2000                       #最大连接数
        contimeout      5000               #连接超时时间
        clitimeout      50000              #客户端超时时间
        srvtimeout      50000              #服务器超时时间

--删除下面所有listen项--,添加
listen  webcluster 0.0.0.0:80             #定义一个名为webcluster的应用
        option httpchk GET /test.html     #检查服务器的test.html文件
        balance roundrobin                #负载均衡调度算法使用轮询算法roundrobin
        server inst1 192.168.80.10:80 check inter 2000 fall 3        #定义在线节点
        server inst2 192.168.80.20:80 check inter 2000 fall 3

4.添加 haproxy 系统服务

cp /opt/haproxy-1.5.19/examples/haproxy.init /etc/init.d/haproxy
cd /etc/init.d
chmod +x haproxy
chkconfig --add /etc/init.d/haproxy

ln -s /usr/local/sbin/haproxy /usr/sbin/haproxy
service haproxy start    或    /etc/init.d/haproxy start

5.节点服务器部署

systemctl stop firewalld
setenforce 0
 
yum install -y pcre-devel zlib-devel gcc gcc-c++ make
 
useradd -M -s /sbin/nologin nginx
 
cd /opt
tar zxvf nginx-1.12.0.tar.gz -C /opt/
 
cd nginx-1.12.0/
./configure --prefix=/usr/local/nginx --user=nginx --group=nginx && make && make install
 
make && make install
 
--192.168.153.60---
echo "this is accp web" > /usr/local/nginx/html/test.html
 
--192.168.153.70---
echo "this is benet web" > /usr/local/nginx/html/test.html
 
ln -s /usr/local/nginx/sbin/nginx /usr/local/sbin/
 
nginx #启动nginx 服务

6.测试 Web群集

在客户端使用浏览器打开 http://192.168.153.50/test.html ,不断刷新浏览器测试负载均衡效果

(2)Haproxy集群的构建的具体操作步骤(实操)

实验环境搭建:

web1相关设置如下:

在这里插入图片描述

web2相关设置如下:

在这里插入图片描述

Haproxy服务器配置如下:
在这里插入图片描述

客户端配置如下:
在这里插入图片描述

将Haproxy服务器、web1服务器 和web2服务器防火墙和SElinux关闭
在这里插入图片描述

第一步:配置web1和web2服务器(除test.html文件的内容不一样,其他都步骤都一致)

1)安装Nginx服务器1和2,我这边使用源码安装,然后添加网页显示内容。

在这里插入图片描述

2)浏览器中查看网页显示内容

在这里插入图片描述

第二步:haproxy 服务器部署

1)放入安装包

在这里插入图片描述

2)安装相关依赖包

在这里插入图片描述

3)解压Haproxy安装包

在这里插入图片描述

4)编译安装

在这里插入图片描述

在这里插入图片描述

5)在/etc下创建Haproxy目录并将/opt内的Haproxy复制过去

在这里插入图片描述

6)修改主配置文件haproxy.cfg

在这里插入图片描述

7)添加haproxy 系统服务
在这里插入图片描述

第三步:在客户端中进行访问测试

在这里插入图片描述

五.Haproxy 集群的 日志重新定义

#默认haproxy的日志是输出到系统的syslog中,查看起来不是非常方便,为了更好的管理haproxy的日志,我们在生产环境中一般单独定义出来。   需要将haproxy的info及notice日志分别记录到不同的日志文件中。

vim /etc/haproxy/haproxy.cfg

global
    log /dev/log local0 info
    log /dev/log local0 notice

service haproxy restart
#需要修改rsyslog配置,为了便于管理。    将haproxy相关的配置独立定义到haproxy.conf,并放到/etc/rsyslog.d/下,rsyslog启动时会自动加载此目录下的所有配置文件。

vim /etc/rsyslog.d/haproxy.conf

if ($programname == 'haproxy' and $syslogseverity-text == 'info')
then -/var/log/haproxy/haproxy-info.log
&~
if ($programname == 'haproxy' and $syslogseverity-text == 'notice')
then -/var/log/haproxy/haproxy-notice.log
&~
这部分配置是将haproxy的info日志记录到/var/log/haproxy/haproxy-info.log下,将notice日志记录到/var/log/haproxy/haproxy-notice.log下。  “&~”表示当日志写入到日志文件后,rsyslog停止处理这个信息。


mkdir /var/log/haproxy/
systemctl restart rsyslog.service

tail -f /var/log/haproxy/haproxy-info.log            #查看haproxy的访问请求日志信息

(1)Haproxy集群的日志重新定义(实操)

第一步:确认默认haproxy的日志

在这里插入图片描述

第二步:修改rsyslog配置
在这里插入图片描述

第三步:创建/var/log/haproxy/目录并重启服务

在这里插入图片描述

第四步:在浏览器中重新访问后,测试日志生成

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值