haproxy

        在七层代理模式下,HAProxy会分析应用层协议(如HTTP),并能够通过运行、拒绝、交换、增加、修改或删除请求(request)或响应(response)里的指定内容来控制协议。HAProxy可以基于HTTP请求的内容(如URL、头信息等)进行复杂的路由决策,并将请求转发到后端服务器上。后端服务器处理完请求后,HAProxy再将响应返回给客户端。

负载均衡:

什么是负载均衡

        负载均衡:Load Balance ,简称 LB ,是一种服务或基于硬件设备等实现的高可用反向代理技术,负载均衡将特定的业务(web 服务、网络流量等 )分担给指定的一个或多个后端特定的服务器或设备,从而提高了 公司业务的并发处理能力、保证了业务的高可用性、方便了业务后期的水平动态扩展,在Web服务器、数据库服务器、应用服务器等场景中,负载均衡被广泛使用以确保请求被均匀分配到各个服务器上,从而避免单点故障和过载。
        阿里云SLB 介绍 : https://yq.aliyun.com/articles/1803     

为什么用负载均衡

  • Web服务器的动态水平扩展-->对用户无感知
  • 增加业务并发访问及处理能力-->解决单服务器瓶颈问题
  • 节约公网IP地址-->降低IT支出成本
  • 隐藏内部服务器IP-->提高内部服务器安全性
  • 配置简单-->固定格式的配置文件
  • 功能丰富-->支持四层和七层,支持动态下线主机
  • 性能较强-->并发数万甚至数十万

负载均衡类型

硬件:
  • F5    美国F5网络公司 https://f5.com/zh
  • Netscaler     美国思杰公司 https://www.citrix.com.cn/products/citrix-adc/
  • Array    华耀 https://www.arraynetworks.com.cn/
  • AD-1000     深信服 http://www.sangfor.com.cn/

四层负载均衡

  1. 通过ip+port决定负载均衡的去向。
  2. 对流量请求进行NAT处理,转发至后台服务器。
  3. 记录tcpudp流量分别是由哪台服务器处理,后续该请求连接的流量都通过该服务器处理。
  4. 支持四层的软件
  • lvs:重量级四层负载均衡器。
  • Nginx:轻量级四层负载均衡器,可缓存。(nginx四层是通过upstream模块)
  • Haproxy:模拟四层转发。

七层负载均衡

  1. 通过虚拟ur|或主机ip进行流量识别,根据应用层信息进行解析,决定是否需要进行负载均衡。
  2. 代理后台服务器与客户端建立连接,如nginx可代理前后端,与前端客户端tcp连接,与后端服务建立tcp连接。
  3. 支持7层代理的软件:
  • Nginx:基于http协议(nginx七层是通过proxy_pass)
  • Haproxy:七层代理,会话保持、标记、路径转移等。

四层和七层的区别

        所谓的四到七层负载均衡,就是在对后台的服务器进行负载均衡时,依据四层的信息或七层的信息来决 定怎么样转发流量
        四层的负载均衡,就是通过发布三层的IP 地址( VIP ),然后加四层的端口号,来决定哪些流量需要做负 载均衡,对需要处理的流量进行NAT 处理,转发至后台服务器,并记录下这个 TCP 或者 UDP 的流量是由哪 台服务器处理的,后续这个连接的所有流量都同样转发到同一台服务器处理
        七层的负载均衡,就是在四层的基础上(没有四层是绝对不可能有七层的),再考虑应用层的特征,比如同一个Web服务器的负载均衡,除了根据 VIP 80 端口辨别是否需要处理的流量,还可根据七层的URL、浏览器类别、语言来决定是否要进行负载均衡。
  • 分层位置:四层负载均衡在传输层及以下,七层负载均衡在应用层及以下
  • 性能 :四层负载均衡架构无需解析报文消息内容,在网络吞吐量与处理能力上较高:七层可支持解析应用 层报文消息内容,识别URL、CookieHTTP header等信息。、
  • 原理 :四层负载均衡是基于ip+port;七层是基于虚拟的URL或主机IP等。
  • 功能类比:四层负载均衡类似于路由器;七层类似于代理服务器。
  • 安全性:四层负载均衡无法识别DDoS攻击;七层可防御SYN Cookie/Flood攻击

haproxy简介:  

        HAProxy是一个使用C语言编写的自由及开放源代码软件,由法国开发者威利塔罗(Willy Tarreau)在2000年开发。它主要提供高可用性、负载均衡以及基于TCP和HTTP的应用程序代理功能。HAProxy特别适用于那些负载特大的web站点,这些站点通常又需要会话保持或七层处理。

支持基于 cookie 的持久性,自动故障切换,支持正则表达式及 web 状态统计
  • 企业版网站:https://www.haproxy.com
  • 社区版网站:http://www.haproxy.org
  • githubhttps://github.com/haprox

haproxy基础实验

基础设置:

实验环境:

[root@haproxy ~]# dnf install haproxy -y   //下载haproxy服务

分开写:

合并写:

[root@haproxy ~]# systemctl restart haproxy.service

webserver1配置:

[root@webserver1 ~]# dnf install nginx -y
[root@webserver1 ~]# systemctl restart nginx.service
[root@webserver1 ~]# echo webserver1 - 172.25.254.10 > 
  /usr/share/nginx/html/index.html
[root@webserver1 ~]# systemctl restart nginx.service 

webserver2配置:

[root@webserver2 ~]# dnf install nginx -y
[root@webserver2 ~]# systemctl restart nginx.service
[root@webserver2 ~]# echo webserver2 - 172.25.254.20 > /usr/share/nginx/html/index.html
[root@webserver2 ~]# systemctl restart nginx.service 

测试:

 haproxy的基本配置信息

HAProxy 的配置文件haproxy.cfg由两大部分组成,分别是: 
global :全局配置段

  • 进程及安全配置相关的参数
  • 性能调整相关参数
  • Debug参数

proxies :代理配置段

  • defaults:为frontend, backend, listen提供默认配置
  • frontend:前端,相当于nginx中的server {}
  • backend:后端,相当于nginx中的upstream {}
  • listen:同时拥有前端和后端配置,配置简单,生产推荐使用
Note : name字段只能使用大小写字母,数字,‘-’(dash) '_‘(underscore) '.' (dot) ':'(colon) ,并且严格区分大小写

Proxies配置-defaults

defaults
    mode     http        # HAProxy实例使用的连接协议
    log      global      #指定日志地址和记录日志条目的syslog/rsyslog日志设备
                         #此处的 global表示使用 global配置段中设定的log值。
    option   httplog     #日志记录选项,httplog表示记录与HTTP会话相关的各种属性值
                         #包括 HTTP请求、会话状态、连接数、源地址以及连接时间等
    option   dontlognull      #dontlognull表示不记录空会话连接日志
    option   http-server-close      #等待客户端完整HTTP请求的时间,此处为等待10s。
    option   forwardfor  except 127.0.0.0/8     #透传客户端真实IP至后端web服务器
                          #在apache配置文件中加入:<br>%{XForwarded-For}i
                          #后在webserer中看日志即可看到地址透传信息
    option redispatch     #当server Id对应的服务器挂掉后,强制定向到其他健康的服务器,重新派发
    option http-keep-alive          #开启与客户端的会话保持
    retries 3             #连接后端服务器失败次数
    timeout http-request 1000s         #等待客户端请求完全被接收和处理的最长时间
    timeout queue 60s #设置删除连接和客户端收到503或服务不可用等提示信息前的等待时间
    timeout connect 120s #设置等待服务器连接成功的时间
    timeout client 600s #设置允许客户端处于非活动状态,即既不发送数据也不接收数据的时间
    timeout server 600s #设置服务器超时时间,即允许服务器处于既不接收也不发送数据的非活动时间
    timeout http-keep-alive 60s #session 会话保持超时时间,此时间段内会转发到相同的后端服务器
    timeout check 10s #指定后端服务器健康检查的超时时间
    maxconn 3000
    default-server inter 1000 weight 3

Proxies配置-frontend

frontend 配置参数:
bind:指定HAProxy的监听地址,可以是IPV4或IPV6,可以同时监听多个IP或端口,可同时用于listen字段中

#格式:
bind [<address>]:<port_range> [, ...] [param*]
#注意:如果需要绑定在非本机的IP,需要开启内核参数:net.ipv4.ip_nonlocal_bind=1

backlog <backlog> #针对所有server配置,当前端服务器的连接数达到上限后的后援队列长度,注意:不支持backend

frontend 配置示例:

[root@webserver2 ~]# vim /etc/haproxy/haproxy.cfg

frontend yxy-webserver-80
bind 172.25.254.100:80
mode http
use_backend yxy-webserver-80-RS     #调用backend的名称

Proxies配置-backend

  • 定义一组后端服务器,backend服务器将被frontend进行调用。
  • 注意: backend 的名称必须唯一,并且必须在listenfrontend中事先定义才可以使用,否则服务无法启动
mode http|tcp      #指定负载协议类型,和对应的frontend必须一致
option             #配置选项
server             #定义后端real server,必须指定IP和端口
        注意:option 后面加 httpchk smtpchk,mysql-check,pgsql-check ssl-hello-chk 方法,可用于实现更多应用层检测功能。
实验:
[root@haproxy ~]# dnf install httpd -y
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
[root@haproxy ~]# systemctl restart haproxy.service
[root@haproxy ~]# echo sorry 下课 >  /var/www/html/index.html

测试:

disabled   ----代表下线了

[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
[root@haproxy ~]# systemctl restart haproxy.service

 

redirect prefix http://www.baidu.com/          ---重定向网页

[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
[root@haproxy ~]# systemctl restart haproxy.service

测试:

server 配置

#针对一个server配置
check               #对指定real进行健康状态检查,如果不加此设置,默认不开启检查,只有check后面没有其它配置也可以启用检查功能
                    #默认对相应的后端服务器IP和端口,利用TCP连接进行周期性健康性检查,注意必须指定端口才能实现健康性检查

addr <IP>           #可指定的健康状态监测IP,可以是专门的数据网段,减少业务网络的流量
port <num>          #指定的健康状态监测端口
inter <num>         #健康状态检查间隔时间,默认2000 ms
fall <num>          #后端服务器从线上转为线下的检查的连续失效次数,默认为3
rise <num>          #后端服务器从下线恢复上线的检查的连续有效次数,默认为2
weight <weight>     #默认为1,最大值为256,0(状态为蓝色)表示不参与负载均衡,但仍接受持久连接
backup              #将后端服务器标记为备份状态,只在所有非备份主机down机时提供服务,类似Sorry Server
disabled            #将后端服务器标记为不可用状态,即维护状态,除了持久模式
                    #将不再接受连接,状态为深黄色,优雅下线,不再接受新用户的请求
redirect prefix http://www.baidu.com/ 
                    #将请求临时(302)重定向至其它URL,只适用于http模式
maxconn <maxconn>   #当前后端server的最大并发连接数

socat 工具

        对服务器动态权重和其它状态可以利用 socat 工具进行调整, Socat Linux 下的一个多功能的网络工 具,名字来由是Socket CAT ,相当于 netCAT 的增强版 .Socat 的主要特点就是在两个数据流之间建立双向通道,且支持众多协议和链接方式。如 IP、 TCP UDP IPv6 Socket 文件等
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
[root@haproxy ~]# systemctl restart haproxy.service

[root@haproxy ~]# yum install socat -y   //下载
//查看haproxy状态
[root@haproxy ~]#  echo "show info" | socat stdio /var/lib/haproxy/stats
Name: HAProxy
Version: 2.4.17-9f97155
Release_date: 2022/05/13
Nbthread: 2
Nbproc: 1
Process_num: 1
Pid: 32787
Uptime: 0d 0h04m34s
Uptime_sec: 274
Memmax_MB: 0
PoolAlloc_MB: 0
PoolUsed_MB: 0
PoolFailed: 0
//查看集群状态
[root@haproxy ~]# echo "show servers state" | socat stdio /var/lib/haproxy/stats
1
# be_id be_name srv_id srv_name srv_addr srv_op_state srv_admin_state srv_uweight srv_iweight srv_time_since_last_change srv_check_status srv_check_result srv_check_health srv_check_state srv_agent_state bk_f_forced_id srv_f_forced_id srv_fqdn srv_port srvrecord srv_use_ssl srv_check_port srv_check_addr srv_agent_addr srv_agent_port
4 static 1 static 127.0.0.1 0 0 1 1 370 8 2 0 6 0 0 0 - 4331 - 0 0 - - 0
5 app 1 app1 127.0.0.1 0 0 1 1 370 8 2 0 6 0 0 0 - 5001 - 0 0 - - 0
5 app 2 app2 127.0.0.1 0 0 1 1 369 8 2 0 6 0 0 0 - 5002 - 0 0 - - 0
5 app 3 app3 127.0.0.1 0 0 1 1 369 8 2 0 6 0 0 0 - 5003 - 0 0 - - 0
5 app 4 app4 127.0.0.1 0 0 1 1 368 8 2 0 6 0 0 0 - 5004 - 0 0 - - 0
//查看集群权重
[root@haproxy ~]# echo get weight webcluster/web1  | socat stdio /var/lib/haproxy/stats
1 (initial 1)

[root@haproxy ~]# echo get weight webcluster/web2  | socat stdio /var/lib/haproxy/stats
1 (initial 1)
//设置权重
[root@haproxy ~]# echo "set weight webcluster/web1  1"  | socat stdio /var/lib/haproxy/stats

[root@haproxy ~]# echo "set weight webcluster/web1  2"  | socat stdio /var/lib/haproxy/stats
//下线后端服务器
[root@haproxy ~]# echo "disable server  webcluster/web1  "  | socat stdio /var/lib/haproxy/stats
//上线后端服务器
[root@haproxy ~]# echo "enable server  webcluster/web1  "  | socat stdio /var/lib/haproxy/stats
针对多进程处理方法
        如果开启多进程那么我们在对进程的sock 文件进行操作时其对进程的操作时随机的
        如果需要指定操作进程那么需要用多soct 文件方式来完成
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
[root@haproxy ~]# systemctl restart haproxy.service 
这样每个进程就会有单独的 sock 文件来进行单独管理

haproxy的算法

  • HAProxy通过固定参数 balance 指明对后端服务器的调度算法
  • balance参数可以配置在listenbackend选项中。
  • HAProxy的调度算法分为静态和动态调度算法
  • 有些算法可以根据参数在静态和动态算法中相互转换。

静态算法

        静态算法:按照事先定义好的规则轮询公平调度,不关心后端服务器的当前负载、连接数和响应速度等,且无法实时修改权重(只能为 0 1, 不支持其它值 ) ,只能靠重启 HAProxy 生效。
static-rr :基于权重的轮询调度
  • 不支持运行时利用socat进行权重的动态调整(只支持01,不支持其它值)
  • 不支持端服务器慢启动
  • 其后端主机数量没有限制,相当于LVS中的 wrr
Note: 慢启动是指在服务器刚刚启动上不会把他所应该承担的访问压力全部给它,而是先给一部分,当没问题后在给一部分。

实验:

[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
[root@haproxy ~]# systemctl restart haproxy.service
[root@haproxy ~]# for i in {1..15}
> do
> curl 172.25.254.100
> done
webserver1 - 172.25.254.10
webserver2 - 172.25.254.20
webserver1 - 172.25.254.10
webserver1 - 172.25.254.10
webserver2 - 172.25.254.20
webserver1 - 172.25.254.10
webserver2 - 172.25.254.20
[root@haproxy ~]# echo "set weight webcluster/web1 1 " | socat stdio  /var/lib/haproxy/stats
Backend is using a static LB algorithm and only accepts weights '0%' and '100%'.
//此算法不能够通过socat实现修改权重,只能实现0或1,即上线或者下线。

first

  • 根据服务器在列表中的位置,自上而下进行调度
  • 其只会当第一台服务器的连接数达到上限,新请求才会分配给下一台服务
  • 其会忽略服务器的权重设置
  • 不支持用socat进行动态修改权重,可以设置01,可以设置其它值但无效
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
[root@haproxy ~]# systemctl restart haproxy.service

 测试:

动态算法

动态算法
  • 基于后端服务器状态进行调度适当调整,
  • 新请求将优先调度至当前负载较低的服务器
  • 权重可以在haproxy运行时动态调整无需重启
roundrobin
  • 基于权重的轮询动态调度算法,
  • 支持权重的运行时调整,不同于lvs中的rr轮训模式,
  • HAProxy中的roundrobin支持慢启动(新加的服务器会逐渐增加转发数)
  • 其每个后端backend中最多支持4095real server
  • 支持对real server权重动态调整,
  • roundrobin为默认调度算法,此算法使用广泛

实验:

[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
listen webcluster
        bind *:80
        mode http
#       balance   first
#       balance   static-rr
        balance   roundrobin
        server web1 172.25.254.10:80 check inter 2 fall 3 rise 2 weight 2
        server web2 172.25.254.20:80 check inter 2 fall 3 rise 2 weight 1
#       server web_yxy 172.25.254.100:8080  backup
#       redirect prefix http://www.baidu.com/
#       use_backend  webcluster-host
#backend  webcluster-host
#       balance roundrobin
#       server web1 172.25.254.10:80 check inter 2 fall 3 rise 2 weight 1
#        server web2 172.25.254.20:80 check inter 2 fall 3 rise 2 weight 1

[root@haproxy ~]# systemctl restart haproxy.service
[root@haproxy ~]# while true;do curl 172.25.254.100 ; sleep 0.1;done
webserver1 - 172.25.254.10
webserver1 - 172.25.254.10
webserver2 - 172.25.254.20
webserver1 - 172.25.254.10
webserver1 - 172.25.254.10
webserver1 - 172.25.254.10
webserver2 - 172.25.254.20

leastconn

  • leastconn加权的最少连接的动态
  • 支持权重的运行时调整和慢启动,即:根据当前连接最少的后端服务器而非权重进行优先调度(新客户 端连接)
  • 比较适合长连接的场景使用,比如:MySQL等场景。

实验:

[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
listen webcluster
        bind *:80
        mode http
#       balance   first
#       balance   static-rr
#       balance   roundrobin
        balance   leastconn
        server web1 172.25.254.10:80 check inter 2 fall 3 rise 5 weight 2
        server web2 172.25.254.20:80 check inter 2 fall 3 rise 5 weight 1
#       server web_yxy 172.25.254.100:8080  backup
#       redirect prefix http://www.baidu.com/
#       use_backend  webcluster-host
#backend  webcluster-host
#       balance roundrobin
#       server web1 172.25.254.10:80 check inter 2 fall 3 rise 2 weight 1
#        server web2 172.25.254.20:80 check inter 2 fall 3 rise 2 weight 1

[root@haproxy ~]# systemctl restart haproxy.service
[root@haproxy ~]# while true;do curl 172.25.254.100 ; sleep 0.1;done
webserver1 - 172.25.254.10
webserver2 - 172.25.254.20
webserver1 - 172.25.254.10
webserver1 - 172.25.254.10
webserver2 - 172.25.254.20
webserver1 - 172.25.254.10
webserver2 - 172.25.254.20

其他算法

其它算法即可作为静态算法,又可以通过选项成为动态算法

source

        源地址hash,基于用户源地址hash并将请求转发到后端服务器,后续同一个源地址请求将被转发至同一 个后端web服务器。此方式当后端服务器数据量发生变化时,会导致很多用户的请求转发至新的后端服 务器,默认为静态方式,但是可以通过hash-type支持的选项更改这个算法一般是在不插入CookieTCP 模式下使用,也可给拒绝会话cookie的客户提供最好的会话粘性,适用于session会话保持但不支持cookie和缓存的场景源地址有两种转发客户端请求到后端服务器的服务器选取计算方式,分别是取模法和一致性hash

实验:

[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
listen webcluster
        bind *:80
        mode http
#       balance   first
#       balance   static-rr
#       balance   roundrobin
        balance   source
        server web1 172.25.254.10:80 check inter 2 fall 3 rise 5 weight 2
        server web2 172.25.254.20:80 check inter 2 fall 3 rise 5 weight 1
#       server web_yxy 172.25.254.100:8080  backup
#       redirect prefix http://www.baidu.com/
#       use_backend  webcluster-host
[root@haproxy ~]# systemctl restart haproxy.service
[root@haproxy ~]# while true;do curl 172.25.254.100 ; sleep 0.1;done
webserver2 - 172.25.254.20
webserver2 - 172.25.254.20
webserver2 - 172.25.254.20
webserver2 - 172.25.254.20
webserver2 - 172.25.254.20
webserver2 - 172.25.254.20
webserver2 - 172.25.254.20
Note : 如果访问客户端时一个家庭,那么所有的家庭的访问流量都会被定向到一台服务器,这时source 算法的缺陷

map-base 取模法

  • map-based:取模法,对source地址进行hash计算,再基于服务器总权重的取模,最终结果决定将此请 求转发至对应的后端服务器。
  • 此方法是静态的,即不支持在线调整权重,不支持慢启动,可实现对后端服务器均衡调度
  • 缺点是当服务器的总权重发生变化时,即有服务器上线或下线,都会因总权重发生变化而导致调度结果整体改变
  • hash-type 指定的默值为此算法
Note:
  • 所谓取模运算,就是计算两个数相除之后的余数,10%7=3, 7%4=3
  • map-based算法:基于权重取模,hash(source_ip)%所有后端服务器相加的总权重

比如当源 hash 值时 1111 1112 1113 ,三台服务器 a b c 的权重均为 1
abc 的调度标签分别会被设定为 0 1 2 1111%3=1 1112%3=2 1113%3=0
1111 ----- > nodeb
1112 ------> nodec
1113 ------> nodea
如果 a 下线后,权重数量发生变化
1111%2=1 1112%2=0 1113%2=1
1112 1113 被调度到的主机都发生变化,这样会导致会话丢失
取模法配置示例(静):
haproxy ~]# vim /etc/haproxy/haproxy.cfg

listen webserver_80
bind 172.25.254.100:80
mode http
balance source
server webserver1 192.168.0.101:80 weight 1 check inter 3s fall 3 rise 5
server webserver2 192.168.0.102:80 weight 1 check inter 3s fall 3 rise 5

#不支持动态调整权重值
[root@haproxy ~]# echo "set weight webserver_80/webserver1 2" | socat stdio
/var/lib/haproxy/haproxy.sock
Backend is using a static LB algorithm and only accepts weights '0%' and '100%'.

#只能动态上线和下线
[root@haproxy ~]# echo "set weight webserver_80/webserver1 0" | socat stdio
/var/lib/haproxy/haproxy.sock
[root@haproxy ~]# echo "get weight webserver_80/webserver1" | socat stdio
/var/lib/haproxy/haproxy.sock
0 (initial 1)

实验:

[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg                                         
listen webcluster
        bind *:80
        mode http
#       balance   first
#       balance   static-rr
#       balance   roundrobin
        balance   source
        hash-type consistent
        server web1 172.25.254.10:80 check inter 2 fall 3 rise 5 weight 2
        server web2 172.25.254.20:80 check inter 2 fall 3 rise 5 weight 1
#       server web_yxy 172.25.254.100:8080  backup
#       redirect prefix http://www.baidu.com/
#       use_backend  webcluster-host
[root@haproxy ~]# systemctl restart haproxy.service 

配置前:

#不支持动态调整权重值
[root@haproxy ~]# echo "set weight webcluster/webserver1 2 " | socat stdio  /var/lib/haproxy/stats
Backend is using a static LB algorithm and only accepts weights '0%' and '100%'.

配置后:

#只能动态上线和下线
[root@haproxy ~]# echo "set weight webcluster/webserver1  0 " | socat stdio  /var/lib/haproxy/stats

[root@haproxy ~]# echo "set weight webcluster/webserver1  " | socat stdio  /var/lib/haproxy/stats
0 (initial 1)

一致性hash(动态算法)

  • 一致性哈希,当服务器的总权重发生变化时,对调度结果影响是局部的,不会引起大的变动hasho) mod n
  • hash算法是动态的,支持使用 socat等工具进行在线权重调整,支持慢启动

算法:

  • 后端服务器哈希环点keyA=hash(后端服务器虚拟ip)%(2^32)
  • 客户机哈希环点key1=hash(client_ip)%(2^32) 得到的值在[0---4294967295]之间,
  • keyAkey1都放在hash环上,将用户请求调度到离key1最近的keyA对应的后端服务器

 hash对象

Hash对象到后端服务器的映射关系:

一致性hash示意图

后端服务器在线与离线的调度方式

        对客户端的ip进行哈希运算,对于运算结果对232取模,对后端real serve也同样做哈希运算对232取模,把哈希取模的结果放在环中,根据距离关系进行调度,调度到取模的结果离的近的进行real server,通过虚拟real server ip增加ip权重,出现更多的取模的结果分布在环中,避免了偏斜(real server调度分配不均)即使后端服务器数改变,影响的也是局部的session绑定结果。

实验:

1.添加hash-type consistent,实现一致性原地址哈希
[root@haproxy:~]#
vim /etc/haproxy/conf.d/test.cfg 

frontend m44_web_80
    bind 10.0.0.100:80
    use_backend m44_webservers1

backend m44_webservers1
    balance source
    hash-type consistent
    server 10.0.0.18 10.0.0.18:80 check
    server 10.0.0.28 10.0.0.28:80 check
    server local 127.0.0.1:80 backup

backend m44_webservers2
    server 10.0.0.28 10.0.0.28:80
[root@haproxy:~]#
systemctl reload haproxy

#测试,支持动态更改权重
[root@haproxy:~]#
echo "set weight m44_webservers1/10.0.0.18 3" | socat stdio /var/lib/haproxy/haproxy.sock

[root@haproxy:~]#
echo "get weight m44_webservers1/10.0.0.18" | socat stdio /var/lib/haproxy/haproxy.sock
3 (initial 1)

uri

  • 基于对用户请求的URI的左半部分或整个uri做hash,再将hash结果对总权重进行取模后
  • 根据最终结果将请求转发到后端指定服务器
  • 适用于后端是缓存服务器场景
  • 默认是静态算法,也可以通过hash-type指定map-based和consistent,来定义使用取模法还是一致性

注意:此算法基于应用层,所以只支持 mode http ,不支持 mode tcp

实验:

haproxy ~]# vim /etc/haproxy/haproxy.cfg
...上面内容省略...
listen webcluster
bind *:80
mode http
balance uri
server webserver1 192.168.0.101:80 weight 1 check inter 3s fall 3 rise 5
server webserver2 192.168.0.102:80 weight 1 check inter 3s fall 3 rise 5
...上面内容省略...

实验:

haproxy ~]# vim /etc/haproxy/haproxy.cfg

listen webserver_80
bind 172.25.254.100:80
mode http
balance hdr(User-Agent)
server webserver1 192.168.0.101:80 weight 1 check inter 3s fall 3 rise 5
server webserver2 192.168.0.102:80 weight 1 check inter 3s fall 3 rise 5

算法总结:

#静态

  • static-rr--------->tcp/http
  • first------------->tcp/http

#动态

  • roundrobin-------->tcp/http
  • leastconn--------->tcp/http

#以下静态和动态取决于hash_type是否consistent

  • source------------>tcp/http
  • Uri--------------->http
  • url_param--------->http
  • hdr--------------->http

利用算法,凡是指定了一次及时多次指定都会一直不变:简单记:专一

高级功能及配置
基于 cookie 的会话保持
        cookie value:为当前 server 指定 cookie 值,实现基于 cookie 的会话黏性,相对于基于 source 地址 hash调度算法对客户端的粒度更精准,但同时也加大了haproxy 负载,目前此模式使用较少, 已经被 session共享服务器代替
Note : 不支持 tcp mode ,使用 http mode
配置选项
cookie name [ rewrite | insert | prefix ][ indirect ] [ nocache ][ postonly ] [
preserve ][ httponly ] [ secure ][ domain ]* [ maxidle <idle> ][ maxlife ]


name:       #cookie 的 key名称,用于实现持久连接
insert:     #插入新的cookie,默认不插入cookie
indirect:   #如果客户端已经有cookie,则不会再发送cookie信息
nocache:    #当client和hapoxy之间有缓存服务器(如:CDN)时,不允许中间缓存器缓存cookie。
             #因为这会导致很多经过同一个CDN的请求都发送到同一台后端服务器
配置示例
haproxy ~]# vim /etc/haproxy/haproxy.cfg

listen webserver_80
bind 172.25.254.100:80
option forwardfor
mode http
balance roundrobin
cookie WEBCOOKIE insert nocache indirect
server webserver1 192.168.0.101:80 cookie web1 weight 1 check inter 3s fall
3 rise 5
server webserver2 192.168.0.102:80 cookie web2 weight 1 check inter 3s fall
3 rise 5
验证 cookie 信息
通过命令行验证
[root@haproxy ~]# curl -i 172.25.254.100
HTTP/1.1 200 OK
server: nginx/1.20.1
date: Sun, 11 Aug 2024 16:34:55 GMT
content-type: text/html
content-length: 27
last-modified: Sun, 11 Aug 2024 12:06:43 GMT
etag: "66b8a953-1b"
accept-ranges: bytes

webserver1 - 172.25.254.10
[root@haproxy ~]# curl -b WEBCOOKIE=web1 172.25.254.100
webserver1 - 172.25.254.10
[root@haproxy ~]# curl -b WEBCOOKIE=web1 172.25.254.100
webserver2 - 172.25.254.20

[root@haproxy ~]# curl -vb WEBCOOKIE=web1 172.25.254.100
*   Trying 172.25.254.100:80...
* Connected to 172.25.254.100 (172.25.254.100) port 80 (#0)
> GET / HTTP/1.1
> Host: 172.25.254.100
> User-Agent: curl/7.76.1
> Accept: */*
> Cookie: WEBCOOKIE=web1
>
* Mark bundle as not supporting multiuse
< HTTP/1.1 200 OK
< server: nginx/1.20.1
< date: Sun, 11 Aug 2024 16:35:54 GMT
< content-type: text/html
< content-length: 27
< last-modified: Sun, 11 Aug 2024 12:10:36 GMT
< etag: "66b8aa3c-1b"
< accept-ranges: bytes
<
webserver2 - 172.25.254.20
* Connection #0 to host 172.25.254.100 left intact

HAProxy状态页

通过web界面,显示当前HAProxy的运行状态:

状态页配置项

stats enable                 #基于默认的参数启用stats page
stats hide-version           #将状态页中haproxy版本隐藏
stats refresh <delay>        #设定自动刷新时间间隔,默认不自动刷新
stats uri <prefix>           #自定义stats page uri,默认值:/haproxy?stats
stats auth <user>:<passwd>   #认证时的账号和密码,可定义多个用户,每行指定一个用户
                             #默认:no authentication
stats admin { if | unless } <cond> #启用stats page中的管理功能

启用状态页

haproxy ~]# vim /etc/haproxy/haproxy.cfg

listen stats:
mode http
bind 0.0.0.0:8888
stats enable
log global
stats uri /status         #自定义stats page uri
stats auth lee:lee        #认证,此行可以出现多次

测试:
浏览器访问:172.25.254.100:8888/status

登录状态页

#pid为当前pid号,process为当前进程号,nbproc和nbthread为一共多少进程和每个进程多少个线程
pid = 27134 (process #1, nbproc = 1, nbthread = 1)

#启动了多长时间
uptime = 0d 0h00m04s

#系统资源限制:内存/最大打开文件数/
system limits: memmax = unlimited; ulimit-n = 200029

#最大socket连接数/单进程最大连接数/最大管道数maxpipes
maxsock = 200029; maxconn = 100000; maxpipes = 0

#当前连接数/当前管道数/当前连接速率
current conns = 2; current pipes = 0/0; conn rate = 2/sec; bit rate = 0.000 kbps

#运行的任务/当前空闲率
Running tasks: 1/14; idle = 100 %
active UP: #在线服务器
backup UP: #标记为backup的服务器
active UP, going down: #监测未通过正在进入down过程
backup UP, going down: #备份服务器正在进入down过程
active DOWN, going up: #down的服务器正在进入up过程
backup DOWN, going up: #备份服务器正在进入up过程
active or backup DOWN: #在线的服务器或者是backup的服务器已经转换成了down状态
not checked: #标记为不监测的服务器

#active或者backup服务器人为下线的
active or backup DOWN for maintenance (MAINT)

#active或者backup被人为软下线(人为将weight改成0)
active or backup SOFT STOPPED for maintenance

backend server信息

  • session rate(每秒的连接会话信息):
  • Errors(错误统计信息)
  • cur:每秒的当前会话数量 :
  • Req:错误请求量
  • max:每秒新的最大会话数量
  • conn:错误链接量
  • limit:每秒新的会话限制量
  • Resp:错误响应量
  • sessions(会话信息):
  • Warnings(警告统计信息)
  • cur:当前会话量
  • Retr:重新尝试次数
  • max:最大会话量
  • Redis:再次发送次数
  • limit: 限制会话量
  • Total:总共会话量
  • Server(real server信息)
  • LBTot:选中一台服务器所用的总时间
  • Status:后端机的状态,包括UPDOWN
  • Last:和服务器的持续连接时间
  • LastChk:持续检查后端服务器的时间
  • Wght:权重
  • Bytes(流量统计)
  • Act:活动链接数量
  • In:网络的字节输入总量
  • Bck:备份的服务器数量
  • Out:网络的字节输出总量
  • Chk:心跳检测时间
  • Dwn:后端服务器连接后都是DOWN的数量
  • Denied(拒绝统计信息)
  • Dwntme:总的downtime时间
  • Req:拒绝请求量
  • Thrtle:server 状态
  • Resp:拒绝回复量
实验:

IP透传

web服务器中需要记录客户端的真实IP地址,用于做访问统计、安全防护、行为分析、区域排行等场景。

四层IP透传

开启四层透传

#nginx 配置:在访问日志中通过变量$proxy_protocol_addr 记录透传过来的客户端IP
[root@rs1 ~]# vim /etc/nginx/nginx.conf
。。。内容省略。。。
http {
log_format main '$remote_addr - $remote_user [$time_local] "$request"'
                ' "$proxy_protocol_addr"'
                '$status $body_bytes_sent "$http_referer" '
                '"$http_user_agent" "$http_x_forwarded_for"';
。。。内容省略。。。
server {
listen 80 proxy_protocol; #启用此项,将无法直接访问此网站,只能通过四层代理
访问
listen [::]:80;
server_name _;
root /usr/share/nginx/html;
。。。内容省略。。。
}
}
#修改haproxy
haproxy ~]# vim /etc/haproxy/haproxy.cfg
...上面内容省略...
listen webserver_80
bind 172.25.254.100:80
mode tcp
balance roundrobin
server webserver1 192.168.0.101:80 send-proxy weight 1 check inter 3s fall 3
rise 5
...上面内容省略...
#查看日志内容
[root@rs1 ~]# tail -n 3 /var/log/nginx/access.log
192.168.0.10 - - [10/Jul/2024:15:21:00 +0800] "GET / HTTP/1.1"200 18 "-"
"curl/7.29.0" "-"
192.168.0.10 - - [10/Jul/2024:15:26:11 +0800] "GET / HTTP/1.1"200 18 "-"
"curl/7.29.0" "-"
192.168.0.10 - - [10/Jul/2024:15:41:56 +0800] "GET / HTTP/1.1" "172.25.254.10"200
18 "-" "curl/7.29.0"
七层 IP 透传

haproxy工作在七层的时候,也可以透传客户端真实IP至后端服务器

HAProxy配置

        在由haproxy 发往后端主机的请求报文中添加 “X-Forwarded-For" 首部,其值为前端客户端的地址;用于向后端主发送真实的客户端IP       
option forwardfor [ except <network> ] [ header <name> ] [ if-none ]
[ except <network> ]:请求报请来自此处指定的网络时不予添加此首部,如haproxy自身所在网络
[ header <name> ]: 使用自定义的首部名称,而非“X-Forwarded-For",示例:X-client
[ if-none ] 如果没有首部才添加首部,如果有使用默认值
示例:
#修改haproxy
haproxy ~]# vim /etc/haproxy/haproxy.cfg
...上面内容省略...
listen webserver_80
option forwardfor
bind 172.25.254.100:80
mode http
balance roundrobin
server webserver1 192.168.0.101:80 send-proxy weight 1 check inter 3s fall 3
rise 5
server webserver1 192.168.0.102:80 weight 1 check inter 3s fall 3 rise 5
...上面内容省略...

ACL

  • 访问控制列表ACLAccess Control Lists
  • 是一种基于包过滤的访问控制技术

它可以根据设定的条件对经过服务器传输的数据包进行过滤(条件匹配)即对接收到的报文进行匹配和过滤,基于请求报文头部中的源地址、源端口、目标地址、目标端口、请求方法、URL、文件后缀等信息内容进行匹配并执行进一步操作,比如允许其通过或丢弃

#示例
frontend test_acl
bind *:80
mode http
#acl bad_browers hdr_beg(User-Agent) -i curl
#http-request deny if bad_browers
#acl test hdr_dom(host) -i www.timinglee.org
#acl test hdr_end(host) -i .org
#acl test base_sub -m sub org
#acl test path_sub -m sub /a
#acl test path_end -m sub /a
#acl test path_reg -i ^/t
acl test url_sub -m sub lee
acl test path_dir -m sub a
use_backend test_web if test
default_backend default_webserver
backend default_webserver
mode http
server web1 172.25.254.20:80 check inter 3 fall 3 rise 5
backend test_web
mode http
server web2 172.25.254.30:80 check inter 3 fall 3 rise 5

ACL配置选项

#用acl来定义或声明一个acl
acl <aclname> <criterion> [flags] [operator] [<value>]
acl 名称 匹配规范 匹配模式 具体操作符 操作对象类型
ACL-Name 名称
acl test path_end -m sub /a
#ACL名称,可以使用大字母A-Z、小写字母a-z、数字0-9、冒号:、点.、中横线和下划线,并且严格区分大
小写,比如:my_acl和My_Acl就是两个完全不同的acl5.8.1.2 ACL-criterion
ACL-criterion 匹配规范
定义 ACL 匹配规范,即:判断条件
hdr string,提取在一个HTTP请求报文的首部
hdr([<name> [,<occ>]]):完全匹配字符串,header的指定信息,<occ> 表示在多值中使用的值的出
现次数
hdr_beg([<name> [,<occ>]]):前缀匹配,header中指定匹配内容的begin
hdr_end([<name> [,<occ>]]):后缀匹配,header中指定匹配内容end
hdr_dom([<name> [,<occ>]]):域匹配,header中的dom(host)
hdr_dir([<name> [,<occ>]]):路径匹配,header的uri路径
hdr_len([<name> [,<occ>]]):长度匹配,header的长度匹配
hdr_reg([<name> [,<occ>]]):正则表达式匹配,自定义表达式(regex)模糊匹配
hdr_sub([<name> [,<occ>]]):子串匹配,header中的uri模糊匹配 模糊匹配c 报文中a/b/c也会匹配

#示例:
hdr(<string>) 用于测试请求头部首部指定内容
hdr_dom(host) 请求的host名称,如 www.timinglee.org
hdr_beg(host) 请求的host开头,如 www. img. video. download. ftp.
hdr_end(host) 请求的host结尾,如 .com .net .cn

#示例:
acl bad_agent hdr_sub(User-Agent) -i curl wget
http-request deny if bad_agent

#有些功能是类似的,比如以下几个都是匹配用户请求报文中host的开头是不是www
acl short_form hdr_beg(host) www.
acl alternate1 hdr_beg(host) -m beg www.
acl alternate2 hdr_dom(host) -m beg www.
acl alternate3 hdr(host) -m beg www.
base : string

#返回第一个主机头和请求的路径部分的连接,该请求从主机名开始,并在问号之前结束,对虚拟主机有用
<scheme>://<user>:<password>@#<host>:<port>/<path>;<params>#?<query>#<frag>
base : exact string match
base_beg : prefix match
base_dir : subdir match
base_dom : domain match
base_end : suffix match
base_len : length match
base_reg : regex match
base_sub : substring match
path : string

#提取请求的URL路径,该路径从第一个斜杠开始,并在问号之前结束(无主机部分)
<scheme>://<user>:<password>@<host>:<port>#/<path>;<params>#?<query>#<frag>
path : exact string match
path_beg : prefix match #请求的URL开头,如/static、/images、/img、/css
path_end : suffix match #请求的URL中资源的结尾,如 .gif .png .css .js .jpg .jpeg
path_dom : domain match
path_dir : subdir match
path_len : length match
path_reg : regex match
path_sub : substring match

#示例:
path_beg -i /haproxy-status/
path_end .jpg .jpeg .png .gif
path_reg ^/images.*\.jpeg$
path_sub image
path_dir jpegs
path_dom timinglee
url : string

#提取请求中的整个URL。
url :exact string match
url_beg : prefix match
url_dir : subdir match
url_dom : domain match
url_end : suffix match
url_len : length match
url_reg : regex match
url_sub : substring match
dst #目标IP
dst_port #目标PORT
src #源IP
src_port #源PORT

#示例:
acl invalid_src src 10.0.0.7 192.168.1.0/24
acl invalid_src src 172.16.0.0/24
acl invalid_port src_port 0:1023
status : integer #返回在响应报文中的状态码

#七层协议
acl valid_method method GET HEAD
http-request deny if ! valid_method
ACL-flags 匹配模式

ACL匹配模式

-i 不区分大小写
-m 使用指定的正则表达式匹配方法
-n 不做DNS解析
-u 禁止acl重名,否则多个同名ACL匹配或关系

实例

以域名做访问控制

配置:

vim /etc/haproxy/haproxy.cfg 

frontend webcluster
    bind *:80
    mode http
    acl domain    hdr dom(host) -i  www.li.com
    use_backend webcluster-host if domain
    default_backend default-host
backend webcluster-host
    mode http
    server webl 172.25.254.10:80 check inter 2 fall 2 rise 5

在本机访问需要做域名解析

测试:

C:\Uses\lenovo>cur1 172.25.254.100
webserver2 172.25.254.20

C:\Users\lenovo>curl www.li.com
web 1 10
vim /etc/haproxy/haproxy.cfg 


frontend webcluster
    bind *:80
    mode http
    acl domain    hdr dom(host)  -i .com  
    use_backend webcluster-host if domain
    default_backend default-host
backend webcluster-host
    mode http
    server webl 172.25.254.10:80 check inter 2 fall 2 rise 5
packend default-host
    mode http
    server web2 172.25.254.20:80 check inter 2 fall 2 rise 5
C:\Uses\lenovo>cur1 172.25.254.100
webserver2 172.25.254.20

C:\Users\lenovo>curl www.li.com
web 1 10

ACL-operator 具体操作符

ACL 操作符

整数比较:eq、ge、gt、le、lt
字符比较:
- exact match (-m str) :字符串必须完全匹配模式
- substring match (-m sub) :在提取的字符串中查找模式,如果其中任何一个被发现,ACL将匹配
- prefix match (-m beg) :在提取的字符串首部中查找模式,如果其中任何一个被发现,ACL将匹配
- suffix match (-m end) :将模式与提取字符串的尾部进行比较,如果其中任何一个匹配,则ACL进行匹配
- subdir match (-m dir) :查看提取出来的用斜线分隔(“/")的字符串,如其中任一个匹配,则ACL进行匹配
- domain match (-m dom) :查找提取 的用点(“.")分隔字符串,如果其中任何一个匹配,则ACL进行匹配

ACL-value 操作对象

value的类型

The ACL engine can match these types against patterns of the following types :
- Boolean #布尔值
- integer or integer range #整数或整数范围,比如用于匹配端口范围
- IP address / network #IP地址或IP范围, 192.168.0.1 ,192.168.0.1/24
- string--> www.timinglee.org
exact #精确比较
substring #子串
suffix #后缀比较
prefix #前缀比较
subdir #路径, /wp-includes/js/jquery/jquery.js
domain #域名,www.timinglee.org
- regular expression #正则表达式
- hex block #16进制

多个ACL的组合调用方式

多个ACL的逻辑处理

多个ACL调用方式

#示例:
if valid_src valid_port             #与关系,ACL中A和B都要满足为true,默认为与
if invalid_src || invalid_port      #或,ACL中A或者B满足一个为true
if ! invalid_src                    #非,取反,不满足ACL才为true

ACL示例-域名匹配

haproxy ~]# vim /etc/haproxy/haproxy.cfg
...上面内容省略...
frontend testacl
bind :80
mode http
########### ACL settings #######################
acl web_host hdr_dom(host) www.timinglee.org
########### host ###########################
use_backend timinglee_host if web_host
########### default server ###################
default_backend default_webserver
backend timinglee_host
mode http
server web1 192.168.0.101:80 check weight 1 inter 3s fall 3 rise 5
server web2 192.168.0.102:80 check weight 1 inter 3s fall 3 rise 5
backend default_webserver
mode http
server web1 172.25.254.10:80 check weight 1 inter 3s fall 3 rise 5
...上面内容省略

测试结果:

#在浏览器所在主机中做地址解析
[root@node10 html]# vim /etc/hosts
172.25.254.100 www.timinglee.org
#测试结果
[root@node10 html]# curl www.timinglee.org
RS1 192.168.0.101
[root@node10 html]# curl www.timinglee.org
RS2 server - 192.168.0.102
[root@node10 html]# curl 172.25.254.100
default web server node10

 实验:

[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
[root@haproxy ~]# systemctl restart haproxy.service

测试:

ACL示例-基于源IP或子网调度访问

将指定的源地址调度至指定的web服务器组

haproxy ~]# vim /etc/haproxy/haproxy.cfg
...上面内容省略..
frontend testacl
bind :80
mode http
########### ACL settings #######################
acl ip_test src 172.25.254.1 192.168.0.0/24
########### host ###########################
use_backend ip_test-host if ip_test
########### default server ###################
default_backend default_webserver
backend ip_test-host
mode http
server web1 192.168.0.101:80 check weight 1 inter 3s fall 3 rise 5
backend default_webserver
mode http
server web1 172.25.254.10:80 check weight 1 inter 3s fall 3 rise 5

测试结果

[172.25.254.10 root@node10 html]# curl 172.25.254.100
default web server node10
[172.25.254.1 Administrator.WIN-20240602BIS] ➤ curl 172.25.254.100
RS1 192.168.0.101
[192.168.0.102 root@rs1 ~]# curl 192.168.0.101
RS1 192.168.0.10

实验:

[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
[root@haproxy ~]# systemctl restart haproxy.service


[root@webserver ~]# curl 172.25.254.100 webserver2 - 172.25.254.20

[root@webserver2 ~]# curl 172.25.254.100 webserver - 172.25.254.10

ACL示例-匹配浏览器类型

[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
[root@haproxy ~]# systemctl restart haproxy.service

ACL示例-基于文件后缀名实现动静分离

         上面的意思是:acl匹配静态的文件,比如图片,html格式文件,haproxy就把请求打到web2,动态的文件,php打到web1

webserver1的配置:

[root@webserver1 ~]# yum install php-fpm
[root@webserver1 ~]# cat /var/www/html/index.php 
<?php
	phpinfo();
?>
[root@webserver1 ~]# systemctl restart httpd

测试:请求被调度到web1

静态文件的请求被调度到web2

ACL-匹配访问路径实现动静分离

haproxy ~]# vim /etc/haproxy/haproxy.cfg
...上面内容省略...
frontend testacl
bind :80
mode http
########### ACL settings #######################
acl url_static path_end -i .jpg .png .css .js .html
acl url_static path_end -m sub /static /images /javascript
acl acl_app path_beg -m sub /api
########### host ###########################
use_backend static_host if url_static
use_backend api_host if acl_app
########### default server ###################
default_backend default_webserver
backend static_host
mode http
server web2 192.168.0.101:80 check weight 1 inter 3s fall 3 rise 5
backend api_host
mode http
server web1 192.168.0.102:80 check weight 1 inter 3s fall 3 rise 5
backend default_webserver
mode http
server web1 172.25.254.10:80 check weight 1 inter 3s fall 3 rise 5


#创建相关文件
[root@rs1 ~]# mkdir /usr/share/nginx/html/static
[root@rs1 ~]# echo static 192.168.0.101 > /usr/share/nginx/html/static/index.html
[root@rs2 ~]# mkdir /var/www/html/api/
[root@rs2 ~]# echo api 192.168.0.102 > /var/www/html/api/index.html

#测试访问
[root@node10 ~]# curl 172.25.254.100/api/
api 192.168.0.102
[root@node10 ~]# curl 172.25.254.100/static/
static 192.168.0.101

自定义HAProxy 错误界面

        对指定的报错进行重定向,进行优雅的显示错误页面

        使用errorfileerrorloc指令的两种方法,可以实现自定义各种错误页面

#haproxy默认使用的错误错误页面
[root@haproxy ~]# rpm -ql haproxy24z-2.4.27-1.el7.zenetys.x86_64 | grep -E http$
/usr/share/haproxy/400.http
/usr/share/haproxy/403.http
/usr/share/haproxy/408.http
/usr/share/haproxy/500.http
/usr/share/haproxy/502.http
/usr/share/haproxy/503.http
/usr/share/haproxy/504.http
#创建一个存放错误页面的目录
[root@haproxy ~]# mkdir /etc/haproxy/error/ -p
[root@haproxy ~]# cp /usr/share/haproxy/503.http /etc/haproxy/error/
[root@haproxy ~]# systemctl restart haproxy.service

加入utf-8后就可以识别中文了。 

编辑proxy的配置文件

测试:(关闭webserver1和webserver2)

[root@webserver1 ~]# systemctl stop httpd.service
[root@webserver2 ~]# systemctl stop nginx.service 

HAProxy 对MYSQL的四层负载

针对除HTTP以外的TCP协议应用服务访问的应用场景

MySQL
Redis
Memcache
RabbitMQ

使用listen实现

[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg 
listen mysql_port
    bind :3306
    mode tcp
    balance leastconn
    server db1 192.168.0.10:3306 check
    server db2 192.168.0.20:3306 check
[root@haproxy ~]# systemctl restart haproxy.service 

为了测试在两台后端服务器安装mysql-server

yum install mysql-server
#为了加以区分两台服务器,设置他们为不同的server-id,一个为1,一个为2
[root@webserver1 ~]# grep server-id /etc/my.cnf.d/mysql-server.cnf 
server-id=1
systemctl restart mysqld.service
#设置好root密码,并把root的host让所有主机都可以连接

haproxy主机设置

安装MySQL的工具
yum install mysql

测试:

HAProxy https 实现

        haproxy可以实现https的证书安全,从用户到haproxy为https,从haproxy到后端服务器用http通信,但基于性能考虑,生产中证书都是在后端服务器比如nginx上实现。

证书制作:

[root@haproxy ~]# mkdir -p /etc/haproxy/certs

[root@haproxy ~]# openssl req -newkey rsa:2048 -nodes -sha256 -keyout /etc/haproxy/certs/timinglee.org.key -x509 -days 365 -out /etc/haproxy/certs/timinglee.org.crt

[root@haproxy ~]# ls /etc/haproxy/certs/ timinglee.org.crt timinglee.org.key

[root@haproxy ~]# cat /etc/haproxy/certs/timinglee.org.key /etc/haproxy/certs/timinglee.org.crt > /etc/haproxy/certs/timinglee.pem 

[root@haproxy ~]# cat /etc/haproxy/certs/timinglee.pem

httpd配置

[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg

[root@haproxy ~]# systemctl restart haproxy.service

 测试:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值