一.负载均衡
1.什么是负载均衡
- 负载均衡(Load Balance)建立在现有网络结构之上,它提供了一种廉价有效透明的方法扩展网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力、提高网络的灵活性和可用性。负载均衡有两方面的含义:首先,大量的并发访问或数据流量分担到多台节点设备上分别处理,减少用户等待响应的时间;其次,单个重负载的运算分担到多台节点设备上做并行处理,每个节点设备处理结束后,将结果汇总,返回给用户,系统处理能力得到大幅度提高。
- 简单来说就是:其一是将大量的并发处理转发给后端多个节点处理,减少工作响应时间;其二是将单个繁重的工作转发给后端多个节点处理,处理完再返回给负载均衡中心,再返回给用户。目前负载均衡技术大多数是用于提高诸如在Web服务器、FTP服务器和其它关键任务服务器上的Internet服务器程序的可用性和可伸缩性。
2. 为什么需要负载均衡
Web服务器的动态水平扩展-->对用户无感知
增加业务并发访问及处理能力-->解决单服务器瓶颈问题
节约公网IP地址-->降低IT支出成本
隐藏内部服务器IP-->提高内部服务器安全性
配置简单-->固定格式的配置文件
功能丰富-->支持四层和七层,支持动态下线主机
性能较强-->并发数万甚至数十万
我们在日常生活中经常免不了要去一些比较拥挤的地方,比如地铁站、火车站、电影院、银行等。无论是买票,还是排队入场,这些场所一般都会设置多个服务点或者入口的。如果没有人引导的话,大多数情况下,最近的入口会挤满人。而哪些距离较远的服务点或者入口就宽松很多。
这种情况下,就会大大浪费资源,因为如果可以把这些排队的人很好的分散到各个入口的话会大大缩短排队时间。其实,网站的建设也是一样的。为了提升网站的服务能力,很多网站采用集群部署,就像话剧院有多个入口一样。这时候,就需要一个协调者,来均衡的分配这些用户的请求,可以让用户的可以均匀的分派到不同的服务器上。
在早高峰乘地铁时候,紧挨小区的地铁口人特别多,一般会有限流,还会有个地铁工作人员D那个大喇叭在喊“着急的人员请走B口,B口人少车空”。。。
而这个地铁工作人员D就是负责负载均衡的。为了提升网站的各方面能力,我们一般会把多台机器组成一个集群对外提供服务。然而,我们的网站对外提供的访问入口都是一个的,比如www.taobao.com。那么当用户在浏览器输入www.taobao.com的时候如何将用户的请求分发到集群中不同的机器上呢,这就是负载均衡在做的事情。
负载均衡(Load Balance),意思是将负载(工作任务,访问请求)进行平衡、分摊到多个操作单元(服务器,组件)上进行执行。是解决高性能,单点故障(高可用),扩展性(水平伸缩)的终极解决方案。
3.负载均衡的分类
计算机网络有关的概念:
- TELNET、HTTP、FTP、NFS、SMTP、DNS等属于第七层应用层的概念。
- TCP、UDP、SPX等属于第四层传输层的概念。
- IP、IPX等属于第三层网络层的概念。
- ATM、FDDI等属于第二层数据链路层的概念。
了解了网络协议的七层模型以后,再来看看负载均衡。我们可以很明确的一点是,负载均衡是要在网络传输中做文章的。而要在网络传输过程搞事情,那么这七层模型就势必躲不开。
所以,根据负载均衡技术实现在OSI七层模型的不同层次,是可以给负载均衡分类的。
常见的实现方式中,主要可以在应用层、传输层、网络层和数据传输层做文章。所以,工作在应用层的负载均衡,我们通常称之为七层负载均衡、工作在传输层的我们称之为四层负载均衡。
大致可以分为以下几种,其中最常用的是四层和七层负载均衡:
二层负载均衡
负载均衡服务器对外依然提供一个VIP(虚IP),集群中不同的机器采用相同IP地址,但是机器的MAC地址不一样。当负载均衡服务器接受到请求之后,通过改写报文的目标MAC地址的方式将请求转发到目标机器实现负载均衡。
三层负载均衡
和二层负载均衡类似,负载均衡服务器对外依然提供一个VIP(虚IP),但是集群中不同的机器采用不同的IP地址。当负载均衡服务器接受到请求之后,根据不同的负载均衡算法,通过IP将请求转发至不同的真实服务器。
四层负载均衡
四层负载均衡工作在OSI模型的传输层,由于在传输层,只有TCP/UDP协议,这两种协议中除了包含源IP、目标IP以外,还包含源端口号及目的端口号。四层负载均衡服务器在接受到客户端请求后,以后通过修改数据包的地址信息(IP+端口号)将流量转发到应用服务器。
七层负载均衡
七层负载均衡工作在OSI模型的应用层,应用层协议较多,常用http、radius、dns等。七层负载就可以基于这些协议来负载。这些应用层协议中会包含很多有意义的内容。比如同一个Web服务器的负载均衡,除了根据IP加端口进行负载外,还可根据七层的URL、浏览器类别、语言来决定是否要进行负载均衡。
我们运维中最常见的四层和七层负载均衡,这里重点说下这两种负载均衡。
1)四层的负载均衡就是基于IP+端口的负载均衡:
在三层负载均衡的基础上,通过发布三层的IP地址(VIP),然后加四层的端口号,来决定哪些流量需要做负载均衡,对需要处理的流量进行NAT处理,转发至后台服务器,并记录下这个TCP或者UDP的流量是由哪台服务器处理的,后续这个连接的所有流量都同样转发到同一台服务器处理。
对应的负载均衡器称为四层交换机(L4 switch),主要分析IP层及TCP/UDP层,实现四层负载均衡。此种负载均衡器不理解应用协议(如HTTP/FTP/MySQL等等)。实现四层负载均衡的软件有:
F5:硬件负载均衡器,功能很好,但是成本很高。
lvs:重量级的四层负载软件
nginx:轻量级的四层负载软件,带缓存功能,正则表达式较灵活
haproxy:模拟四层转发,较灵活
2)七层的负载均衡就是基于虚拟的URL或主机IP的负载均衡:
在四层负载均衡的基础上(没有四层是绝对不可能有七层的),再考虑应用层的特征,比如同一个Web服务器的负载均衡,除了根据VIP加80端口辨别是否需要处理的流量,还可根据七层的URL、浏览器类别、语言来决定是否要进行负载均衡。举个例子,如果你的Web服务器分成两组,一组是中文语言的,一组是英文语言的,那么七层负载均衡就可以当用户来访问你的域名时,自动辨别用户语言,然后选择对应的语言服务器组进行负载均衡处理。
对应的负载均衡器称为七层交换机(L7 switch),除了支持四层负载均衡以外,还有分析应用层的信息,如HTTP协议URI或Cookie信息,实现七层负载均衡。此种负载均衡器能理解应用协议。
实现七层负载均衡的软件有:
haproxy:天生负载均衡技能,全面支持七层代理,会话保持,标记,路径转移;
nginx:只在http协议和mail协议上功能比较好,性能与haproxy差不多;
apache:功能较差
Mysql proxy:功能尚可。总的来说,一般是lvs做4层负载;nginx做7层负载(也能做4层负载, 通过stream模块);haproxy比较灵活,4层和7层负载均衡都能做
四层和七层负载均衡之间的区别
七层负载均衡基本都是基于http协议的,适用于web服务器的负载均衡。(nginx)
四层负载均衡主要是基于tcp协议报文,可以做任何基于tcp/ip协议的软件的负载均衡。(haproxy、LVS)
两者主要区别在于利用的报文所在的层面是不同的,各有各的好处。
- 七层应用负载的好处,是使得整个网络更”智能化“。例如访问一个网站的用户流量,可以通过七层的方式,将对图片类的请求转发到特定的图片服务器并可以使用缓存技术;将对文字类的请求可以转发到特定的文字服务器并可以使用压缩技术。当然这只是七层应用的一个小案例,从技术原理上,这种方式可以对客户端的请求和服务器的响应进行任意意义上的修改,极大的提升了应用系统在网络层的灵活性。很多在后台,例如Nginx或者Apache上部署的功能可以前移到负载均衡设备上,例如客户请求中的Header重写,服务器响应中的关键字过滤或者内容插入等功能。
- 四层负载均衡主要是较为灵活,可以作为多种软件的负载均衡器。
举个例子形象的说明:四层负载均衡就像银行的自助排号机,每一个达到银行的客户根据排号机的顺序,选择对应的窗口接受服务;而七层负载均衡像银行大堂经理,先确认客户需要办理的业务,再安排排号。这样办理理财、存取款等业务的客户,会根据银行内部资源得到统一协调处理,加快客户业务办理流程。
七层负载均衡的好处
七层负载均衡比基于数据包的四层负载均衡更占CPU,但很少会导致服务器性能下降。七层负载均衡可以让负载均衡器做出更明智的决策,并可以对内容进行优化和更改,如压缩、加密等等。七层负载均衡还可以利用buffering来卸载上游服务器的慢速连接,从而提高性能。
执行七层负载平衡的组件通常被称为反向代理服务器。
总体对比
智能性
七层负载均衡由于具备OIS七层的所有功能,所以在处理用户需求上能更加灵活,从理论上讲,七层模型能对用户的所有跟服务端的请求进行修改。例如对文件header添加信息,根据不同的文件类型进行分类转发。四层模型仅支持基于网络层的需求转发,不能修改用户请求的内容。安全性
七层负载均衡由于具有OSI模型的全部功能,能更容易抵御来自网络的攻击;四层模型从原理上讲,会直接将用户的请求转发给后端节点,无法直接抵御网络攻击。复杂度
四层模型一般比较简单的架构,容易管理,容易定位问题;七层模型架构比较复杂,通常也需要考虑结合四层模型的混用情况,出现问题定位比较复杂。效率比
四层模型基于更底层的设置,通常效率更高,但应用范围有限;七层模型需要更多的资源损耗,在理论上讲比四层模型有更强的功能,现在的实现更多是基于http应用。
二.haproxy
1.介绍
HAProxy: 是法国人Willy Tarreau开发的一个开源软件,是一款应对客户端10000以上的同时连接的高性能的TCP和 HTTP负载均衡器。
其功能是用来提供基于cookie的持久性, 基于内容的交换,过载保护的高级流量管制,自动故障切换 ,以正则表达式为基础的标题控制运行时间,基于Web的报表,高级日志记录以帮助排除故障的应用或网络及其他功能。
2.相关概念
代理的作用
- 正向代理,反向代理
- 代理服务器,可以提供缓存功能加速客户端访问,同时可以对缓存数据进行有效性检查
- 内容路由:根据流量以及内容类型将请求转发至特定的服务器
- 转码器:支持压缩功能,将数据以压缩形式发送给客户端
缓存的作用
- 减少访冗余内容传输
- 节省带宽,缓解网络瓶颈
- 降低了对原始服务器的请求压力
- 降低了传输延迟
HAProxy功能
HAProxy是TCP / HTTP反向代理服务器,尤其适合于高可用性环境
可以针对HTTP请求添加cookie,进行路由后端服务器
可平衡负载至后端服务器,并支持持久连接
支持基于cookie进行调度
支持所有主服务器故障切换至备用服务器
支持专用端口实现监控服务
支持不影响现有连接情况下停止接受新连接请求
可以在双向添加,修改或删除HTTP报文首部
支持基于pattern实现连接请求的访问控制
通过特定的URI为授权用户提供详细的状态信息
3.haproxy-实验环境及部署
环境搭建
主机名 | 角色 | IP |
haproxy | 负载均衡器 | 192.168.10.150/24 |
webserver1 | 真实主机1 | 192.168.10.200/24 |
webserver2 | 真实主机2 | 192.168.10.210/24 |
webserver1,webserver2
在webserver1,webserver2安装web服务,并在共享目录上写入
[root@webserver1 ~]# yum install nginx -y
[root@webserver1 ~]# echo webserver1 - 192.168.10.200 > /usr/share/nginx/html/index.html
[root@webserver1 ~]# systemctl restart nginx.service
[root@webserver1 ~]# curl 192.168.10.200
webserver1 - 192.168.10.200
[root@webserver2 ~]# yum install nginx -y
[root@webserver2 ~]# echo webserver2 - 192.168.10.210 > /usr/share/nginx/html/index.html
[root@webserver2 ~]# systemctl restart nginx.service
[root@webserver2 ~]# curl 192.168.10.210
webserver2 - 192.168.10.210
在haproxy上测试;安装harproxy软件包
[root@haproxy ~]# curl 192.168.10.200 ; curl 192.168.10.210
webserver1 - 192.168.10.200
webserver2 - 192.168.10.210
[root@haproxy ~]# yum install haproxy -y
4.haproxy的基本配置信息
官方文档:http://cbonte.github.io/haproxy-dconv/
HAProxy 的配置文件haproxy.cfg由两大部分组成,分别是:
global:全局配置段
进程及安全配置相关的参数
性能调整相关参数
Debug参数
proxies:代理配置段
defaults:为frontend, backend, listen提供默认配置
frontend:前端,相当于nginx中的server {}
backend:后端,相当于nginx中的upstream {}
listen:同时拥有前端和后端配置,配置简单,生产推荐使用
[root@haproxy ~]# rpm -qc haproxy # 查找与haproxy相关的文件
/etc/haproxy/haproxy.cfg # 配置文件
/etc/logrotate.d/haproxy # 日志
/etc/sysconfig/haproxy # 对软件整体的功能属性
在配置文件中进行配置
[root@haproxy ~]# cat /etc/haproxy/haproxy.cfg
#---------------------------------------------------------------------
# main frontend which proxys to the backends
#---------------------------------------------------------------------
frontend webcluster
bind *:80 # 监听80端口 * 表示所有
mode http # 7层为http 四层为tcp
use_backend webcluster-host # 使用那个后端
backend webcluster-host
balance roundrobin # 调度规则,算法
server web1 192.168.10.200:80 #后端配置web的ip主机
server web2 192.168.10.210:80 # 也可以写域名,但是该主机得有解析
# 在frontend 下添加
[root@haproxy ~]# systemctl restart haproxy.service 重启服务
# 另一种写法:
listen webcluser
bind *:80 # 监听80端口
mode http
balance roundrobin # 调度规则,算法
server web1 192.168.10.200:80 #后端配置web的ip主机
server web2 192.168.10.210:80
随便找一个在同一网段下的设备测试
[root@rhel9-src ~]# curl 192.168.10.150
webserver2 - 192.168.10.210
[root@rhel9-src ~]# curl 192.168.10.150
webserver1 - 192.168.10.200
检测后端检测
关闭一个webserver上的web服务,再检测,默认应该将所有流量打到另一个webserver上
[root@webserver1 ~]# systemctl stop nginx.service
[root@rhel9-src ~]# curl 192.168.10.150
webserver2 - 192.168.10.210
[root@rhel9-src ~]# curl 192.168.10.150
webserver2 - 192.168.10.210
# 正常
global配置
global 配置参数说明
[root@haproxy haproxy]# vim haproxy.cfg
global
# to have these messages end up in /var/log/haproxy.log you will
# need to:
#
# 1) configure syslog to accept network log events. This is done
# by adding the '-r' option to the SYSLOGD_OPTIONS in
# /etc/sysconfig/syslog
#
# 2) configure local2 events to go to the /var/log/haproxy.log
# file. A line like the following can be added to
# /etc/sysconfig/syslog
#
# local2.* /var/log/haproxy.log
#
log 127.0.0.1 local2 # 设置日志级别为2,并且日志设置在本机
chroot /var/lib/haproxy # 设置haproxy的运行目录
pidfile /var/run/haproxy.pid # 设置它的pid文件
maxconn 4000 # 最大链接数
user haproxy # 用户
group haproxy # 组
daemon # 在后台运行
# turn on stats unix socket # 状态接口
stats socket /var/lib/haproxy/stats
# utilize system-wide crypto-policies # 支持加密认证
ssl-default-bind-ciphers PROFILE=SYSTEM
ssl-default-server-ciphers PROFILE=SYSTEM
设置多线程和线程
[root@haproxy ~]# pstree -p | grep haproxy
|-haproxy(4094)---haproxy(4102)---{haproxy}(4103)
# 默认只有一个线程
[root@haproxy haproxy]# vim haproxy.cfg
global
# to have these messages end up in /var/log/haproxy.log you will
# need to:
#
# 1) configure syslog to accept network log events. This is done
# by adding the '-r' option to the SYSLOGD_OPTIONS in
# /etc/sysconfig/syslog
#
# 2) configure local2 events to go to the /var/log/haproxy.log
# file. A line like the following can be added to
# /etc/sysconfig/syslog
#
# local2.* /var/log/haproxy.log
#
log 127.0.0.1 local2 # 设置日志级别为2,并且日志设置在本机
chroot /var/lib/haproxy # 设置haproxy的运行目录
pidfile /var/run/haproxy.pid # 设置它的pid文件
maxconn 4000 # 最大链接数
user haproxy # 用户
group haproxy # 组
daemon # 在后台运行
# turn on stats unix socket # 状态接口
stats socket /var/lib/haproxy/stats
# utilize system-wide crypto-policies # 支持加密认证
ssl-default-bind-ciphers PROFILE=SYSTEM
ssl-default-server-ciphers PROFILE=SYSTEM
nbproc 2
cpu-map 1 0 # 第一个线程用的第一个核心
cpu-map 2 1 # 第二个线程用的第二个核心
# 在最下面加一行
查看多进程信息
[root@haproxy ~]# systemctl restart haproxy.service
[root@haproxy ~]# pstree -p | grep haproxy
|-haproxy(4150)-+-haproxy(4152)
| `-haproxy(4153)
启用多线程
haproxy ~]# vim /etc/haproxy/haproxy.cfg
...上面内容省略...
log 127.0.0.1 local2
chroot /var/lib/haproxy
pidfile /var/run/haproxy.pid
maxconn 100000
user haproxy
group haproxy
daemon
# turn on stats unix socket
stats socket /var/lib/haproxy/haproxy.sock1 mode 600 level admin process 1 #
启用多个sock文件
stats socket /var/lib/haproxy/haproxy.sock2 mode 600 level admin process 2
#nbproc 2
#cpu-map 1 0
#cpu-map 2 1
nbthread 2 #启用多线程
未开启多线程
haproxy ~]# cat /proc/xxxx(haproxy子进程id)/status
...上面内容省略...
Threads: 1
...下面内容省略...
开启后
haproxy ~]# cat /proc/xxxx(haproxy子进程id)/status
...上面内容省略...
Threads: 2
...下面内容省略...
[root@haproxy ~]# cat /proc/4165/status | grep -i thread
Threads: 1
Speculation_Store_Bypass: thread vulnerable
[root@haproxy ~]# pstree -p | grep haproxy
|-haproxy(4274)---haproxy(4277)---{haproxy}(4278)
[root@haproxy ~]# cat /proc/4278/status | grep -i thread
Threads: 2
Speculation_Store_Bypass: thread vulnerable
proxies配置
proxies参数说明
defaults
mode http # http 七层
log global # 延用上面的设定
option httplog # http 的日志
option dontlognull # 空连接的日志
option http-server-close
option forwardfor except 127.0.0.0/8
option redispatch
retries 3
timeout http-request 10s
timeout queue 1m
timeout connect 10s
timeout client 1m
timeout server 1m
timeout http-keep-alive 10s
timeout check 10s
maxconn 3000
Proxies配置-defaults
Proxies配置-frontend
bind:指定HAProxy的监听地址,可以是IPV4或IPV6,可以同时监听多个IP或端口,可同时用于listen字
段中
#格式:
bind [<address>]:<port_range> [, ...] [param*]
#注意:如果需要绑定在非本机的IP,需要开启内核参数:net.ipv4.ip_nonlocal_bind=1
backlog <backlog> #针对所有server配置,当前端服务器的连接数达到上限后的后援队列长度,注意:不
支持backend
frontend 配置示例
haproxy ~]# vim /etc/haproxy/haproxy.cfg
...上面内容省略...
frontend webserver-80
bind 192.168.10.150:80
mode http
use_backend lee-webserver-80-RS #调用backend的名称
...下面内容省略...
Proxies配置-backend
定义一组后端服务器,backend服务器将被frontend进行调用。
注意: backend 的名称必须唯一,并且必须在listen或frontend中事先定义才可以使用,否则服务无法 启动
mode http|tcp #指定负载协议类型,和对应的frontend必须一致
option #配置选项
server #定义后端real server,必须指定IP和端口
注意:option后面加 httpchk,smtpchk,mysql-check,pgsql-check,ssl-hello-chk方法,可用于实现更 多应用层检测功能。
server 配置
#针对一个server配置
check #对指定real进行健康状态检查,如果不加此设置,默认不开启检查,只有check后面没
有其它配置也可以启用检查功能
#默认对相应的后端服务器IP和端口,利用TCP连接进行周期性健康性检查,注意必须指定
端口才能实现健康性检查
addr <IP> #可指定的健康状态监测IP,可以是专门的数据网段,减少业务网络的流量
port <num> #指定的健康状态监测端口
inter <num> #健康状态检查间隔时间,默认2000 ms
fall <num> #后端服务器从线上转为线下的检查的连续失效次数,默认为3
rise <num> #后端服务器从下线恢复上线的检查的连续有效次数,默认为2
weight <weight> #默认为1,最大值为256,0(状态为蓝色)表示不参与负载均衡,但仍接受持久连接
backup #将后端服务器标记为备份状态,只在所有非备份主机down机时提供服务,类似Sorry
Server
disabled #将后端服务器标记为不可用状态,即维护状态,除了持久模式
#将不再接受连接,状态为深黄色,优雅下线,不再接受新用户的请求
redirect prefix http://www.baidu.com/ #将请求临时(302)重定向至其它URL,只适用于http模
式
maxconn <maxconn> #当前后端server的最大并发连接数
健康检测实验配置
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
#---------------------------------------------------------------------
# main frontend which proxys to the backends
#---------------------------------------------------------------------
frontend webcluster
bind *:80
mode http
use_backend webcluster-host
backend webcluster-host
balance roundrobin
server web1 192.168.10.200:80 check inter 2 fall 3 rise 5 weight 2
server web2 192.168.10.210:80 check inter 2 fall 3 rise 5 weight 1
[root@haproxy ~]# systemctl restart haproxy.service
测试
[root@rhel9-src ~]# for i in {1..10}
> do
> curl 192.168.10.150
> done
webserver1 - 192.168.10.200
webserver1 - 192.168.10.200
webserver2 - 192.168.10.210
webserver1 - 192.168.10.200
webserver1 - 192.168.10.200
webserver2 - 192.168.10.210
webserver1 - 192.168.10.200
webserver1 - 192.168.10.200
webserver2 - 192.168.10.210
webserver1 - 192.168.10.200
sorry-server实验配置
当两台webserver全部down掉.
我们可以将以上的界面内容更换
[root@haproxy ~]# yum install httpd -y
# 可以在haproxy上安装apache ,也可以再开一台主机
# 因为80端口被占用,我们可以将apache的默认端口改为8080
[root@haproxy ~]# grep ^Listen /etc/httpd/conf/httpd.conf
Listen 8080
[root@haproxy ~]# echo sorry > /var/www/html/index.html
[root@haproxy ~]# systemctl restart httpd.service
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
#---------------------------------------------------------------------
# main frontend which proxys to the backends
#---------------------------------------------------------------------
frontend webcluster
bind *:80
mode http
use_backend webcluster-host
backend webcluster-host
balance roundrobin
server web1 192.168.10.200:80 check inter 2 fall 3 rise 5 weight 2
server web2 192.168.10.210:80 check inter 2 fall 3 rise 5 weight 1
server sorry 192.168.10.150:8080 backup
当两台webserver全部挂掉,就会执行我们第三个策略,只要webserver好了任意一台,都不回再显示sorry
socat 工具
对服务器动态权重和其它状态可以利用 socat工具进行调整,Socat 是 Linux 下的一个多功能的网络工具,名字来由是Socket CAT,相当于netCAT的增强版.Socat 的主要特点就是在两个数据流之间建立双向 通道,且支持众多协议和链接方式。如 IP、TCP、 UDP、IPv6、Socket文件等
利用工具socat 对服务器动态权重调整
#修改配置文件
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
stats socket /var/lib/haproxy/stats mode 600 level admin
# 权限为600 admin 相当于管理员用户
#查看帮助
haproxy ~]# socat -h
haproxy ~]# echo "help" | socat stdio /var/lib/haproxy/stats
The following commands are valid at this level:
help : this message
prompt : toggle interactive mode with prompt
quit : disconnect
。。。省略 。。。
enable server : enable a disabled server (use 'set server' instead) #启用服务器
set maxconn server : change a server's maxconn setting
set server : change a server's state, weight or address #设置服务器
get weight : report a server's current weight #查看权重
set weight : change a server's weight (deprecated) #设置权重
show startup-logs : report logs emitted during HAProxy startup
how peers [peers section]: dump some information about all the peers or this
peers section
set maxconn global : change the per-process maxconn setting
set rate-limit : change a rate limiting value
set severity-output [none|number|string] : set presence of severity level in
feedback information
set timeout : change a timeout setting
show env [var] : dump environment variables known to the process
show cli sockets : dump list of cli sockets
show cli level : display the level of the current CLI session
show fd [num] : dump list of file descriptors in use
。。。省略 。。。
安装socat工具
root@haproxy ~]# yum install socat -y
作用:动态调整haproxy的参数
常用示例
[root@haproxy ~]# echo "show info" | socat stdio /var/lib/haproxy/stats
Name: HAProxy
Version: 2.4.17-9f97155
Release_date: 2022/05/13
Nbthread: 2
Nbproc: 1
Process_num: 1
Pid: 5286
Uptime: 0d 0h07m01s
Uptime_sec: 421
Memmax_MB: 0
PoolAlloc_MB: 0
PoolUsed_MB: 0
PoolFailed: 0
Ulimit-n: 8037
Maxsock: 8037
Maxconn: 4000
Hard_maxconn: 4000
CurrConns: 0
CumConns: 237297
CumReq: 1
MaxSslConns: 0
CurrSslConns: 0
CumSslConns: 0
Maxpipes: 0
PipesUsed: 0
PipesFree: 0
ConnRate: 0
ConnRateLimit: 0
MaxConnRate: 0
SessRate: 0
SessRateLimit: 0
MaxSessRate: 0
SslRate: 0
SslRateLimit: 0
MaxSslRate: 0
SslFrontendKeyRate: 0
SslFrontendMaxKeyRate: 0
SslFrontendSessionReuse_pct: 0
SslBackendKeyRate: 0
SslBackendMaxKeyRate: 0
SslCacheLookups: 0
SslCacheMisses: 0
CompressBpsIn: 0
CompressBpsOut: 0
CompressBpsRateLim: 0
Tasks: 21
Run_queue: 0
Idle_pct: 98
node: haproxy
Stopping: 0
Jobs: 7
Unstoppable Jobs: 1
Listeners: 4
ActivePeers: 0
ConnectedPeers: 0
DroppedLogs: 0
BusyPolling: 0
FailedResolutions: 0
TotalBytesOut: 0
TotalSplicdedBytesOut: 0
BytesOutRate: 0
DebugCommandsIssued: 0
CumRecvLogs: 0
Build info: 2.4.17-9f97155
Memmax_bytes: 0
PoolAlloc_bytes: 75520
PoolUsed_bytes: 75520
Start_time_sec: 1723366932
Tainted: 0
查看集群状态
[root@haproxy ~]# echo "show servers state" | socat stdio /var/lib/haproxy/stats
1
# be_id be_name srv_id srv_name srv_addr srv_op_state srv_admin_state srv_uweight srv_iweight srv_time_since_last_change srv_check_status srv_check_result srv_check_health srv_check_state srv_agent_state bk_f_forced_id srv_f_forced_id srv_fqdn srv_port srvrecord srv_use_ssl srv_check_port srv_check_addr srv_agent_addr srv_agent_port
3 webcluster-host 1 web1 192.168.10.200 2 0 2 2 751 6 0 7 7 0 0 0 - 80 - 0 0 - - 0
3 webcluster-host 2 web2 192.168.10.210 2 0 1 1 751 6 0 7 7 0 0 0 - 80 - 0 0 - - 0
3 webcluster-host 3 sorry 192.168.10.150 2 0 1 1 751 1 0 2 0 0 0 0 - 8080 - 0 0 - - 0
5 static 1 static 127.0.0.1 0 0 1 1 751 8 2 0 6 0 0 0 - 4331 - 0 0 - - 0
6 app 1 app1 127.0.0.1 0 0 1 1 750 8 2 0 6 0 0 0 - 5001 - 0 0 - - 0
6 app 2 app2 127.0.0.1 0 0 1 1 750 8 2 0 6 0 0 0 - 5002 - 0 0 - - 0
6 app 3 app3 127.0.0.1 0 0 1 1 750 8 2 0 6 0 0 0 - 5003 - 0 0 - - 0
6 app 4 app4 127.0.0.1 0 0 1 1 750 8 2 0 6 0 0 0 - 5004 - 0 0 - - 0
查看当前权重
[root@haproxy ~]# echo get weight webcluster-host/web1 | socat stdio /var/lib/haproxy/stats
更改当前权重为1
[root@haproxy ~]# echo "set weight webcluster-host/web1 1 " | socat stdio /var/lib/haproxy/stats
下线后端服务器
[root@haproxy ~]# echo "disable server webcluster-host/web1" | socat stdio /var/lib/haproxy/stats
上线后端服务器
[root@haproxy ~]# echo "enable server webcluster-host/web1" | socat stdio /var/lib/haproxy/stats
针对多进程处理方法
如果开启多进程那么我们在对进程的sock文件进行操作时其对进程的操作时随机的 如果需要指定操作进程那么需要用多soct文件方式来完成
haproxy ~]# vim /etc/haproxy/haproxy.cfg
...上面内容省略...
stats socket /var/lib/haproxy/stats1 mode 600 level admin process 1
stats socket /var/lib/haproxy/stats2 mode 600 level admin process 2
nbproc 2
cpu-map 1 0
cpu-map 2 1
...上面内容省略...
这样每个进程就会有单独的sock文件来进行单独管理
[root@haproxy ~]# ll /var/lib/haproxy/
总用量 0
srw------- 1 root root 0 8月 8 13:43 stats
srw------- 1 root root 0 8月 8 13:46 stats1
srw------- 1 root root 0 8月 8 13:46 stats2
5.haproxy的算法
HAProxy通过固定参数 balance指明对后端服务器的调度算法balance参数可以配置在listen或backend选项中。
HAProxy的调度算法分为静态和动态调度算法,有些算法可以根据参数在静态和动态算法中相互转换。
静态算法
静态算法按照事先定义好的规则轮询公平调度,不关心后端服务器的当前负载、链接数和相应速度等,且无法实时修改权重,只能靠重启HAProxy生效。
static-rr(静态权重轮询)
static-rr:基于权重的轮询调度,不支持权重的运行时调整及后端服务器慢启动,其后端主机数量没有限制。
配置举例
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
........................省略
#---------------------------------------------------------------------
# main frontend which proxys to the backends
#---------------------------------------------------------------------
frontend webcluster
bind *:80
mode http
use_backend webcluster-host
backend webcluster-host
balance static-rr
server web1 192.168.10.200:80 check inter 2 fall 3 rise 5 weight 2
server web2 192.168.10.210:80 check inter 2 fall 3 rise 5 weight 1
server sorry 192.168.10.150:8080 backup
........................
first(按后端服务器连接数达到最大上限后,逐个顺序调度)
根据服务器在列表中的位置,自上而下进行调度
其只会当第一台服务器的连接数达到上限,新请求才会分配给下一台服务
其会忽略服务器的权重设置
不支持用socat进行动态修改权重,可以设置0和1,可以设置其它值但无效
配置举例
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
........................省略
#---------------------------------------------------------------------
# main frontend which proxys to the backends
#---------------------------------------------------------------------
frontend webcluster
bind *:80
mode http
use_backend webcluster-host
backend webcluster-host
balance first
server web1 192.168.10.200:80 check inter 2 fall 3 rise 5 weight 2
server web2 192.168.10.210:80 check inter 2 fall 3 rise 5 weight 1
server sorry 192.168.10.150:8080 backup
........................
动态算法
动态算法
- 基于后端服务器状态进行调度适当调整,
- 新请求将优先调度至当前负载较低的服务器,
- 权重可以在haproxy运行时动态调整无需重启
roundrobin(动态权重轮询)
1. 基于权重的轮询动态调度算法,
2. 支持权重的运行时调整,不同于lvs中的rr轮训模式,
3. HAProxy中的roundrobin支持慢启动(新加的服务器会逐渐增加转发数),
4. 其每个后端backend中最多支持4095个real server,
5. 支持对real server权重动态调整,
6. roundrobin为默认调度算法,此算法使用广泛
配置举例
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
........................省略
#---------------------------------------------------------------------
# main frontend which proxys to the backends
#---------------------------------------------------------------------
frontend webcluster
bind *:80
mode http
use_backend webcluster-host
backend webcluster-host
balance roundrobin
server web1 192.168.10.200:80 check inter 2 fall 3 rise 5 weight 2
server web2 192.168.10.210:80 check inter 2 fall 3 rise 5 weight 1
server sorry 192.168.10.150:8080 backup
........................
动态调整权重
[root@haproxy ~]# echo "set weight webserver_80/webserver1 2" | socat stdio
/var/lib/haproxy/haproxy.sock
leastconn(动态加权的最少连接数)
支持权重的运行时调整和慢启动,即:根据当前连接最少的后端服务器而非权重进行优先调度(新客户 端连接)
比较适合长连接的场景使用,比如:MySQL等场景。
配置举例
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
........................省略
#---------------------------------------------------------------------
# main frontend which proxys to the backends
#---------------------------------------------------------------------
frontend webcluster
bind *:80
mode http
use_backend webcluster-host
backend webcluster-host
balance leastconn
server web1 192.168.10.200:80 check inter 2 fall 3 rise 5 weight 2
server web2 192.168.10.210:80 check inter 2 fall 3 rise 5 weight 1
server sorry 192.168.10.150:8080 backup
........................
其他算法
以下几种算法,根据配置不同即可作为静态算法,又可以通过选项成为动态算法。
source (源地址hash)
源地址hash,基于用户源地址hash并将请求转发到后端服务器,默认为静态即取模方式,但是可以通过hash-type支持的选项更改,后续同一个源地址请求将被转发至同一个后端web服务器,比较适用于session保持/缓存业务等场景。
配置示例
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
........................省略
#---------------------------------------------------------------------
# main frontend which proxys to the backends
#---------------------------------------------------------------------
frontend webcluster
bind *:80
mode http
use_backend webcluster-host
backend webcluster-host
balance source
server web1 192.168.10.200:80 check inter 2 fall 3 rise 5 weight 2
server web2 192.168.10.210:80 check inter 2 fall 3 rise 5 weight 1
server sorry 192.168.10.150:8080 backup
........................
[root@rhel9-src ~]# curl 192.168.10.150
webserver1 - 192.168.10.200
[root@rhel9-src ~]# curl 192.168.10.150
webserver1 - 192.168.10.200
[root@rhel9-src ~]# curl 192.168.10.150
webserver1 - 192.168.10.200
[root@rhel9-src ~]# curl 192.168.10.150
webserver1 - 192.168.10.200
[root@rhel9-src ~]# curl 192.168.10.150
webserver1 - 192.168.10.200
注意:如果访问客户端时一个家庭,那么所有的家庭的访问流量都会被定向到一台服务器,这时source算 法的缺陷
map-based取模法
基于服务器总权重的hash数组取模,该hash是静态的即不支持在线调整权重,不支持慢启动,其对后端服务器调度均衡,缺点是当服务器的总权重发生变化时,即有服务器上线或下线,都会因权重发生变化而导致调度结果整体改变。所谓取模运算,就是计算两个数相除之后的余数,10%7=3, 7%4=3,(2^32-1)%(1+1+2)
hash-type 指定的默值为此算法
比如当源hash值时1111,1112,1113,三台服务器a b c的权重均为1,
即abc的调度标签分别会被设定为 0 1 2(1111%3=1,1112%3=2,1113%3=0)
1111 ----- > nodeb
1112 ------> nodec
1113 ------> nodea
如果a下线后,权重数量发生变化
1111%2=1,1112%2=0,1113%2=1
1112和1113被调度到的主机都发生变化,这样会导致会话丢失
配置举例
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
........................省略
#---------------------------------------------------------------------
# main frontend which proxys to the backends
#---------------------------------------------------------------------
frontend webcluster
bind *:80
mode http
use_backend webcluster-host
backend webcluster-host
balance source
server web1 192.168.10.200:80 check inter 2 fall 3 rise 5 weight 2
server web2 192.168.10.210:80 check inter 2 fall 3 rise 5 weight 1
server sorry 192.168.10.150:8080 backup
........................
[root@rhel9-src ~]# curl 192.168.10.150
webserver1 - 192.168.10.200
[root@rhel9-src ~]# curl 192.168.10.150
webserver1 - 192.168.10.200
[root@rhel9-src ~]# curl 192.168.10.150
webserver1 - 192.168.10.200
[root@rhel9-src ~]# curl 192.168.10.150
webserver1 - 192.168.10.200
[root@rhel9-src ~]# curl 192.168.10.150
webserver1 - 192.168.10.200
#不支持动态调整权重值
[root@haproxy ~]# echo "set weight webserver_80/webserver1 2" | socat stdio
/var/lib/haproxy/haproxy.sock
Backend is using a static LB algorithm and only accepts weights '0%' and '100%'.
#只能动态上线和下线
[root@haproxy ~]# echo "set weight webserver_80/webserver1 0" | socat stdio
/var/lib/haproxy/haproxy.sock
[root@haproxy ~]# echo "get weight webserver_80/webserver1" | socat stdio
/var/lib/haproxy/haproxy.sock
0 (initial 1)
一致性hash
一致性哈希,该hash是动态的,支持在线调整权重,支持慢启动,优点在于当服务器的总权重发生变化时,对调度结果影响是局部的,不会引起大的变动,hash(o)mod n 。
1、后端服务器哈希环点keyA=hash(后端服务器虚拟ip)%(2^32)
2、客户机哈希环点key1=hash(client_ip)%(2^32) 得到的值在[0---4294967295]之间,
3、将keyA和key1都放在hash环上,将用户请求调度到离key1最近的keyA对应的后端服务器
图解
hash对象
Hash对象到后端服务器的映射关系:
一致性hash示意图
后端服务器在线与离线的调度方式
source一致性hash配置举例
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
........................省略
#---------------------------------------------------------------------
# main frontend which proxys to the backends
#---------------------------------------------------------------------
frontend webcluster
bind *:80
mode http
use_backend webcluster-host
backend webcluster-host
balance source
hash-type consistent
server web1 192.168.10.200:80 check inter 2 fall 3 rise 5 weight 2
server web2 192.168.10.210:80 check inter 2 fall 3 rise 5 weight 1
server sorry 192.168.10.150:8080 backup
........................
[root@rhel9-src ~]# curl 192.168.10.150
webserver1 - 192.168.10.200
[root@rhel9-src ~]# curl 192.168.10.150
webserver1 - 192.168.10.200
[root@rhel9-src ~]# curl 192.168.10.150
webserver1 - 192.168.10.200
[root@rhel9-src ~]# curl 192.168.10.150
webserver1 - 192.168.10.200
[root@rhel9-src ~]# curl 192.168.10.150
webserver1 - 192.168.10.200
uri(基于户请求的uri做hash)
基于对用户请求的URI的左半部分或整个uri做hash,再将hash结果对总权重进行取模后
根据最终结果将请求转发到后端指定服务器
适用于后端是缓存服务器场景
默认是静态算法,也可以通过hash-type指定map-based和consistent,来定义使用取模法还是一致性 hash
<scheme>://<user>:<password>@<host>:<port>/<path>;<params>?<query>#<frag>
左半部分:/<path>;<params>
整个uri:/<path>;<params>?<query>#<frag>
uri 取模法配置示例
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
........................省略
#---------------------------------------------------------------------
# main frontend which proxys to the backends
#---------------------------------------------------------------------
frontend webcluster
bind *:80
mode http
use_backend webcluster-host
backend webcluster-host
balance uri
server web1 192.168.10.200:80 check inter 2 fall 3 rise 5 weight 2
server web2 192.168.10.210:80 check inter 2 fall 3 rise 5 weight 1
server sorry 192.168.10.150:8080 backup
........................
[root@rhel9-src ~]# curl 192.168.10.150
webserver2 - 192.168.10.210
[root@rhel9-src ~]# curl 192.168.10.150
webserver2 - 192.168.10.210
[root@rhel9-src ~]# curl 192.168.10.150
webserver2 - 192.168.10.210
[root@rhel9-src ~]# curl 192.168.10.150
webserver2 - 192.168.10.210
uri 一致性hash配置示例
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
........................省略
#---------------------------------------------------------------------
# main frontend which proxys to the backends
#---------------------------------------------------------------------
frontend webcluster
bind *:80
mode http
use_backend webcluster-host
backend webcluster-host
balance uri
hash-type consistent
server web1 192.168.10.200:80 check inter 2 fall 3 rise 5 weight 2
server web2 192.168.10.210:80 check inter 2 fall 3 rise 5 weight 1
server sorry 192.168.10.150:8080 backup
........................
[root@rhel9-src ~]# for i in {1..10}; do curl 192.168.10.150; done
webserver1 - 192.168.10.200
webserver1 - 192.168.10.200
webserver1 - 192.168.10.200
webserver1 - 192.168.10.200
webserver1 - 192.168.10.200
webserver1 - 192.168.10.200
webserver1 - 192.168.10.200
webserver1 - 192.168.10.200
webserver1 - 192.168.10.200
webserver1 - 192.168.10.200
url_param (基于用户请求url中params部分参数name做hash)
#假设:
url = http://www.timinglee.com/foo/bar/index.php?key=value
#则:
host = "www.timinglee.com"
url_param = "key=value"
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
........................省略
#---------------------------------------------------------------------
# main frontend which proxys to the backends
#---------------------------------------------------------------------
frontend webcluster
bind *:80
mode http
use_backend webcluster-host
backend webcluster-host
balance url_param name,userid
server web1 192.168.10.200:80 check inter 2 fall 3 rise 5 weight 2
server web2 192.168.10.210:80 check inter 2 fall 3 rise 5 weight 1
server sorry 192.168.10.150:8080 backup
........................
[root@rhel9-src ~]# for i in {1..10}; do curl 192.168.10.150; done
webserver1 - 192.168.10.200
webserver1 - 192.168.10.200
webserver2 - 192.168.10.210
webserver1 - 192.168.10.200
webserver1 - 192.168.10.200
webserver2 - 192.168.10.210
webserver1 - 192.168.10.200
webserver1 - 192.168.10.200
webserver2 - 192.168.10.210
webserver1 - 192.168.10.200
hdr (针对每个http请求头部header中的指定信息做hash)
针对用户每个http头部(header)请求中的指定信息做hash,此处由 name 指定的http首部将会被取出并做hash计算,然后由服务器总权重相除以后派发至某挑出的服务器,假如无有效的值,则会使用默认的轮询调度。
hdr取模法配置示例
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
........................省略
#---------------------------------------------------------------------
# main frontend which proxys to the backends
#---------------------------------------------------------------------
frontend webcluster
bind *:80
mode http
use_backend webcluster-host
backend webcluster-host
balance hdr(User-Agent)
server web1 192.168.10.200:80 check inter 2 fall 3 rise 5 weight 2
server web2 192.168.10.210:80 check inter 2 fall 3 rise 5 weight 1
server sorry 192.168.10.150:8080 backup
........................
hdr一致性hash配置示例
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
........................省略
#---------------------------------------------------------------------
# main frontend which proxys to the backends
#---------------------------------------------------------------------
frontend webcluster
bind *:80
mode http
use_backend webcluster-host
backend webcluster-host
balance hdr(User-Agent)
hash-type consistent
server web1 192.168.10.200:80 check inter 2 fall 3 rise 5 weight 2
server web2 192.168.10.210:80 check inter 2 fall 3 rise 5 weight 1
server sorry 192.168.10.150:8080 backup
........................
测试
[root@rhel9-src ~]# curl -v 192.168.10.150
* Trying 192.168.10.150:80...
* Connected to 192.168.10.150 (192.168.10.150) port 80 (#0)
> GET / HTTP/1.1
> Host: 192.168.10.150
> User-Agent: curl/7.76.1
> Accept: */*
>
* Mark bundle as not supporting multiuse
< HTTP/1.1 200 OK
< server: nginx/1.20.1
< date: Sun, 11 Aug 2024 10:41:05 GMT
< content-type: text/html
< content-length: 28
< last-modified: Sun, 11 Aug 2024 06:34:44 GMT
< etag: "66b85b84-1c"
< accept-ranges: bytes
<
webserver1 - 192.168.10.200
* Connection #0 to host 192.168.10.150 left intact
[root@node10 ~]# curl -v 192.168.10.150
[root@node10 ~]# curl -vA "lf" 192.168.10.150
[root@rhel9-src ~]# curl -vA "lf" 192.168.10.150
* Trying 192.168.10.150:80...
* Connected to 192.168.10.150 (192.168.10.150) port 80 (#0)
> GET / HTTP/1.1
> Host: 192.168.10.150
> User-Agent: lf
> Accept: */*
>
* Mark bundle as not supporting multiuse
< HTTP/1.1 200 OK
< server: nginx/1.20.1
< date: Sun, 11 Aug 2024 10:42:38 GMT
< content-type: text/html
< content-length: 28
< last-modified: Sun, 11 Aug 2024 06:35:51 GMT
< etag: "66b85bc7-1c"
< accept-ranges: bytes
<
webserver2 - 192.168.10.210
* Connection #0 to host 192.168.10.150 left intact
算法总结
static-rr--------->tcp/http 静态
first------------->tcp/http 静态
roundrobin-------->tcp/http 动态
leastconn--------->tcp/http 动态
random------------>tcp/http 动态
source------------>tcp/http
uri--------------->http
url_param--------->http 取决于hash_type是否consistent
hdr--------------->http
rdp-cookie-------->tcp
各算法使用场景
static-rr #做了session共享的web集群
first #使用较少
roundrobin (HAProxy默认的调度算法)
random
leastconn #数据库
source #基于客户端公网IP的会话保持
uri--------------->http #缓存服务器,CDN服务商
url_param--------->http
hdr #基于客户端请求报文头部做下一步处理
rdp-cookie #很少使用
6.高级功能及配置
基于cookie的会话保持
cookie value:为当前server指定cookie值,实现基于cookie的会话黏性,相对于基于 source 地址hash 调度算法对客户端的粒度更精准,但同时也加大了haproxy负载,目前此模式使用较少, 已经被session 共享服务器代替
注:不支持tcp mode ,所有http mode
cookie name [ rewrite | insert | prefix ][ indirect ] [ nocache ][ postonly ] [
preserve ][ httponly ] [ secure ][ domain ]* [ maxidle <idle> ][ maxlife ]
name: #cookie 的 key名称,用于实现持久连接
insert: #插入新的cookie,默认不插入cookie
indirect: #如果客户端已经有cookie,则不会再发送cookie信息
nocache: #当client和hapoxy之间有缓存服务器(如:CDN)时,不允许中间缓存器缓存cookie,
#因为这会导致很多经过同一个CDN的请求都发送到同一台后端服务器
配置举例:
vim /etc/haproxy/haproxy.cfg
#---------------------------------------------------------------------
# main frontend which proxys to the backends
#---------------------------------------------------------------------
frontend webcluster
bind 192.168.10.150:80
option forwardfor
mode http
use_backend webcluster-host
backend webcluster-host
balance roundrobin
cookie WEBCOOKIE insert nocache indirect
server web1 192.168.10.200:80 cookie web1 weight 1 check inter 2 fall 3 rise 5
server web2 192.168.10.210:80 cookie web2 weight 1 check inter 2 fall 3 rise 5
server sorry 192.168.10.150:8080 backup
验证cookie信息
通告命令验证
[root@rhel9-src ~]# curl -i 192.168.10.150
HTTP/1.1 200 OK
server: nginx/1.20.1
date: Sun, 11 Aug 2024 11:02:41 GMT
content-type: text/html
content-length: 28
last-modified: Sun, 11 Aug 2024 06:35:51 GMT
etag: "66b85bc7-1c"
accept-ranges: bytes
set-cookie: WEBCOOKIE=web2; path=/
cache-control: private
webserver2 - 192.168.10.210
[root@rhel9-src ~]# curl -i 192.168.10.150
HTTP/1.1 200 OK
server: nginx/1.20.1
date: Sun, 11 Aug 2024 11:03:27 GMT
content-type: text/html
content-length: 28
last-modified: Sun, 11 Aug 2024 06:34:44 GMT
etag: "66b85b84-1c"
accept-ranges: bytes
set-cookie: WEBCOOKIE=web1; path=/
cache-control: private
webserver1 - 192.168.10.200
[root@rhel9-src ~]# curl -b WEBCOOKIE=web1 192.168.10.150
webserver1 - 192.168.10.200
[root@rhel9-src ~]# curl -b WEBCOOKIE=web2 192.168.10.150
webserver2 - 192.168.10.210
# 访问指点cookie
[root@rhel9-src ~]# curl -vb WEBCOOKIE=web2 192.168.10.150
* Trying 192.168.10.150:80...
* Connected to 192.168.10.150 (192.168.10.150) port 80 (#0)
> GET / HTTP/1.1
> Host: 192.168.10.150
> User-Agent: curl/7.76.1
> Accept: */*
> Cookie: WEBCOOKIE=web2
>
* Mark bundle as not supporting multiuse
< HTTP/1.1 200 OK
< server: nginx/1.20.1
< date: Sun, 11 Aug 2024 11:05:23 GMT
< content-type: text/html
< content-length: 28
< last-modified: Sun, 11 Aug 2024 06:35:51 GMT
< etag: "66b85bc7-1c"
< accept-ranges: bytes
<
webserver2 - 192.168.10.210
* Connection #0 to host 192.168.10.150 left intact
haproxy状态页
通过web界面,显示当前HAProxy的运行状态
状态页配置项
stats enable #基于默认的参数启用stats page
stats hide-version #将状态页中haproxy版本隐藏
stats refresh <delay> #设定自动刷新时间间隔,默认不自动刷新
stats uri <prefix> #自定义stats page uri,默认值:/haproxy?stats
stats auth <user>:<passwd> #认证时的账号和密码,可定义多个用户,每行指定一个用户
#默认:no authentication
stats admin { if | unless } <cond> #启用stats page中的管理功能
listen stats:
mode http
bind *:8888
stats enable
log global
stats uri /status
stats auth lf:lf
登录状态页
#pid为当前pid号,process为当前进程号,nbproc和nbthread为一共多少进程和每个进程多少个线程
pid = 27134 (process #1, nbproc = 1, nbthread = 1)
#启动了多长时间
uptime = 0d 0h00m04s
#系统资源限制:内存/最大打开文件数/
system limits: memmax = unlimited; ulimit-n = 200029
#最大socket连接数/单进程最大连接数/最大管道数maxpipes
maxsock = 200029; maxconn = 100000; maxpipes = 0
#当前连接数/当前管道数/当前连接速率
current conns = 2; current pipes = 0/0; conn rate = 2/sec; bit rate = 0.000 kbps
#运行的任务/当前空闲率
Running tasks: 1/14; idle = 100 %
active UP: #在线服务器
backup UP: #标记为backup的服务器
active UP, going down: #监测未通过正在进入down过程
backup UP, going down: #备份服务器正在进入down过程
active DOWN, going up: #down的服务器正在进入up过程
backup DOWN, going up: #备份服务器正在进入up过程
active or backup DOWN: #在线的服务器或者是backup的服务器已经转换成了down状态
not checked: #标记为不监测的服务器
#active或者backup服务器人为下线的
active or backup DOWN for maintenance (MAINT)
#active或者backup被人为软下线(人为将weight改成0)
active or backup SOFT STOPPED for maintenance
backend server信息
session rate(每秒的连接会话信息): Errors(错误统计信息):
cur:每秒的当前会话数量 : Req:错误请求量
max:每秒新的最大会话数量 conn:错误链接量
limit:每秒新的会话限制量 Resp:错误响应量
sessions(会话信息): Warnings(警告统计信息):
cur:当前会话量 Retr:重新尝试次数
max:最大会话量 Redis:再次发送次数
limit: 限制会话量
Total:总共会话量 Server(real server信息):
LBTot:选中一台服务器所用的总时间 Status:后端机的状态,包括UP和DOWN
Last:和服务器的持续连接时间 LastChk:持续检查后端服务器的时间
Wght:权重
Bytes(流量统计): Act:活动链接数量
In:网络的字节输入总量 Bck:备份的服务器数量
Out:网络的字节输出总量 Chk:心跳检测时间
Dwn:后端服务器连接后都是DOWN的数量
Denied(拒绝统计信息): Dwntme:总的downtime时间
Req:拒绝请求量 Thrtle:server 状态
Resp:拒绝回复量
IP透传
web服务器中需要记录客户端的真实IP地址,用于做访问统计、安全防护、行为分析、区域排行等场景。
layer 4 与 layer 7
四层ip透传与七层ip透传
四层:IP+PORT转发
七层:协议+内容交换
四层负载
在四层负载设备中,把client发送的报文目标地址(原来是负载均衡设备的IP地址),根据均衡设备设置的选择web服务器的规则选择对应的web服务器IP地址,这样client就可以直接跟此服务器建立TCP连接并发送数据,而四层负载自身不参与建立连接,而和LVS不同,haproxy是伪四层负载均衡,因为haproxy 需要分别和前端客户端及后端服务器建立连接
七层代理
七层负载均衡服务器起了一个反向代理服务器的作用,服务器建立一次TCP连接要三次握手,而client要访问webserver要先与七层负载设备进行三次握手后建立TCP连接,把要访问的报文信息发送给七层负载均衡;然后七层负载均衡再根据设置的均衡规则选择特定的webserver,然后通过三次握手与此台webserver建立TCP连接,然后webserver把需要的数据发送给七层负载均衡设备,负载均衡设备再把数据发送给client;所以,七层负载均衡设备起到了代理服务器的作用,七层代理需要和Client和后端服务器分别建立连接
四层透传
未开启透传的四层代理
正常的nginx配置
在访问haproxy后产看ngix日志
[root@webserver1 ~]# tail -f /var/log/nginx/access.log
192.168.10.150 - - [11/Aug/2024:06:31:51 -0400] "GET / HTTP/1.1" 200 28 "-" "curl/7.76.1" "192.168.10.128"
192.168.10.150 - - [11/Aug/2024:06:31:51 -0400] "GET / HTTP/1.1" 200 28 "-" "curl/7.76.1" "192.168.10.128"
192.168.10.150 - - [11/Aug/2024:06:33:36 -0400] "GET /index.html?name=li HTTP/1.1" 200 28 "-" "curl/7.76.1" "192.168.10.128"
192.168.10.150 - - [11/Aug/2024:06:41:05 -0400] "GET / HTTP/1.1" 200 28 "-" "curl/7.76.1" "192.168.10.128"
192.168.10.150 - - [11/Aug/2024:06:59:36 -0400] "GET / HTTP/1.1" 200 28 "-" "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/127.0.0.0 Safari/537.36 Edg/127.0.0.0" "192.168.10.1"
192.168.10.150 - - [11/Aug/2024:07:00:33 -0400] "GET / HTTP/1.1" 304 0 "-" "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/127.0.0.0 Safari/537.36 Edg/127.0.0.0" "192.168.10.1"
192.168.10.150 - - [11/Aug/2024:07:02:36 -0400] "GET / HTTP/1.1" 200 28 "-" "curl/7.76.1" "192.168.10.128"
192.168.10.150 - - [11/Aug/2024:07:03:27 -0400] "GET / HTTP/1.1" 200 28 "-" "curl/7.76.1" "192.168.10.128"
192.168.10.150 - - [11/Aug/2024:07:04:34 -0400] "GET / HTTP/1.1" 200 28 "-" "curl/7.76.1" "192.168.10.128"
192.168.10.150 - - [11/Aug/2024:07:04:36 -0400] "GET / HTTP/1.1" 200 28 "-" "curl/7.76.1" "192.168.10.128"
无法看到真实的访问源地址
开始四层透传
在访问日志中通过变量$proxy_protocol_addr 记录透传过来的客户端ip(在/etc/nginx/nginx.conf中)
注:启用此项,将无法直接访问此网站 ,只能通告四层代理访问
修改haproxy
查看日志
七层IP透传
当haproxy工作在七层的时候,也可以透传客户端真实IP至后端服务器
HAProxy配置
option forwardfor [ except <network> ] [ header <name> ] [ if-none ]
[ except <network> ]:请求报请来自此处指定的网络时不予添加此首部,如haproxy自身所在网络
[ header <name> ]: 使用自定义的首部名称,而非“X-Forwarded-For",示例:X-client
[ if-none ] 如果没有首部才添加首部,如果有使用默认值
例:
7.web服务器日志格式配置
配置web服务器,记录负载均衡透传的客户端IP地址
#apache 配置:
LogFormat "%{X-Forwarded-For}i %a %l %u %t \"%r\" %>s %b \"%{Referer}i\" \"%
{User-Agent}i\"" combined
#nginx 日志格式:
$proxy_add_x_forwarded_for: 包括客户端IP和中间经过的所有代理的IP
$http_x_forwarded_For: 只有客户端IP
log_format main '"$proxy_add_x_forwarded_for" - $remote_user [$time_local]
"$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" $http_x_forwarded_For';
#查看日志如下:
[root@rs1 ~]# tail -n 3 /var/log/nginx/access.log
"172.25.254.10, 192.168.0.10" 192.168.0.10 - - [10/Jul/2024:16:15:00 +0800] "GET
/ HTTP/1.1"200 18 "-" "curl/7.29.0" "172.25.254.10"
[root@rs2 ~]# tail -n 3 /etc/httpd/logs/access_log
172.25.254.10 192.168.0.10 - - [11/Jul/2024:00:15:00 +0800] "GET / HTTP/1.1" 200
27 "-" "curl/7.29.0"
8.ACL(访问控制列表)
是一种基于包过滤的访问控制技术
它可以根据设定的条件对经过服务器传输的数据包进行过滤(条件匹配)即对接收到的报文进行匹配和过 滤,基于请求报文头部中的源地址、源端口、目标地址、目标端口、请求方法、URL、文件后缀等信息内 容进行匹配并执行进一步操作,比如允许其通过或丢弃。
ACL配置选项
#用acl来定义或声明一个acl
acl <aclname> <criterion> [flags] [operator] [<value>]
acl 名称 匹配规范 匹配模式 具体操作符 操作对象类型
ACL-Name 名称
acl test path_end -m sub /a
#ACL名称,可以使用大字母A-Z、小写字母a-z、数字0-9、冒号:、点.、中横线和下划线,并且严格区分大
小写,比如:my_acl和My_Acl就是两个完全不同的acl5.8.1.2 ACL-criterion
ACL-criterion 匹配规范
定义ACL匹配规范,即判断条件
hdr string,提取在一个HTTP请求报文的首部
hdr([<name> [,<occ>]]):完全匹配字符串,header的指定信息,<occ> 表示在多值中使用的值的出
现次数
hdr_beg([<name> [,<occ>]]):前缀匹配,header中指定匹配内容的begin
hdr_end([<name> [,<occ>]]):后缀匹配,header中指定匹配内容end
hdr_dom([<name> [,<occ>]]):域匹配,header中的dom(host)
hdr_dir([<name> [,<occ>]]):路径匹配,header的uri路径
hdr_len([<name> [,<occ>]]):长度匹配,header的长度匹配
hdr_reg([<name> [,<occ>]]):正则表达式匹配,自定义表达式(regex)模糊匹配
hdr_sub([<name> [,<occ>]]):子串匹配,header中的uri模糊匹配 模糊匹配c 报文中a/b/c也会匹
配
#示例:
hdr(<string>) 用于测试请求头部首部指定内容
hdr_dom(host) 请求的host名称,如 www.timinglee.org
hdr_beg(host) 请求的host开头,如 www. img. video. download. ftp.
hdr_end(host) 请求的host结尾,如 .com .net .cn
#示例:
acl bad_agent hdr_sub(User-Agent) -i curl wget
http-request deny if bad_agent
#有些功能是类似的,比如以下几个都是匹配用户请求报文中host的开头是不是www
acl short_form hdr_beg(host) www.
acl alternate1 hdr_beg(host) -m beg www.
acl alternate2 hdr_dom(host) -m beg www.
acl alternate3 hdr(host) -m beg www.
base : string
#返回第一个主机头和请求的路径部分的连接,该请求从主机名开始,并在问号之前结束,对虚拟主机有用
<scheme>://<user>:<password>@#<host>:<port>/<path>;<params>#?<query>#<frag>
base : exact string match
base_beg : prefix match
base_dir : subdir match
base_dom : domain match
base_end : suffix match
base_len : length match
base_reg : regex match
base_sub : substring match
path : string
#提取请求的URL路径,该路径从第一个斜杠开始,并在问号之前结束(无主机部分)
<scheme>://<user>:<password>@<host>:<port>#/<path>;<params>#?<query>#<frag>
path : exact string match
path_beg : prefix match #请求的URL开头,如/static、/images、/img、/css
path_end : suffix match #请求的URL中资源的结尾,如 .gif .png .css .js .jpg .jpeg
path_dom : domain match
path_dir : subdir match
path_len : length match
path_reg : regex match
path_sub : substring match
#示例:
path_beg -i /haproxy-status/
path_end .jpg .jpeg .png .gif
path_reg ^/images.*\.jpeg$
path_sub image
path_dir jpegs
path_dom timinglee
url : string
#提取请求中的整个URL。
url :exact string match
url_beg : prefix match
url_dir : subdir match
url_dom : domain match
url_end : suffix match
url_len : length match
url_reg : regex match
url_sub : substring match
dst #目标IP
dst_port #目标PORT
src #源IP
src_port #源PORT
#示例:
acl invalid_src src 10.0.0.7 192.168.1.0/24
acl invalid_src src 172.16.0.0/24
acl invalid_port src_port 0:1023
status : integer #返回在响应报文中的状态码
#七层协议
acl valid_method method GET HEAD
http-request deny if ! valid_method
ACL-flags 匹配模式
-i 不区分大小写
-m 使用指定的正则表达式匹配方法
-n 不做DNS解析
-u 禁止acl重名,否则多个同名ACL匹配或关系
ACL-operator 具体操作符
整数比较:eq、ge、gt、le、lt
字符比较:
- exact match (-m str) :字符串必须完全匹配模式
- substring match (-m sub) :在提取的字符串中查找模式,如果其中任何一个被发现,ACL将匹配
- prefix match (-m beg) :在提取的字符串首部中查找模式,如果其中任何一个被发现,ACL将匹配
- suffix match (-m end) :将模式与提取字符串的尾部进行比较,如果其中任何一个匹配,则ACL进行
匹配
- subdir match (-m dir) :查看提取出来的用斜线分隔(“/")的字符串,如其中任一个匹配,则ACL
进行匹配
- domain match (-m dom) :查找提取的用点(“.")分隔字符串,如果其中任何一个匹配,则ACL进行
匹配
ACL-value 操作对象
value的类型
The ACL engine can match these types against patterns of the following types :
- Boolean #布尔值
- integer or integer range #整数或整数范围,比如用于匹配端口范围
- IP address / network #IP地址或IP范围, 192.168.0.1 ,192.168.0.1/24
- string--> www.timinglee.org
exact #精确比较
substring #子串
suffix #后缀比较
prefix #前缀比较
subdir #路径, /wp-includes/js/jquery/jquery.js
domain #域名,www.timinglee.org
- regular expression #正则表达式
- hex block #16进制
多个ACL的组合调用方式
多个ACL的逻辑处理
与:隐式(默认)使用
或:使用“or" 或 “||"表示
否定:使用 "!" 表示
多个ACL调用方式:
#示例:
if valid_src valid_port #与关系,ACL中A和B都要满足为true,默认为与
if invalid_src || invalid_port #或,ACL中A或者B满足一个为true
if ! invalid_src #非,取反,不满足ACL才为true
ACL示例-域名匹配
haproxy ~]# vim /etc/haproxy/haproxy.cfg
...上面内容省略...
frontend testacl
bind :80
mode http
########### ACL settings #######################
acl web_host hdr_dom(host) www.timinglee.org
########### host ###########################
use_backend timinglee_host if web_host
########### default server ###################
default_backend default_webserver
backend timinglee_host
mode http
server web1 192.168.0.101:80 check weight 1 inter 3s fall 3 rise 5
server web2 192.168.0.102:80 check weight 1 inter 3s fall 3 rise 5
backend default_webserver
mode http
server web1 172.25.254.10:80 check weight 1 inter 3s fall 3 rise 5
...上面内容省略...
在/etc/hosts上做解析
测试:
ACL示例-基于源地址的访问控制
拒绝指定IP或者IP范围访问
haproxy ~]# vim /etc/haproxy/haproxy.cfg
...上面内容省略...
frontend testacl
bind :80
mode http
########### ACL settings #######################
acl web_host hdr_dom(host) www.timinglee.org
acl ip_test src 172.25.254.1 192.168.0.0/24
########### host ###########################
http-request deny if web_host
########### default server ###################
default_backend default_webserver
backend ip_test-host
mode http
server web1 192.168.0.101:80 check weight 1 inter 3s fall 3 rise 5
backend default_webserver
mode http
server web1 172.25.254.10:80 check weight 1 inter 3s fall 3 rise 5
[root-node4~]# curl www.timing.org
<html><body><h1>403 Forbidden</h1>
[root-node4~]# curl 192.168.10.150
default web server node4
自定义HAProxy 错误界面
对指定的报错进行重定向,进行优雅的显示错误页面 使用errorfile和errorloc指令的两种方法,可以实现自定义各种错误页面
#haproxy默认使用的错误错误页面
[root@haproxy ~]# rpm -ql haproxy24z-2.4.27-1.el7.zenetys.x86_64 | grep -E http$
/usr/share/haproxy/400.http
/usr/share/haproxy/403.http
/usr/share/haproxy/408.http
/usr/share/haproxy/500.http
/usr/share/haproxy/502.http
/usr/share/haproxy/503.http
/usr/share/haproxy/504.http
基于自定义的错误页面文件
#自定义错误页
errorfile <code> <file>
<code> #HTTP status code.支持200, 400, 403, 405, 408, 425, 429, 500, 502,503,504
<file> #包含完整HTTP响应头的错误页文件的绝对路径。 建议后缀".http",以和一般的html文件相区分
#示例:
errorfile 503 /haproxy/errorpages/503page.http
例:
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
[root@haproxy ~]# systemctl restart haproxy.service
[root@haproxy ~]# systemctl restart httpd.service
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
[root@haproxy ~]# mkdir -p /haproxy/errorpages/ -p
[root@haproxy ~]# cp /usr/share/haproxy/503.http /haproxy/errorpages/503page.http
[root@haproxy ~]# vim /haproxy/errorpages/503page.http
[root@haproxy ~]# systemctl restart haproxy.service
测试:关闭webserver主机,去访问192.168.10.150
基于http重定向错误页面
#错误页面重定向
errorloc <code> <url>
#相当于errorloc302 <code> <url>,利用302重定向至指URL
#示例:
errorloc 503 https://www.baidu.com
范例:
haproxy ~]# vim /etc/haproxy/haproxy.cfg
...上面内容省略...
defaults
mode http
...内容省略...
timeout client 1m
timeout server 1m
timeout http-keep-alive 10s
timeout check 10s
maxconn 1000000
errorloc 503 https://www.baidu.com
#浏览器访问172.25.254.100 自动跳转到百度
例:
访问192.168.10.150
HAProxy 四层负载
针对除HTTP以外的TCP协议应用服务访问的应用场景
MySQL
Redis
Memcache
RabbitMQ
四层负载示例
注意:如果使用frontend和backend,一定在 frontend 和 backend 段中都指定mode tcp
listen mysql-port
bind 10.0.0.7:6379
mode tcp
balance leastconn
server server1 10.0.0.17:3306 check
server server2 10.0.0.27:3306 check backup
范例:对 MySQL 服务实现四层负载
haproxy ~]# vim /etc/haproxy/haproxy.cfg
...上面内容省略...
listen mysql_port
bind :3306
mode tcp
balance leastconn
server mysql1 192.168.0.101:3306 check
server mysql2 192.168.0.102:3306 check
#或者使用frontend和backend实现
haproxy ~]# vim /etc/haproxy/haproxy.cfg
...上面内容省略...
frontend mysql_port
bind :3306
mode tcp
use_backend mysql_rs
backend mysql_rs
mode tcp
balance leastconn
server mysql1 192.168.0.101:3306 check
server mysql2 192.168.0.102:3306 check
haproxy ~]# systemctl restart haproxy.service
#在后端服务器安装和配置mariadb服务
rs1 ~]# yum install mariadb-server -y
rs2 ~]# yum install mariadb-server -y
rs1 ~]# vim /etc/my.cnf
[mysqld]
server-id=1 #在另一台主机为
rs2 ~]# vim /etc/my.cnf
[mysqld]
server-id=2 #在另一台主机为
rs1 ~]# systemctl start mariadb
rs2 ~]# systemctl start mariadb
rs1 ~]# mysql -e "grant all on *.* to lee@'%' identified by 'lee';"
rs2 ~]# mysql -e "grant all on *.* to lee@'%' identified by 'lee';"
#测试
[root@node10 ~]# mysql -ulee -plee -h 172.25.254.100 -e "show variables like
'hostname'"
+---------------+-------+
| Variable_name | Value |
+---------------+-------+
| hostname | rs2 |
+---------------+-------+
[root@node10 ~]# mysql -ulee -plee -h 172.25.254.100 -e "show variables like
'hostname'"
+---------------+-------+
| Variable_name | Value |
+---------------+-------+
| hostname | rs1 |
+---------------+-------+
[root@node10 ~]# mysql -ulee -plee -h172.25.254.100 -e "select @@server_id"
+-------------+
| @@server_id |
+-------------+
| 1 |
+-------------+
[root@node10 ~]# mysql -ulee -plee -h172.25.254.100 -e "select @@server_id"
+-------------+
| @@server_id |
+-------------+
| 2 |
+-------------+
HAProxy https 实现
haproxy可以实现https的证书安全,从用户到haproxy为https,从haproxy到后端服务器用http通信 但基于性能考虑,生产中证书都是在后端服务器比如nginx上实现
#配置HAProxy支持https协议,支持ssl会话;
bind *:443 ssl crt /PATH/TO/SOME_PEM_FILE
#指令 crt 后证书文件为PEM格式,需要同时包含证书和所有私钥
cat demo.key demo.crt > demo.pem
#把80端口的请求重向定443
bind *:80
redirect scheme https if !{ ssl_fc }
证书制作
[root-haproxy ~]# mkdir /etc/haproxy/certs/
[root-haproxy ~]# openssl req -newkey rsa:2048 \
-nodes -sha256 –keyout /etc/haproxy/certs/timinglee.org.key \
-x509 -days 365 -out /etc/haproxy/certs/timinglee.org.crt
https配置示例
haproxy ~]# vim /etc/haproxy/haproxy.cfg
frontend webserver
bind *:80
redirect scheme https if !{ ssl_fc }
mode http
use_backend webcluster
frontend webserver-https
bind *:443 ssl crt /etc/haproxy/timinglee.org.pem
mode http
use_backend webcluster
backend webcluster
mode http
balance roundrobin
server web1 192.168.10.200:80 check inter 3 fall 3 rise 5
server web2 192.168.10.210:80 check inter 3 fall 3 rise 5
[root@node4 ~]#curl -IkL http://172.25.254.100
HTTP/1.1 302 Found
content-length: 0
location: https://www.timinglee.org/
cache-control: no-cache
HTTP/1.1 200 OK
date: Sat, 04 Apr 2020 02:31:31 GMT
server: Apache/2.4.6 (CentOS) PHP/5.4.16
last-modified: Thu, 02 Apr 2020 01:44:13 GMT
etag: "a-5a244f01f8adc"
accept-ranges: bytes
content-length: 10
content-type: text/html; charset=UTF-8
[root@centos6 ~]#curl -Ik https://www.timinglee.org
HTTP/1.1 200 OK
date: Sat, 04 Apr 2024 21:31:50 GMT
server: Apache/2.4.6 (CentOS) PHP/5.4.16
last-modified: Thu, 02 Apr 2024 21:31:59 GMT
etag: "a-5a244f0fd5175"
accept-ranges: bytes
content-length: 10
content-type: text/html; charset=UTF-8
示例:
检测:
[root@rhel9-src ~]# curl -Ik https://192.168.10.150
HTTP/1.1 200 OK
date: Sun, 11 Aug 2024 21:31:31 GMT
server: Apache/2.4.57 (Red Hat Enterprise Linux) OpenSSL/3.2.2
last-modified: Sun, 11 Aug 2024 21:01:31 GMT
etag: "18-64f7838f483b3"
accept-ranges: bytes
content-length: 24
content-type: text/html; charset=UTF-8