一.负载均衡
1.1.什么是负载均衡
负载均衡:Load Balance,简称LB,是一种服务或基于硬件设备等实现的高可用反向代理技术,负载均衡将特定的业务(web服务、网络流量等)分担给指定的一个或多个后端特定的服务器或设备,从而提高了公司业务的并发处理能力、保证了业务的高可用性、方便了业务后期的水平动态扩展
1.2.为什么用负载均衡
·Web服务器的动态水平扩展-->对用户无感知
·增加业务并发访问及处理能力-->解决单服务器瓶颈问题。
·节约公网IP地址-->降低IT支出成本
·隐藏内部服务器IP-->提高内部服务器安全性
·配置简单-->固定格式的配置文件
·功能丰富-->支持四层和七层,支持动态下线主机
·性能较强-->并发数万甚至数十万
1.3.负载均衡类型
1.3.1硬件:
F5 美国网络公司F5 | 多云安全和应用交付
Netscaler 美国思杰公司 https://www.citrix.com.cn/products/citrix-adc/
Array 华耀 北京华耀科技有限公司
AD-1000 深信服 http://www.sangfor.com.cn/
1.3.2.四层负载均衡
1.通过ip+port决定负载均衡的去向。
⒉.对流量请求进行NAT处理,转发至后台服务器。
3.记录tcp、udp流量分别是由哪台服务器处理,后续该请求连接的流量都通过该服务器处理。4.支持四层的软件
·lvs:重量级四层负载均衡器。
·Nginx:轻量级四层负载均衡器,可缓存。(nginx四层是通过·upstream模块)Hapr9XX:模拟四层转发。
1.3.3七层负载均衡
1.通过虚拟ur|或主机ip进行流量识别,根据应用层信息进行解析,决定是否需要进行负载均衡。
2.代理后台服务器与客户端建立连接,如nginx可代理前后端,与前端客户端tcp连接,与后端服务器建立tcp连接,
3.支持7层代理的软件:
·Nginx:基于http协议(nginx七层是通过proxy_pass)
·Haproxy:七层代理,会话保持、标记、路径转移等。
1.3.4四层和七层的区别
所谓的四到七层负载均衡,就是在对后台的服务器进行负载均衡时,依据四层的信息或七层的信息来决定怎么样转发流量
四层的负载均衡,就是通过发布三层的IP地址(VIP),然后加四层的端口号,来决定哪些流量需要做负载均衡,对需要处理的流量进行NAT处理,转发至后台服务器,并记录下这个TCP或者UDP的流量是由哪台服务器处理的,后续这个连接的所有流量都同样转发到同一台服务器处理
七层的负载均衡,就是在四层的基础上(没有四层是绝对不可能有七层的),再考虑应用层的特征,比如同一个Web服务器的负载均衡,除了根据VIP加80端口辨别是否需要处理的流量,还可根据七层的URL、浏览器类别、语言来决定是否要进行负载均衡。
1.分层位置:四层负载均衡在传输层及以下,七层负载均衡在应用层及以下
⒉性能:四层负载均衡架构无需解析报文消息内容,在网络吞吐量与处理能力上较高:七层可支持解析应用层报文消息内容,识别URL、Cookie、HTTP header等信息。、
3.原理:四层负载均衡是基于ip+port;七层是基于虚拟的URL或主机IP等。4.功能类比:四层负载均衡类似于路由器;七层类似于代理服务器。
5.安全性:四层负载均衡无法识别DDoS攻击;七层可防御SYN Cookie/Flood攻击
二.haproxy简介
HAProxy是法国开发者威利塔罗(Willy Tarreau)在2000年使用C语言开发的一个开源软件是一款具备高并发(万级以上)、高性能的TCP和HTTP负载均衡器
三.haproxy的安装和服务信息
安装软件包
[root@haproxy ~]# dnf install haproxy -y
3.1 示例的环境部署:
功能 | IP |
haproxy | 172.25.254.100 |
RS1 | 172.25.254.10 |
RS2 | 172.25.254.20 |
3.2 haproxy的基本配置信息
查询配置文件
rpm -qc haproxy
[root@haproxy ~]# rpm -qc haproxy
/etc/haproxy/haproxy.cfg ---- 配置文件
/etc/logrotate.d/haproxy ---- 记录日志的文件
/etc/sysconfig/haproxy --- 记录haproxy本身属性的文件
[root@haproxy ~]#
HAProxy 的配置文件haproxy.cfg由两大部分组成,分别是:
global:全局配置段
- 进程及安全配置相关的参数
- 性能调整相关参数
- Debug参数
proxies:代理配置段
- defaults:为frontend, backend, listen提供默认配置
- frontend:前端,相当于nginx中的server {}
- backend:后端,相当于nginx中的upstream {}
- listen:同时拥有前端和后端配置,配置简单,生产推荐使用
- haproxy的基本部署方法及负载均衡的实现
3.2.1 global 配置参数介绍
3.2.2 全局参数配置及日志分离
设置多进程:
vim/etc/haproxy/haproxy.cfgnbproc 2
cpu-map 1 0 ---进程和CPU核心绑定防止CPU抖动从而减少系统资源消耗。
cpu-map 2 1 --- 2表示第二个进程,1表示第二个CPU核心。
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
.....上面内容省略.........
log 127.0.0.1 local2
chroot /var/lib/haproxy
pidfile /var/run/haproxy.pid
maxconn 4000
user haproxy
group haproxy
daemon
# turn on stats unix socket
stats socket /var/lib/haproxy/stats
# utilize system-wide crypto-policies
ssl-default-bind-ciphers PROFILE=SYSTEM
ssl-default-server-ciphers PROFILE=SYSTEM
nbproc 2 #启用多进程
cpu-map 1 0 #进程和cpu核心绑定防止cpu抖动从而减少系统资源消耗
cpu-map 2 1 #2 表示第二个进程,1表示第二个cpu核心
查看多进程信息
[root@haproxy ~]# pstree -p | grep haproxy
|-haproxy(32906)-+-haproxy(32908)
| `-haproxy(32909)
启动多线程
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
.....上面内容省略.........
log 127.0.0.1 local2
chroot /var/lib/haproxy
pidfile /var/run/haproxy.pid
maxconn 4000
user haproxy
group haproxy
daemon
# turn on stats unix socket
stats socket /var/lib/haproxy/stats
# utilize system-wide crypto-policies
ssl-default-bind-ciphers PROFILE=SYSTEM
ssl-default-server-ciphers PROFILE=SYSTEM
#nbproc 2 #启用多进程
#cpu-map 1 0 #进程和cpu核心绑定防止cpu抖动从而减少系统资源消耗
#cpu-map 2 1 #2 表示第二个进程,1表示第二个cpu核心
nbthread 2 #启用多线程
查看多线程:
[root@haproxy ~]# systemctl restart haproxy.service
[root@haproxy ~]# pstree -p | grep haproxy
|-haproxy(33829)---haproxy(33831)---{haproxy}(33832)
[root@haproxy ~]# cat /proc/33831/status | grep -i thread
Threads: 2
Speculation_Store_Bypass: thread vulnerable
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
[root@haproxy ~]#
3.3.3haproxy的状态界面
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
.....上面内容省略.........
listen webcluster
mode http
bind 0.0.0.0:8888
stats enable
log gloval
stats uri /haproxy-status
stats auth lee:lee
......以下内容省略.......
3.3.3.1proxies配置
参数 | 类型 | 作用 |
defaults[] | proxies | 默认配置项,针对以下的frontend、backend和listen生效,可以多个name也可以没有name |
frontend | proxies | 前端servername,类似于Nginx的一个虚拟主机server和LVS服务集 |
backend | proxies | #后端服务器组,等于nginx的upstream和LVS中的RS服务器 |
listen | proxies | #将frontend和backend合并在一起配置,相对于frontend和backend配置更简洁,生产常用 |
写一个haproxy的配置
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
#两种方法,效果相同
frontend webcluster
bind *:80
mode http
use_backend webcluster-host
backend webcluster-host
balance roundrobin
server web1 172.25.254.10:80
server web2 172.25.254.20:80
#或者
listen webcluster
bind *:80
mode http
balance roundrobin
server web1 172.25.254.10:80
server web2 172.25.254.20:80
3.3.3.2 prosiex配置-defaults
参数 | 功能 |
option abortonclose | 当服务器负载很高时,自动结束掉当前队列处理比较久的连接,针对业务情况选择开启 |
option redispatch | 当server ld对应的服务器挂掉后,强制定向到其他健康的服务器,重新派发 |
option http-keep-alive | 开启与客户端的会话保持 |
option forwardfor | 透传客户端真实IP至后端web服务器(在apache配置文件中加入:%{X-Forwarded-For}i后在webserer中看日志即可看到地址透传信息) |
mode http|tcp | 设置默认工作类型,使用TCP服务器性能更好,减少压力 |
timeout http-keep-alive 120s | session会话保持超时时间,此时间段内会转发到相同的后端服务器 |
timeout connect 120s | 客户端请求从haproxy到后端server最长连接等待时间(TCP连接之前),默认单位ms |
timeout server 600s | 客户端请求从haproxy到后端服务端的请求处理超时时长(TCP连接之后),默认单位ms,如果超时,会出现502错误,此值建议设置较大些,访 止502错误 |
timeout client 600s | 设置haproxy与客户端的最长非活动时间,默认单位ms,建议和timeout server相同 |
timeout check 5s | 对后端服务器的默认检测超时时间 |
default-server inter 1000 weight 3 | 指定后端服务器的默认设置 |
3.3.3.3proxies配置-frontend
frontend配置参数:
bind:指定HAProxy的监听地址,可以是IPV4或IPV6,可以同时监听多个IP或端口,可同时用于1isten字段中
#格式:
bind [<address>]:<port_range> [, ...] [param*]
#注意:如果需要绑定在非本机的IP,需要开启内核参数:net.ipv4.ip_nonlocal_bind=1
backlog <backlog>#针对所有server配置,当前端服务器的连接数达到上限后的后援队列长度,注意:不支持backend
frontend配置示例:
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
.....上面内容省略........
frontend webcluster
bind *:80
mode http
use_backend webcluster-host #调用backend的名称
......以下内容省略.......
3.3.4socat 工具
3.4.4.1配置示例:
listen webcluster
bind *:80
mode http
balance roundrobin
server web1 172.25.254.10:80
server web2 172.25.254.20:80
3.4.4.2 使用方法
dnf install socat -y --- 安装工具,动态调整haproxy里面的参数
使用方法:
echo "help" | socat stdio /var/lib/haproxy/stats
echo "show info" | socat stdio /var/lib/haproxy/stats ---- 查看haproxy的状态
echo "show servers state" | socat stdio /var/lib/haproxy/stats ---- 查看server的状态
echo get weight webcluster/web1 | socat stdio /var/lib/haproxy/stats ---查看server的权重
echo "set weight webcluster/web1 1 " | socat stdio /var/lib/haproxy/stats ----修改server的权重
echo "disable server webcluster/web1" | socat stdio /var/lib/haproxy/stats ----指定下线server
3.4.4.3 启用backup
启用backup ---- 两台服务器状态OK的情况下,不会访问这个
vim /etc/httpd/conf/httpd.conf --------- 里面修改sorry server的端口
vim/etc/haproxy/haproxy.cfg
listen webcluster
bind *:80
mode http
balance roundrobin ---- 动态算法
server web1 172.25.254.10:80 check inter 2 fall 3 rise 5 weight 2
server web2 172.25.254.20:80 check inter 2 fall 3 rise 5 weight 1
server web_sorry 172.25.254.100:8080 backup
3.4.4.4 针对多线程处理方法
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
# turn on stats unix socket
stats socket /var/lib/haproxy/stats1 mode 600 level admin process 1
stats socket /var/lib/haproxy/stats2 mode 600 level admin process 2
# utilize system-wide crypto-policies
ssl-default-bind-ciphers PROFILE=SYSTEM
ssl-default-server-ciphers PROFILE=SYSTEM
nbproc 2 #启用多进程
cpu-map 1 0 #进程和cpu核心绑定防止cpu抖动从而减少系统资源消耗
cpu-map 2 1 #2 表示第二个进程,1表示第二个cpu核心
[root@haproxy ~]# systemctl restart haproxy.service
[root@haproxy ~]# ll /var/lib/haproxy
总用量 4
-rw-r--r-- 1 root root 40 8月 9 11:30 haproxy.sock
srw------- 1 root root 0 8月 9 11:56 stats
srw------- 1 root root 0 8月 9 11:57 stats1
srw------- 1 root root 0 8月 9 11:57 stats2
这样每个进程就会有单独的sock文件来进行单独管理
四.haproxy的算法
HAProxy通过固定参数balance指明对后端服务器的调度算法
balance参数可以配置在listen或backend选项中。
HAProxy的调度算法分为静态和动态调度算法
有些算法可以根据参数在静态和动态算法中相互转换。
4.1静态算法
静态算法:按照事先定义好的规则轮询公平调度,不关心后端服务器的当前负载、连接数和响应速度等,且无法实时修改权重(只能为0和1,不支持其它值),只能靠重启HAProxy生效。
有 static-rr基于权重的轮询调度和first
4.1.1 static-rr
-
不支持运行时利用socat进行权重的动态调整(只支持0和1,不支持其它值)
-
不支持端服务器慢启动
-
其后端主机数量没有限制,相当于LVS中的 wrr
4.2 动态算法
-
基于后端服务器状态进行调度适当调整,
-
新请求将优先调度至当前负载较低的服务器
-
权重可以在haproxy运行时动态调整无需重启
有两种:roundrobin leastconn
4.2.1 roundrobin动态算法
- 基于权重的轮询动态调度算法,
- 支持权重的运行时调整,不同于lvs中的rr轮训模式,
- HAProxy中的roundrobin支持慢启动(新加的服务器会逐渐增加转发数),
- 其每个后端backend中最多支持4095个real server,
- 支持对real server权重动态调整,
- roundrobin为默认调度算法,此算法使用广泛
示例:
vim/etc/haproxy/haproxy.cfg
listen webcluster
bind *:80
mode http
balance roundrobin ---- 动态算法
server web1 172.25.254.10:80 check inter 2 fall 3 rise 5 weight 2
server web2 172.25.254.20:80 check inter 2 fall 3 rise 5 weight 1
4.2.2 leastconn 动态算法
-
eastconn加权的最少连接的动态
-
支持权重的运行时调整和慢启动,即:根据当前连接最少的后端服务器而非权重进行优先调度(新客户端连接)
-
比较适合长连接的场景使用,比如:MySQL等场景。
示例:
listen webcluster
bind *:80
mode http
balance leastconn ---- 动态算法
server web1 172.25.254.10:80 check inter 2 fall 3 rise 5 weight 2
server web2 172.25.254.20:80 check inter 2 fall 3 rise 5 weight 1
4.3 其他算法
又可以做为静态算法,又可以通过选项成为动态算法
4.3.1 source
源地址hash,基于用户源地址hash并将请求转发到后端服务器,后续同一个源地址请求将被转发至同一个后端web服务器。此方式当后端服务器数据量发生变化时,会导致很多用户的请求转发至新的后端服务器,默认为静态方式,但是可以通过hash-type支持的选项更改这个算法一般是在不插入Cookie的TCP模式下使用,也可给拒绝会话cookie的客户提供最好的会话粘性,适用于session会话保持但不支持cookie和缓存的场景源地址有两种转发客户端请求到后端服务器的服务器选取计算方式,分别是取模法和一致性hash
source源地址hash使同一个源地址都访问一个网址
示例:
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
listen webcluster
bind *:80
mode http
#balance roundrobin
#balance static-rr
#balance first
#balance roundrobin
#balance leastconn
balance source
# redirect prefix http://www.baidu.com/
server web1 172.25.254.10:80 maxconn 2 check inter 3s fall 3 rise 5
server web2 172.25.254.20:80 check inter 3s fall 3 rise 5
server wen_sorry 172.25.254.100:8080 backup
[root@haproxy ~]# systemctl restart haproxy.service
测试
[root@haproxy ~]# for i in {1..10};do curl 172.25.254.100;done
webserver1 - 172.25.254.10
webserver1 - 172.25.254.10
webserver1 - 172.25.254.10
webserver1 - 172.25.254.10
webserver1 - 172.25.254.10
webserver1 - 172.25.254.10
webserver1 - 172.25.254.10
webserver1 - 172.25.254.10
webserver1 - 172.25.254.10
webserver1 - 172.25.254.10
如果访问客户端时一个家庭,那么所有的家庭的访问流量都会被定向到一台服务器,这时source算法的缺陷
4.3.1.1 map-base取模法
map-based:取模法,对source地址进行hash计算,再基于服务器总权重的取模,最终结果决定将此请求转发至对应的后端服务器。此方法是静态的,即不支持在线调整权重,不支持慢启动,可实现对后端服务器均衡调度缺点是当服务器的总权重发生变化时,即有服务器上线或下线,都会因总权重发生变化而导致调度结果整体改变
4.3.1.2 一致性hash
一致性哈希,当服务器的总权重发生变化时,对调度结果影响是局部的,不会引起大的变动hash mode该hash算法是动态的,支持使用 socat等工具进行在线权重调整,支持慢启动
算法:
1、后端服务器哈希环点keyA=hash(后端服务器虚拟ip)%(2^32)
2、客户机哈希环点key1=hash(client_ip)%(2^32) 得到的值在[0---4294967295]之间,
3、将keyA和key1都放在hash环上,将用户请求调度到离key1最近的keyA对应的后端服务器
hash环偏斜问题:
增加虚拟服务器IP数量,比如:一个后端服务器根据权重为1生成1000个虚拟IP,再hash。而后端服务器权
重为2则生成2000的虚拟IP,再bash,最终在hash环上生成3000个节点,从而解决hash环偏斜问题
hash对象
Hash对象到后端服务器的映射关系:
4.3.2 url
基于对用户请求的URI的左半部分或整个uri做hash,再将hash结果对总权重进行取模后根据最终结果将请求转发到后端指定服务器适用于后端是缓存服务器场景默认是静态算法,也可以通过hash-type指定map-based和consistent,来定义使用取模法还是一致性hash
4.3.3 url_param
url_param对用户请求的url中的 params 部分中的一个参数key对应的value值作hash计算,并由服务器总权重相除以后派发至某挑出的服务器,后端搜索同一个数据会被调度到同一个服务器,多用与电商通常用于追踪用户,以确保来自同一个用户的请求始终发往同一个real server如果无没key,将按roundrobin算法
4.3.4 hdr
针对用户每个http头部(header)请求中的指定信息做hash,此处由 name 指定的http首部将会被取出并做hash计算,然后由服务器总权重取模以后派发至某挑出的服务器,如果无有效值,则会使用默认的轮询调度。
4.3.5 算法总结
#静态
static-rr--------->tcp/http
first------------->tcp/http
#动态
roundrobin-------->tcp/http
leastconn--------->tcp/http
#以下静态和动态取决于hash_type是否consistent
source------------>tcp/http
Uri--------------->http
url_param--------->http
hdr--------------->http
4.3.6 各算法的运用场景
first #使用较少
static-rr #做了session共享的web集群
roundrobin
leastconn #数据库
source
#基于客户端公网IP的会话保持
Uri--------------->http #缓存服务器,CDN服务商,蓝汛、百度、阿里云、腾讯
url_param--------->http #可以实现session保持
hdr #基于客户端请求报文头部做下一步处理
五、高级功能及配置
5.1基于cookie的会话保持
cookie value:为当前server指定cookie值,实现基于cookie的会话黏性,相对于基于source地址hash调度算法对客户端的粒度更精准,但同时也加大了haproxy负载,目前此模式使用较少,已经被session共享服务器代替
注意:cookie保存在浏览器上,session保存在服务器上
注意:不支持tcp mode,使用http mode
使用cookie的话,浏览器看的是cookie,cookie是可以更改的(与hdr的区别)
5.1.1配置选项
cookie name [ rewrite / insert / prefix ][ indirect ] [ nocache ][ postonly ][preserve ][ httponly ] [ secure ][ domain ]1[ maxidle <idle> ][ maxlife ]
name: #cookie 的 key名称,用于实现持久连接
insert: #插入新的cookie,默认不插入cookie
indirect: #如果客户端已经有cookie,则不会再发送cookie信息
nocache: #当client和hapoxy之间有缓存服务器(如:CDN)时,不允许中间缓存器缓存cookie,
#因为这会导致很多经过同一个CDN的请求都发送到同一台后端服务器
5.1.2 配置示例
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
listen webcluster
bind *:80
mode http
balance roundrobin
#balance static-rr
#balance first
# redirect prefix http://www.baidu.com/
cookie WEBCOOKIE insert nocache indirect
server web1 172.25.254.10:80 cookie haha1 check inter 3s fall 3 rise 5
server web2 172.25.254.20:80 cookie haha2 check inter 3s fall 3 rise 5
server wen_sorry 172.25.254.100:8080 backup
[root@haproxy ~]# systemctl restart haproxy.service
#用两个不同的浏览器访问172.25.254.100,发现访问的不同而且不断刷新但是内容不变
#指定cookie访问
[root@haproxy ~]# curl -b WEBCOOKIE=haha1 172.25.254.100
webserver1 - 172.25.254.10
[root@haproxy ~]# curl -b WEBCOOKIE=haha2 172.25.254.100
webserver2 - 172.25.254.20
[root@haproxy ~]# curl -b WEBCOOKIE=haha1 172.25.254.100
webserver1 - 172.25.254.10
[root@haproxy ~]# curl -b WEBCOOKIE=haha2 172.25.254.100
webserver2 - 172.25.254.20
用两个不同的浏览器访问172.25.254.100,发现访问的不同而且不断刷新但是内容不变
5.1.3 验证cookie信息
浏览器访问后按F12
通过命令行验证:
[root@haproxy ~]# curl -b WEBCOOKIE=haha1 172.25.254.100
webserver1 - 172.25.254.10
[root@haproxy ~]# curl -b WEBCOOKIE=haha2 172.25.254.100
webserver2 - 172.25.254.20
[root@haproxy ~]# curl -b WEBCOOKIE=haha1 172.25.254.100
webserver1 - 172.25.254.10
[root@haproxy ~]# curl -b WEBCOOKIE=haha2 172.25.254.100
webserver2 - 172.25.254.20
5.2 HAProxy状态页
通过web界面,显示当前HAProxy的运行状态
5.2.1状态页配置项
stats enable #基于默认的参数启用stats page
stats hide-version #将状态页中haproxy版本隐藏
stats refresh <delay> #设定自动刷新时间间隔,默认不自动刷新
stats uri <prefix> #自定义stats page uri,默认值:/haproxy?stats
stats auth <user> :<passwd> #认证时的账号和密码,可定义多个用户,每行指定一个用户
#默认:no authentication(没有认证)
stats admin { if | unless } <cond> #启用stats page中的管理功能
5.2.2启用状态页
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
#添加即可
listen stats
mode http
bind *:9999
stats enable #打开状态页功能
log global
stats uri /status #自定义uri,访问的目录(可以改)
stats auth haha:haha #认证,haha用户,密码haha
[root@haproxy ~]# systemctl restart haproxy.service
#浏览器访问:http://172.25.254.100:9999/status
5.3 IP透传
web服务器中需要记录客户端的真实IP地址,用于做访问统计、安全防护、行为分析、区域排行等场景。
#先将web1的nginx换成http好方便看效果
[root@webserver1 ~]# systemctl stop nginx.service
[root@webserver1 ~]# yum install httpd -y
[root@webserver1 ~]# systemctl start httpd
[root@webserver1 ~]# echo webserver1 - 172.25.254.10 > /var/www/html/index.html
是否打开穿透
5.3.1 layer 4 与 layer 7
四层:IP+PORT转发
七层:协议+内容交换
5.3.1.1四层负载
在四层负载设备中,把client发送的报文目标地址(原来是负载均衡设备的IP地址),根据均衡设备设置的选择web服务器的规则选择对应的web服务器IP地址,这样client就可以直接跟此服务器建立TCP连接并发送数据,而四层负载自身不参与建立连接,而和LVS不同,haproxy是伪四层负载均衡,因为haproxy需要分别和前端客户端及后端服务器建立连接
5.3.1.2七层代理
七层负载均衡服务器起了一个反向代理服务器的作用,服务器建立一次TCP连接要三次握手,而client要访问Web Server要先与七层负载设备进行三次握手后建立TCP连接,把要访问的报文信息发送给七层负载均衡;然后七层负载均衡再根据设置的均衡规则选择特定的Web Server,然后通过三次握手与此台Web Server建立TCP连接,然后Web Server把需要的数据发送给七层负载均衡设备,负载均衡设备再把数据发送给client;所以,七层负载均衡设备起到了代理服务器的作用,七层代理需要和Client和后端服务器分别建立连接
5.3.2四层IP透传
#未开启透传的四层代理
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
defaults
mode http
log global
option httplog
option dontlognull
option http-server-close
#option forwardfor except 127.0.0.0/8
option redispatch
retries 3
timeout http-request 10s
timeout queue 1m
timeout connect 10s
timeout client 1m
timeout server 1m
timeout http-keep-alive 10s
timeout check 10s
maxconn 3000
....
listen webcluster
bind *:80
mode tcp
balance roundrobin
#balance static-rr
#balance first
# redirect prefix http://www.baidu.com/
#cookie WEBCOOKIE insert nocache indirect
server web1 172.25.254.10:80 check inter 3s fall 3 rise 5
server web2 172.25.254.20:80 check inter 3s fall 3 rise 5
server wen_sorry 172.25.254.100:8080 backup
[root@haproxy ~]# systemctl restart haproxy.service
#查看nginx配置,为开启时不做修改
[root@webserver2 ~]# vim /etc/nginx/nginx.conf
#在访问haproxy后查看nginx日志
[root@haproxy ~]# curl 172.25.254.100
webserver1 - 172.25.254.10
[root@haproxy ~]# curl 172.25.254.100
webserver2 - 172.25.254.20
[root@webserver2 ~]# tail -n 3 /var/log/nginx/access.log
172.25.254.100 - - [10/Aug/2024:10:56:20 +0800] "GET / HTTP/1.1" 200 27 "-" "curl/7.76.1" "-"
172.25.254.100 - - [10/Aug/2024:10:56:57 +0800] "GET / HTTP/1.1" 200 27 "-" "curl/7.76.1" "-"
172.25.254.100 - - [10/Aug/2024:10:57:01 +0800] "GET / HTTP/1.1" 200 27 "-" "curl/7.76.1" "-"
#在此日志中是无法看到真实访问源地址的
开始四层透传
nginx中
nginx的配置文件需要修改两个地方
haproxy需要开启透传,并且添加send-proxy
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
defaults
mode http
log global
option httplog
option dontlognull
option http-server-close
option forwardfor except 127.0.0.0/8
option redispatch
retries 3
timeout http-request 10s
timeout queue 1m
timeout connect 10s
timeout client 1m
timeout server 1m
timeout http-keep-alive 10s
timeout check 10s
maxconn 3000
.....
listen webcluster
bind *:80
mode tcp
balance roundrobin
#balance static-rr
#balance first
# redirect prefix http://www.baidu.com/
#cookie WEBCOOKIE insert nocache indirect
server web1 172.25.254.10:80 check inter 3s fall 3 rise 5
server web2 172.25.254.20:80 check inter 3s fall 3 rise 5
server wen_sorry 172.25.254.100:8080 backup
[root@haproxy ~]# systemctl restart haproxy.service
[root@webserver2 ~]# vim /etc/nginx/nginx.conf
server {
listen 80 proxy_protocol; #启用此项,将无法直接访问此网站,只能通过四层代理访问
listen [::]:80;
server_name _;
root /usr/share/nginx/html;
# Load configuration files for the default server block.
include /etc/nginx/default.d/*.conf;
error_page 404 /404.html;
location = /404.html {
}
error_page 500 502 503 504 /50x.html;
location = /50x.html {
}
}
[root@webserver2 ~]# systemctl restart nginx
#此时任然无法访问
[root@haproxy ~]# curl 172.25.254.100
webserver1 - 172.25.254.10
[root@haproxy ~]# curl 172.25.254.100
curl: (52) Empty reply from server
[root@haproxy ~]# curl 172.25.254.100
webserver1 - 172.25.254.10
[root@haproxy ~]# curl 172.25.254.100
curl: (52) Empty reply from server
#配置nginx
[root@webserver2 ~]# vim /etc/nginx/nginx.conf
http {
log_format main '$remote_addr - $remote_user [$time_local] "$request" '
' "$proxy_protocol_addr"' #添加
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" "$http_x_forwarded_for"';
[root@webserver2 ~]# systemctl restart nginx
#修改haproxy
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
listen webcluster
bind *:80
mode tcp
balance roundrobin
#balance static-rr
#balance first
# redirect prefix http://www.baidu.com/
#cookie WEBCOOKIE insert nocache indirect
server web1 172.25.254.10:80 check inter 3s fall 3 rise 5
server web2 172.25.254.20:80 send-proxy check inter 3s fall 3 rise 5 #添加send-proxy
server wen_sorry 172.25.254.100:8080 backup
[root@haproxy ~]# systemctl restart haproxy.service
[root@haproxy ~]# curl 172.25.254.100
webserver1 - 172.25.254.10
[root@haproxy ~]# curl 172.25.254.100
webserver2 - 172.25.254.20
[root@webserver2 ~]# tail -n 3 /var/log/nginx/access.log
172.25.254.100 - - [10/Aug/2024:10:56:57 +0800] "GET / HTTP/1.1" 200 27 "-" "curl/7.76.1" "-"
172.25.254.100 - - [10/Aug/2024:10:57:01 +0800] "GET / HTTP/1.1" 200 27 "-" "curl/7.76.1" "-"
172.25.254.100 - - [10/Aug/2024:11:20:30 +0800] "GET / HTTP/1.1" "172.25.254.100"200 27 "-" "curl/7.76.1" "-"
5.3.3七层IP透传
5.3.3.1配置示例
七层IP透传(nginx):
vim/etc/haproxy/haproxy.cfg
defaults
mode http
log global
#option httplog
option dontlognull
option http-server-close
option forwardfor except 127.0.0.0/8 ----- IP透传用到的参数 forwardfor
option redispatch
retries 3
timeout http-request 10s
timeout queue 1m
timeout connect 10s
timeout client 1m
timeout server 1m
timeout http-keep-alive 10s
timeout check 10s
maxconn 1000
listen webcluster
bind *:80
mode http #----七层
balance roundrobin
server web1 172.25.254.10:80 check inter 2 fall 3 rise 5 weight 1
server web2 172.25.254.20:80 check inter 2 fall 3 rise 5 weight 1
5.4 ACL
访问控制列表ACL,Access Control Lists)
是一种基于包过滤的访问控制技术
它可以根据设定的条件对经过服务器传输的数据包进行过滤(条件匹配)即对接收到的报文进行匹配和过滤,基于请求报文头部中的源地址、源端口、目标地址、目标端口、请求方法、URL、文件后缀等信息内容进行匹配并执行进—步操作,比如允许其通过或丢弃。
#示例
frontend test_acl
bind *:80
mode http
acl test hdr_dom(host) -i www.timinglee.org #完全匹配www.timinglee.org
#acl test hdr_end(host) -i .org #以.org结尾
#acl bad_browers hdr_beg(User-Agent) -i curl
#http-request deny if bad_browers
#acl test hdr_dom(host) -i www.timinglee.org
#acl test base_sub -m sub org #匹配模式-m,指定正则表达式,-m sub 在提取的字符串中查找模式,如果其中任何一个被发现,ACL将匹配
#acl test path_sub -m sub /a
#acl test path_end -m sub /a
#acl test path_reg -i ^/t
#acl test url_sub -m sub lee
#acl test path_dir -m sub a
use_backend test_web if test
default_backend default_webserver
backend test_web
mode http
server web2 172.25.254.10:80 check inter 3 fall 3 rise 5
backend default_webserver
mode http
server web1 172.25.254.20:80 check inter 3 fall 3 rise 5
5.4.1 ACL配置选项
#用ac1来定义或声明一个ac1
ac1<ac1name> <criterion>[f1ags] [operator] [<value>]
ac7 名称 匹配规范 匹配模式 具体操作符 操作对象类型
5.4.1.1 ACL-Name名称
acl image_service hdr_dom(host)-i img.magedu. com #-i忽略大小写
acl test path_end -m sub /a
#ACL名称,可以使用大字母A-Z、小写字母a-z、数字O-9、冒号:、点.、中横线和下划线,并且严格区分大小写,比如:my_ac1和My_Ac1就是两个完全不同的ac15.8.1.2 ACL-criterion
5.4.1.2 ACL-criterion匹配规范
定义ACL匹配规范,即:判断条件
hdr string,提取在一个HTTP请求报文的首部
hdr([<name> [,<occ>]]):完全匹配字符串,header的指定信息,<occ> 表示在多值中使用的值的出现次数
hdr_beg([<name> [,<occ>]]):前缀匹配,header中指定匹配内容的begin,(以什么开头)
hdr_end([<name> [,<occ>]]):后缀匹配,header中指定匹配内容end,(以什么结尾)
hdr_dom([<name> [,<occ>]]):域匹配,header中的dom(host)(是什么)
hdr_dir([<name> [,<occ>]]):路径匹配,header的uri路径
hdr_len([<name> [,<occ>]]):长度匹配,header的长度匹配
hdr_reg([<name> [,<occ>]]):正则表达式匹配,自定义表达式(regex)模糊匹配
hdr_sub([<name> [,<occ>]]):子串匹配,header中的uri模糊匹配 模糊匹配c 报文中a/b/c也会匹
配
#示例:
hdr(<string>) 用于测试请求头部首部指定内容
hdr_dom(host) 请求的host名称,如 www.timinglee.org
hdr_beg(host) 请求的host开头,如 www. img. video. download. ftp.
hdr_end(host) 请求的host结尾,如 .com .net .cn
#示例:
acl bad_agent hdr_sub(User-Agent) -i curl wget
http-request deny if bad_agent
#有些功能是类似的,比如以下几个都是匹配用户请求报文中host的开头是不是www
acl short_form hdr_beg(host) www.
acl alternate1 hdr_beg(host) -m beg www.
acl alternate2 hdr_dom(host) -m beg www.
acl alternate3 hdr(host) -m beg www.
base : string
#返回第一个主机头和请求的路径部分的连接,该请求从主机名开始,并在问号之前结束,对虚拟主机有用
<scheme>://<user>:<password>@#<host>:<port>/<path>;<params>#?<query>#<frag>
base : exact string match
base_beg : prefix match (匹配开头)
base_dir : subdir match (匹配子目录)
base_dom : domain match (域匹配)
base_end : suffix match (匹配结尾)
base_len : length match (长度匹配)
base_reg : regex match (正则匹配)
base_sub : substring match (字符串匹配)
path : string
#提取请求的URL路径,该路径从第一个斜杠开始,并在问号之前结束(无主机部分)(<path>;<params>#)
<scheme>://<user>:<password>@<host>:<port>#/<path>;<params>#?<query>#<frag>
path : exact string match
path_beg : prefix match #请求的URL开头,如/static、/images、/img、/css
path_end : suffix match #请求的URL中资源的结尾,如 .gif .png .css .js .jpg .jpeg
path_dom : domain match
path_dir : subdir match
path_len : length match
path_reg : regex match
path_sub : substring match
#示例:
path_beg -i /haproxy-status/
path_end .jpg .jpeg .png .gif
path_reg ^/images.*\.jpeg$
path_sub image
path_dir jpegs
path_dom timinglee
url : string
#提取请求中的整个URL。
url :exact string match
url_beg : prefix match
url_dir : subdir match
url_dom : domain match
url_end : suffix match
url_len : length match
url_reg : regex match
url_sub : substring match
dst #目标IP
dst_port #目标PORT
src #源IP
src_port #源PORT
#示例:
acl invalid_src src 10.0.0.7 192.168.1.0/24
acl invalid_src src 172.16.0.0/24
acl invalid_port src_port 0:1023
status : integer #返回在响应报文中的状态码
#七层协议
acl valid_method method GET HEAD
http-request deny if ! valid_method
5.4.1.3 ACL-flags 匹配模式
ACL匹配模式
-i不区分大小写
-m使用指定的正则表达式匹配方法
-n不做DNS解析
-u禁止ac1重名,否则多个同名ACL匹配或关系
5.4.1.4 ACL-operator具体操作符
ACL操作符
整数比较: eq、ge、gt、 le、1t字符比较:
- exact match( -m str):字符串必须完全匹配模式
- substring match (-m sub) :在提取的字符串中查找模式,如果其中任何一个被发现,ACL将匹配
- prefix match (-m beg):在提取的字符串首部中查找模式,如果其中任何一个被发现,ACL将匹配
- suffix match (-m end) :将模式与提取字符串的尾部进行比较,如果其中任何一个匹配,则ACL进行匹配
- subdir match (-m dir) :查看提取出来的用斜线分隔(“/")的字符串,如其中任一个匹配,则ACL进行匹配
- domain match (-m dom):查找提取的用点(“.")分隔字符串,如果其中任何一个匹配,则ACL进行匹配
5.4.1.5 ACL-value操作对象
value的类型
The AcL engine can match these types against patterns of the following types :
- Boolean #布尔值
- integer or integer range #整数或整数范围,比如用于匹配端口范围
- IP address / network #工P地址或IP范围,192.168.0.1 ,192.168.0.1/24
- string--> www .timinglee.org
exact #精确比较
substring #子串
suffix #后缀比较
prefix #前缀比较
subdir #路径,/wp-includes/js/jquery/jquery.js
domain #域名,www .timinglee.org
- regular expression #正则表达式
- hex block #16进制
5.4.2多个ACL的组合调用方式
多个ACL的逻辑处理
与:隐式(默认)使用
或:使用"or”或“|"表示
否定:使用"!"表示
多个ACL调用方式:
#示例:
if valid_src valid_port #与关系,ACL中A和B都要满足为true,默认为与
if invalid_src ll invalid_port #或,ACL中A或者B满足一个为true
if ! invalid_src #非,取反,不满足ACL才为true
5.4.3 ACL示例-域名匹配
#域名匹配
[root@haproxy ~]# vim /etc/haproxy/haproxy.cfg
frontend webcluster
bind *:80
mode http
acl test hdr_dom(host) -i www.timinglee.org
use_backend webcluster-host if test
default_backend default-host
backend webcluster-host
mode http
server web1 172.25.254.10:80 check inter 2 fall 2 rise 5
backend default-host
mode http
server web2 172.25.254.20:80 check inter 2 fall 2 rise 5
[root@haproxy ~]# systemctl restart haproxy.service
#做本地解析
[root@haproxy ~]# vim /etc/hosts
172.25.254.100 www.timinglee.org www.timelee.cmo bbs.timinglee.org
#访问
[root@haproxy ~]# curl www.timinglee.org
webserver1 - 172.25.254.10
[root@haproxy ~]# curl 172.25.254.100
webserver2 - 172.25.254.20