实验环境搭建
- 在linux环境中,通过母盘是redhat7.6的操作系统,克隆搭建四台域名分别为node1,node2, node3,node4; 主机名分别为server1,server2,server3, server4的四台虚拟机。(名称可以任选)
- 给四台主机分别配置好各自的ip地址和dns地址解析,实现四台虚拟机可以互相ping通。
对于虚拟机的ip和对应的dns解析可以参考
- 配置好四台主机的yum源仓库,(可以通过宿主机的httpd服务,搭建网络仓库)
- 关闭掉所有虚拟机的防火墙,并将所有主机的selinux设置为disabled状态
lvs 四层实现http的负载均衡
lvs 的四种工作模式
- DR 工作模式
原理: 当用户访问lvs调度器(vs)上的vip时,是通过修改请求报文的目标mac地址,在数据链路层通过调度算法将请求转发给真实服务器(rs),而真实服务器响应后的处理结果直接返回给客户端用户;所以说,vs 和rs 要都有vip,只是用arptables 处理了rs在数据链路层arp转发。由于必须处于同一vlan下,受到了局限性,但是其工作效率很高。
client --> vs --> rs --> client
DR的不足:
- LVS - RS 间必须在同一个VLAN
- RS上绑定VIP,风险太大
- NAT 工作模式
原理: 这个是通过网络地址转换的方法来实现调度的。首先调度器(LB)接收到客户的请求数据包时(请求的目的IP为VIP),根据调度算法决定将请求发送给哪个后端的真实服务器(RS)。然后调度就把客户端发送的请求数据包的目标IP地址及端口改成后端真实服务器的IP地址(RIP),这样真实服务器(RS)就能够接收到客户的请求数据包了。真实服务器响应完请求后,查看默认路由(NAT模式下我们需要把RS的默认路由设置为LB服务器。)把响应后的数据包发送给LB,LB再接收到响应包后,把包的源地址改成虚拟地址(VIP)然后发送回给客户端。
client --> vs --> rs --> vs --> client
相当于数据流进入到VS时,做了一次DNAT, 从VS出去的时候做了一次SNAT
不足: RS/ROUTER 要配置策略路由
- TUN 工作模式(隧道工作模式)
原理:客户请求包封装在一个IP tunnel里面,然后发送给RS节点服务器,节点服务器接收到之后解开IP tunnel后,进行响应处理。并且直接把包通过自己的外网地址发送给客户不用经过LB服务器
不足:
- RS配置复杂(IPIP模块)
- RS上绑定VIP,风险比较大
- FULLNAT 工作模式(不是系统自带)
主要思想:引入local address(内网ip地址),cip-vip转换为lip->rip,而 lip和rip均为IDC内网ip,可以跨vlan通讯
利用DR工作模式和轮询调度算法实现httpd的负载均衡
实现步骤:
yum install ipvsadm -y
安装lvs管理器
- 添加虚拟IP,‘rr’ 轮询调度算法
ipvsadm -A -t 172.25.3.100:80 -s rr
- 添加虚拟IP的rs服务器
ipvsadm -a -t 172.25.3.100:80 -r 172.25.3.3:80 -g
ipvsadm -a -t 172.25.3.100:80 -r 172.25.3.4:80 -g
ipvsadm -ln
查看lvs 调度器
在server3和server4上开启httpd服务
4.分别在server2, server3, server4 上添加虚拟ip ,在宿主机上
curl 172.25.3.100
测试,用arp -an | grep 100
查看收到arp报文对应的mac地址,arp -d 172.25.3.100
删除指定ip的arp缓存。
- 在server3 和server4
yum install arptables -y
安装arp防火墙
添加arptables访问规则
server3:
1).arptables -A INPUT -d 172.25.3.100 -j DROP
2).arptables -A OUTPUT -s 172.25.3.100 -j mangle --mangle-ip-s 172.25.3.3
3).systemctl start arptables
server4:
1).arptables -A INPUT -d 172.25.3.100 -j DROP
2).arptables -A OUTPUT -s 172.25.3.100 -j mangle --mangle-ip-s 172.25.3.4
3).systemctl start arptables
- 访问测试
keepalive + lvs
实验原理:利用keepalive中的vrrp协议实现高可用,TCP_CHECK实现对后端rs进行健康检测
实验步骤:
- 在server1和server2 上
yum install keepalive -y
- 修改server2配置文件,让server2做主用机
- 修改server1 上keepalive的配置文件, 和server2上keepalive配置文件差不多,可以scp过来,主要修改
- 访问测试,当server2的keepalive停止之后,vip会自动漂移到server1上,不会影响客户端对后端服务器的访问,但是设置成主备机时,当server2的keepalive重新启动时,会抢占资源。
当再次启动server2的keepalive时,会抢占资源
- 可以通过修改server2的keepalive配置文件,当重启服务时,vip 就不会从server1自动漂移到server2上