LVS负载均衡群集DR模式

LVS负载均衡群集DR模式

一.LVS-DR集群介绍

  • LVS-DR(Linux Virtual Server Director Server)工作模式,是生产环境中最常用的一 种工作模式。

1.LVS-DR 工作原理

LVS-DR 模式,Director Server 作为群集的访问入口,不作为网关使用,节点 Director Server 与 Real Server 需要在同一个网络中,返回给客户端的数据不需要经过 Director Server。为了响应对整个群集的访问,Director Server 与 Real Server 都需要配置 VIP 地址。

2. 数据包流向分析

为方便进行原理分析,将Client与群集机器放在同一网络中,数据包流经的路线为 1-2-3-4 四步

第一步:客户端发送请求到 Director Server (负载均衡器),请求的数据报文到达内核空间。

此时请求的数据报文
源 IP —— 客户端的 IP(CIP)
目标 IP —— VIP
源 MAC —— 客户端的 MAC
目的 MAC —— Director Server 的 MAC

第二步:内核空间判断数据包的目标 IP 是本机 VIP,此时 IPVS(IP 虚拟服务器)比对数据包请求的服务是否是集群服务,是集群服务就重新封装数据包。然后将数据包发送给根据 负载均衡算法选择的 Real Server。(Director Server 和 Real Server 在同一个网络中,数据通过二层数据链路层来传输。)

此时请求的数据报文
源 IP —— 客户端的 IP
目标 IP —— VIP
源 MAC —— Director Server 的 MAC
目的 MAC —— Real Server 的 MAC

第三步:到达 Real Server 的请求报文的 MAC 地址是自身的 MAC 地址,就接收此报文。数据包重新封装报文,将响应报文通过 lo 接口传送给物理网卡然后向外发出。

此时请求的数据报文
源 IP —— VIP
目标 IP —— 客户端的 IP(CIP)
源 MAC —— Real Server 的 MAC
目的 MAC —— 客户端的 MAC

第四步:通过交换机和路由器将响应报文传送到客户端。客户端收到回复报文,得到想要的服务,但是不会知道是哪台服务器处理的。

3.LVS-DR 模式的特点

  • Director Server 和 Real Server 必须在同一个物理网络中。

  • Real Server 可以使用私有地址,也可以使用公网地址。如果使用公网地址,可以通过 互联网对 RIP 进行直接访问。

  • Director Server作为集群的访问入口,但不作为网关使用。

  • 所有的请求报文经由 Director Server,但回复响应报文不能经过 Director Server。

  • Real Server 的网关不允许指向 Director Server IP,即不允许数据包经过 Director S erver。

  • Real Server 上的 lo 接口配置 VIP 的 IP 地址。

4.LVS-DR中的ARP问题

4.1 问题一

在LVS-DR负载均衡集群中,负载均衡器与节点服务器都要配置相同的VIP地址,在局域网中具有相同的IP地址。势必会造成各服务器ARP通信的紊乱

当ARP广播发送到LVS-DR集群时,因为负载均衡器和节点服务器都是连接到相同的网络上,它们都会接收到ARP广播

只有前端的负载均衡器进行响应,其他节点服务器不应该响应ARP广播

解决方法:

对<font color='red’进行处理,使其不响应针对VIP的ARP请求

使用虚接口lo:0承载VIP地址

设置内核参数arp_ ignore=1: 系统只响应目的IP为本地IP的ARP请求

4.2问题二

问题说明:RealServer返回报文(源IP是VIP)经路由器转发,重新封装报文时,需要先获取路由器的MAC地址,发送ARP请求时,Linux默认使用IP包的源IP地址(即VIP)作为ARP请求包中的源IP地址,而不使用发送接口的IP地址,路由器收到ARP请求后,将更新ARP表项,原有的VIP对应Director的MAC地址会被更新为VIP对应RealServer的MAC地址。

路由器根据ARP表项,会将新来的请求报文转发给RealServer,导致Director的VIP失效

解决方法:

对节点服务器进行处理,设置内核参数arp_announce=2:系统不使用IP包的源地址来设置ARP请求的源地址,而选择发送接口的IP地址

二.构建LVS-DR集群

(1)构建LVS-DR集群的步骤(理论)

实验环境准备:

DR 服务器:192.168.153.40 vip:192.168.153.100

Web 服务器1:192.168.153.50

Web 服务器2:192.168.153.60

NFS共享服务器:192.168.153.70

客户端:192.168153.200

1.配置负载调度器(192.168.153.40)

systemctl stop firewalld.service
setenforce 0
modprobe ip_vs
cat /proc/net/ip_vs
yum -y install ipvsadm

(1)配置虚拟 IP 地址(VIP:192.168.153.100)

cd /etc/sysconfig/network-scripts/
cp ifcfg-ens33 ifcfg-ens33:0                  #若隧道模式,复制为ifcfg-tunl0(小写字母l)

vim ifcfg-ens33:0

DEVICE=ens33:0
ONBOOT=yes                                    #开机自动激活
IPADDR=192.168.153.100
NETMASK=255.255.255.255

ifup ens33:0
ifconfig ens33:0
route add -host 192.168.153.100 dev ens33:0

(2)调整 proc 响应参数

由于 LVS 负载调度器和各节点需要共用 VIP 地址,应该关闭Linux 内核的重定向参数响应。

vim /etc/sysctl.conf

net.ipv4.ip_forward = 1
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.ens33.send_redirects = 0

sysctl -p                        #刷新设置

(3)配置负载分配策略

ipvsadm-save > /etc/sysconfig/ipvsadm                    #保存策略
systemctl start ipvsadm

ipvsadm -C
ipvsadm -A -t 192.168.80.153:100 -s rr                    #添加虚拟服务器
ipvsadm -a -t 192.168.80.153:100 -r 192.168.80.10:80 -g             #若隧道模式,-g替换为-i
ipvsadm -a -t 192.168.153.100:80 -r 192.168.80.20:80 -g             #添加真实服务器
ipvsadm                                                            #激活

ipvsadm -ln                    #查看节点状态,Route代表 DR模式

2.部署共享存储(NFS服务器:192.168.153.50)

systemctl stop firewalld.service
setenforce 0
 
yum -y install nfs-utils rpcbind
mkdir /opt/accp /opt/benet
chmod 777 /opt/kgc /opt/benet
 
vim /etc/exports
 
/opt/kgc 192.168.153.0/24(ro,sync)
/opt/benet 192.168.153.0/24(ro,sync)
 
systemctl start nfs.service
systemctl start rpcbind.service

3.配置节点服务器(192.168.153.60、192.168.153.70)

systemctl stop firewalld.service
setenforce 0

(1)配置虚拟 IP 地址(VIP:192.168.153.100)

此地址仅用作发送Web响应数据包的源地址,并不需要监听客户机的访问请求(改由调度器监听并分发)。因此使用虚接口lo:0来承载VIP地址,并为本机添加一条路由记录,将访问VIP的数据限制在本地,以避免通信紊乱。

cd /etc/sysconfig/network-scripts/
cp ifcfg-ens33 ifcfg-lo:0
vim ifcfg-lo:0
 
DEVICE=lo:0
ONBOOT=yes
IPADDR=192.168.153.100 #和VIP保持一致
NETMASK=255.255.255.255 #注意:子网掩码必须全为 1
 
ifup lo:0
ifconfig lo:0
route add -host 192.168.153.100 dev lo:0 #添加VIP本地访问路由,将访问VIP的数据限制在本地,以避免通信紊乱
 
vim /etc/rc.local
 
/sbin/route add -host 192.168.153.100 dev lo:0

(2)调整 proc 响应参数

vim /etc/sysctl.conf
......
net.ipv4.conf.lo.arp_ignore = 1 #系统只响应目的IP为本地IP的ARP请求
net.ipv4.conf.lo.arp_announce = 2 #系统不使用IP包的源地址来设置ARP请求的源地址,而选择发送接口的IP地址
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2
 
sysctl -p
 
 
或者 临时添加
 
echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
 
sysctl -p
 
yum -y install nfs-utils rpcbind httpd
systemctl start rpcbind
systemctl start httpd
 
--192.168.153.60---
mount 192.168.153.50:/opt/accp /var/www/html
echo 'this is accp web!' > /var/www/html/index.html
 
--192.168.153.70---
mount.nfs 192.168.153.50:/opt/benet /var/www/html
echo 'this is benet web!' > /var/www/html/index.html

4.测试 LVS 群集

在客户端使用浏览器访问 http://192.168.153.100/,默认网关指向192.168.153.100

(2)构建LVS-DR集群操作的具体步骤(实操)

环境搭建工作:

1.web1配置如下

在这里插入图片描述
在这里插入图片描述

2.web2配置如下:

在这里插入图片描述

3.DR服务器配置如下:
在这里插入图片描述

4.NFS共享服务器配置如下:

在这里插入图片描述

5.客户机配置如下:

在这里插入图片描述

6.关闭所有服务器的防护墙和selinux

在这里插入图片描述

第一步:配置负载调度器(192.168.153.40)

1)加载模块并安装管理工具

在这里插入图片描述

2)配置虚拟ip
在这里插入图片描述
在这里插入图片描述

3)开启虚拟网卡并添加主机路由

在这里插入图片描述

4)关闭Linux 内核的重定向参数响应

在这里插入图片描述

5)刷新设置

在这里插入图片描述

6)配置负载分配策略

在这里插入图片描述

第二步:部署共享存储(NFS服务器:192.168.153.50)

1)安装nfs-utils rpcbind程序(yum源提前配置好)并配置发布目录和策略

在这里插入图片描述

在这里插入图片描述

2)发布共享

在这里插入图片描述

3)开启服务并设置开机自启动

在这里插入图片描述

第三步:配置节点服务器(192.168.153.60和192.168.153.70)

1)web1服务器配置如下:

在这里插入图片描述
在这里插入图片描述

2)开启接口并为本机添加路由记录

在这里插入图片描述

3)调整 proc 响应参数

在这里插入图片描述

4)刷新配置

在这里插入图片描述

5)安装nfs-utils rpcbind httpd
在这里插入图片描述

6)开启服务并查看状态确认

在这里插入图片描述

7)挂载共享目录并创建本机的html文件

在这里插入图片描述

8)在浏览器中输入本机ip进行确认

在这里插入图片描述

9)web2服务器配置步骤和web1一致,步骤如下:

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

第四步:在客户机上测试
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值