keepalive+Lvs 实现高可用负载均衡

实验环境搭建

  1. 在linux环境中,通过母盘是redhat7.6的操作系统,克隆搭建四台域名分别为node1,node2, node3,node4; 主机名分别为server1,server2,server3, server4的四台虚拟机。(名称可以任选)
  2. 给四台主机分别配置好各自的ip地址和dns地址解析,实现四台虚拟机可以互相ping通。

对于虚拟机的ip和对应的dns解析可以参考
在这里插入图片描述

  1. 配置好四台主机的yum源仓库,(可以通过宿主机的httpd服务,搭建网络仓库)
  2. 关闭掉所有虚拟机的防火墙,并将所有主机的selinux设置为disabled状态

lvs 四层实现http的负载均衡

lvs 的四种工作模式

  1. DR 工作模式

原理: 当用户访问lvs调度器(vs)上的vip时,是通过修改请求报文的目标mac地址,在数据链路层通过调度算法将请求转发给真实服务器(rs),而真实服务器响应后的处理结果直接返回给客户端用户;所以说,vs 和rs 要都有vip,只是用arptables 处理了rs在数据链路层arp转发。由于必须处于同一vlan下,受到了局限性,但是其工作效率很高。
client --> vs --> rs --> client
DR的不足:

  1. LVS - RS 间必须在同一个VLAN
  2. RS上绑定VIP,风险太大
  1. NAT 工作模式

原理: 这个是通过网络地址转换的方法来实现调度的。首先调度器(LB)接收到客户的请求数据包时(请求的目的IP为VIP),根据调度算法决定将请求发送给哪个后端的真实服务器(RS)。然后调度就把客户端发送的请求数据包的目标IP地址及端口改成后端真实服务器的IP地址(RIP),这样真实服务器(RS)就能够接收到客户的请求数据包了。真实服务器响应完请求后,查看默认路由(NAT模式下我们需要把RS的默认路由设置为LB服务器。)把响应后的数据包发送给LB,LB再接收到响应包后,把包的源地址改成虚拟地址(VIP)然后发送回给客户端。
client --> vs --> rs --> vs --> client
相当于数据流进入到VS时,做了一次DNAT, 从VS出去的时候做了一次SNAT
不足: RS/ROUTER 要配置策略路由

  1. TUN 工作模式(隧道工作模式)

原理:客户请求包封装在一个IP tunnel里面,然后发送给RS节点服务器,节点服务器接收到之后解开IP tunnel后,进行响应处理。并且直接把包通过自己的外网地址发送给客户不用经过LB服务器
不足:

  1. RS配置复杂(IPIP模块)
  2. RS上绑定VIP,风险比较大
  1. FULLNAT 工作模式(不是系统自带)

主要思想:引入local address(内网ip地址),cip-vip转换为lip->rip,而 lip和rip均为IDC内网ip,可以跨vlan通讯

利用DR工作模式和轮询调度算法实现httpd的负载均衡

实现步骤:

  1. yum install ipvsadm -y 安装lvs管理器
  1. 添加虚拟IP,‘rr’ 轮询调度算法
    ipvsadm -A -t 172.25.3.100:80 -s rr
  1. 添加虚拟IP的rs服务器
    ipvsadm -a -t 172.25.3.100:80 -r 172.25.3.3:80 -g
    ipvsadm -a -t 172.25.3.100:80 -r 172.25.3.4:80 -g
    ipvsadm -ln 查看lvs 调度器
    在server3和server4上开启httpd服务在这里插入图片描述

4.分别在server2, server3, server4 上添加虚拟ip ,在宿主机上curl 172.25.3.100测试,用arp -an | grep 100查看收到arp报文对应的mac地址,arp -d 172.25.3.100 删除指定ip的arp缓存。

  1. 在server3 和server4 yum install arptables -y 安装arp防火墙
    添加arptables访问规则
    server3:
    1). arptables -A INPUT -d 172.25.3.100 -j DROP
    2). arptables -A OUTPUT -s 172.25.3.100 -j mangle --mangle-ip-s 172.25.3.3
    3). systemctl start arptables
    server4:
    1). arptables -A INPUT -d 172.25.3.100 -j DROP
    2). arptables -A OUTPUT -s 172.25.3.100 -j mangle --mangle-ip-s 172.25.3.4
    3). systemctl start arptables
    在这里插入图片描述
  1. 访问测试在这里插入图片描述

keepalive + lvs

实验原理:利用keepalive中的vrrp协议实现高可用,TCP_CHECK实现对后端rs进行健康检测
实验步骤:

  1. 在server1和server2 上yum install keepalive -y
  1. 修改server2配置文件,让server2做主用机在这里插入图片描述在这里插入图片描述
  1. 修改server1 上keepalive的配置文件, 和server2上keepalive配置文件差不多,可以scp过来,主要修改在这里插入图片描述
  1. 访问测试,当server2的keepalive停止之后,vip会自动漂移到server1上,不会影响客户端对后端服务器的访问,但是设置成主备机时,当server2的keepalive重新启动时,会抢占资源。在这里插入图片描述
    当再次启动server2的keepalive时,会抢占资源
    在这里插入图片描述
  1. 可以通过修改server2的keepalive配置文件,当重启服务时,vip 就不会从server1自动漂移到server2上
    在这里插入图片描述
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 4
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值