LVS DR模式搭建
准备
需要三台机器,三台都需要关闭firewalld服务, 并且安装iptables-serives服务,启动iptables服务,并清空iptables规则。
// 分发器(调度器)(简写为dir)
主机名:dir
IP:10.1.1.28 VMware网卡模式为桥接,也可以NAT VMware只保留一个网卡
// Real Server 1
主机名:rs1
IP:10.1.1.30 VMware网卡模式改为桥接,也可以NA
修改nginx默认主页的内容为10.1.1.30
// Real Server 2
主机名:rs2
IP:10.1.1.31 VMware网卡模式改为桥接,也可以NAT
修改nginx默认主页的内容为10.1.1.31
// DR模式比NAT模式多了一个VIP,虚拟IP ,分发器和 rs 都需要绑定这个VIP
VIP:10.1.1.100
配置dir lvs脚本
# vim /usr/local/sbin/lvs_dr.sh
#! /bin/bash
#开启转发
echo 1 > /proc/sys/net/ipv4/ip_forward
# 设置变量
ipv=/usr/sbin/ipvsadm
vip=10.1.1.100
rs1=10.1.1.30
rs2=10.1.1.31
# 绑定VIP ,注意这里的网卡名字,需要用自己的网卡名
ifdown ens33
ifup ens33
ifconfig ens33:2 $vip broadcast $vip netmask 255.255.255.255 up
#设置路由
route add -host $vip dev ens33:2
# 配置LVS规则
$ipv -C
$ipv -A -t $vip:80 -s wrr # 加权轮循模式的LVS虚拟服务器
$ipv -a -t $vip:80 -r $rs1:80 -g -w 2 # -g 使用DR模式,-t 指定的IP为VIP ,权重为2
$ipv -a -t $vip:80 -r $rs2:80 -g -w 1
# 设置ipvsadm规则,-g=gateway:使用默认网关(DR模式)
运行脚本
# sh /usr/local/sbin/lvs_dr.sh
成功断开设备 'ens33'。
成功激活的连接(D-Bus 激活路径:/org/freedesktop/NetworkManager/ActiveConnection/2)
使用ipvsadm -ln 命令查看ipvsadm规则
# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP 10.1.1.100:80 wrr
-> 10.1.1.30:80 Route 2 0 0
-> 10.1.1.31:80 Route 1 0 0
编写两台 rs 的脚本
# vim /usr/local/sbin/lvs_rs.sh
#/bin/bash
vip=10.1.1.100
#把vip绑定在lo上,是为了实现rs直接把结果返回给客户端
ifconfig lo:0 $vip broadcast $vip netmask 255.255.255.255 up
route add -host $vip lo:0
#以下操作为更改arp内核参数,目的是为了让rs顺利发送mac地址给客户端
#参考文档www.cnblogs.com/lgfeng/archive/2012/10/16/2726308.html
echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
编辑完分别在两台 rs 上执行这个脚本
# sh !$
sh /usr/local/sbin/lvs_dr.sh
测试
// 拿一台虚拟机来模拟客户端请求访问
# curl 10.1.1.100
10.1.1.30
# curl 10.1.1.100
10.1.1.30
# curl 10.1.1.100
10.1.1.31
//或者浏览器访问VIP
keepalived + LVS
当单独使用LVS负载的时候,如果其中一台 rs 宕机了,就会出问题,所以就需要使用到keepalived+LVS的架构了。keepalived有一个比较好的功能,可以在 rs 宕机时,不再把请求转发过去。
环境准备
完整架构需要两台服务器(角色为dir)分别安装keepalived软件,目的是实现高可用,但keepalived本身也有负载均衡的功能,所以本次实验可以只安装一台keepalived。keepalived内置了ipvsadm的功能,所以不需要再安装ipvsadm包,也不用编写和执行那个lvs_dir的脚本
dir 10.1.1.28(安装keepalived)
rs1 10.1.1.30
rs2 10.1.1.31
vip 10.1.1.100
编辑keepalived配置文件
# vim /etc/keepalived/keepalived.conf
vrrp_instance VI_1 {
#备用服务器上为 BACKUP
state MASTER
#绑定vip的网卡为ens33,网卡名可能不一样,这里需要你改一下
interface ens33
virtual_router_id 51
#备用服务器上为90
priority 100
advert_int 1
authentication {
auth_type PASS
auth_pass 123456
}
virtual_ipaddress {
10.1.1.100
}
}
virtual_server 10.1.1.100 80 {
#(每隔10秒查询realserver状态)
delay_loop 10
#(lvs 算法)
lb_algo wrr
#(DR模式)
lb_kind DR
#(同一IP的连接60秒内被分配到同一台realserver)
persistence_timeout 60
#(用TCP协议检查realserver状态)
protocol TCP
real_server 10.1.1.30 80 {
#(权重)
weight 2
TCP_CHECK {
#(10秒无响应超时)
connect_timeout 10
nb_get_retry 3
delay_before_retry 3
connect_port 80
}
}
real_server 10.1.1.31 80 {
weight 1
TCP_CHECK {
connect_timeout 10
nb_get_retry 3
delay_before_retry 3
connect_port 80
}
}
}
清空之前的ipvsadm规则和VIP
// 最好每个主机都执行一遍
# ipvsadm -C
systemctl restart network
两台rs上,依然要执行/usr/local/sbin/lvs_rs.sh脚本
sh /usr/local/sbin/lvs_rs.sh
启动keepalived
# systemctl start keepalived
测试
// 启动keepalived
# systemctl start keepalived
# ps -ef | grep keep
root 4816 1 0 00:47 ? 00:00:00 /usr/sbin/keepalived -D
root 4817 4816 0 00:47 ? 00:00:00 /usr/sbin/keepalived -D
root 4818 4816 0 00:47 ? 00:00:00 /usr/sbin/keepalived -D
root 4822 3874 0 00:47 pts/1 00:00:00 grep --color=auto keep
//查看ipvsadm规则,可以看到目前有两台 rs
# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP 10.1.1.100:80 wrr persistent 60
-> 10.1.1.30:80 Route 2 0 0
-> 10.1.1.31:80 Route 1 0 0
// 模拟故障将 rs1 的 nginx 服务关闭
# nginx -s stop
// 再次查看 dir 上的 ipvsadm 规则,只有一台 rs 的规则了。 可能需要过几秒钟才会有变化
# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP 10.1.1.100:80 wrr persistent 60
-> 10.1.1.31:80 Route 1 0 0
// 再将 rs1 的 nginx 服务开启
# /etc/init.d/nginx start
# ps -ef | grep nginx
root 3522 1 0 00:54 ? 00:00:00 nginx: master process nginx
nginx 3523 3522 0 00:54 ? 00:00:00 nginx: worker process
nginx 3524 3522 0 00:54 ? 00:00:00 nginx: worker process
nginx 3525 3522 0 00:54 ? 00:00:00 nginx: worker process
nginx 3526 3522 0 00:54 ? 00:00:00 nginx: worker process
// 在查看 dir 的 ipvsadm规则,可以看到又有了两台 rs
# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP 10.1.1.100:80 wrr persistent 60
-> 10.1.1.30:80 Route 2 0 0
-> 10.1.1.31:80 Route 1 0 0
拓展
heartbeat和keepalived比较http://blog.csdn.net/yunhua_lee/article/details/9788433
DRBD工作原理和配置 http://502245466.blog.51cto.com/7559397/1298945
mysql+keepalived http://lizhenliang.blog.51cto.com/7876557/1362313
lvs 三种模式详解 http://www.it165.net/admin/html/201401/2248.html
lvs几种算法 http://www.aminglinux.com/bbs/thread-7407-1-1.html
关于arp_ignore和 arp_announce http://www.cnblogs.com/lgfeng/archive/2012/10/16/2726308.html
lvs原理相关的 http://blog.csdn.net/pi9nc/article/details/23380589
haproxy+keepalived http://blog.csdn.net/xrt95050/article/details/40926255
nginx、lvs、haproxy比较 http://www.csdn.net/article/2014-07-24/2820837
keepalived中自定义脚本 vrrp_script http://my.oschina.net/hncscwc/blog/158746
lvs dr模式只使用一个公网ip的实现方法 http://storysky.blog.51cto.com/628458/338726