LVS+keepalived实现负载均衡 (系列一)
本文介绍LVS+keepalived实现负载均衡的方案,采用DR模式
LVS+keepalived实现负载均衡 (系列一);
nginx+keepalived实现负载均衡 (系列二)
HAProxy+keepalived实现负载均衡(系列三)
软件环境
本文是在如下环境进行安装
- CentOS 6.9
- JDK 1.7
- Keepalived v1.2.13 (yum安装,版本随意)
- apache-tomcat-8.5.39.tar.gz (版本随意,主要用于启动web服务)
服务器规划
可以用虚拟机系统,分别用4台服务器,别名是
- lvs1:作为lvs主,IP
192.168.1.101
- lvs2:作为lvs热备,IP
192.168.1.102
- real1:作为真实接口服务器,IP
192.168.1.103
- real2:同样是真是接口服务器,IP
192.168.1.104
VIP(虚拟IP)定为192.168.1.200
实验步骤
如无特别说明,使用root帐号操作
一、安装LVS模块
由于Linux 2.4 内核以上已经集成,不用安装,如需安装,仅针对 lvs1
和 lvs2
安装
注: 目前基本所有的 Linux 系统都无需额外安装
二、基础准备工作
四台机器都要按如下操作
- 绑定静态IP
- 设置主机名,设置完成后需要重启
- 修改
hosts
,方便适用别名访问
vim /etc/hosts,添加如下
192.168.80.101 lvs1
192.168.80.102 lvs2
192.168.80.103 real1
192.168.80.104 real2
- 关闭防火墙,并禁止开机启动
service iptables stop
chkconfig iptables off
三、配置2台 Web 服务器
以下仅针对2台 Web 服务器(real1
、real2
)操作
- 安装 JDK 并配置环境变量,版本随意,选择7或8都可以
- 上传
apache-tomcat-8.5.39.tar.gz
到服务器,位置随意 - 解压,保持默认的8080端口,启动Tomcat
- 检查是否可以访问:
curl http://127.0.0.1:8080
- 修改Tomcat的首页,增加标记,以便访问时可知道落到哪台服务器
vim TOMCAT_HOME/webapps/ROOT/index.jsp
在
If you're seeing this, you've successfully installed Tomcat. Congratulations!
前面添加本机的标识,以便检验负载均衡效果的时候可以区分是什么机器,在这句话前面添加
real1 或 real2
- 在宿主机的浏览器中访问如下URL并检查是否修改成功
- 配置realserver (关键)
-
进入指定目录:cd /etc/init.d/
-
编辑脚本(文件不存在自行创建):vim realserver,文件内容在最后见:
realserver
脚本对于2台 Web 服务器都是一样的,如果你不是使用
192.168.1.200
作为VIP,则需要修改SNS_VIP,注意在别的教程里拷贝的脚本可能会出错,按照我这个即可保证正确(据说其他教程出错是因为. /etc/rc.d/init.d/functions
少了一个点) -
保存脚本文件后更改该文件权限:chmod 755 realserver
-
开启realserver服务:service realserver start,启动成功后使用
ip addr
查看lo
网卡是否出现VIP
-
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet 192.168.1.200/32 brd 192.168.1.200 scope global lo:0
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
realserver
脚本:
#vi /usr/local/sbin/realserver.sh
#!/bin/bash
# description: Config realserver lo and apply noarp
#Written by :NetSeek http://www.linuxtone.org
SNS_VIP=192.168.1.200
. /etc/rc.d/init.d/functions
case "$1" in
start)
ifconfig lo:0 $SNS_VIP netmask 255.255.255.255 broadcast $SNS_VIP
/sbin/route add -host $SNS_VIP dev lo:0
echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
sysctl -p >/dev/null 2>&1
echo "RealServer Start OK"
;;
stop)
ifconfig lo:0 down
route del $SNS_VIP >/dev/null 2>&1
echo "0" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "0" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "0" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "0" >/proc/sys/net/ipv4/conf/all/arp_announce
echo "RealServer Stoped"
;;
*)
echo "Usage: $0 {start|stop}"
exit 1
esac
exit 0
四、配置主负载服务器lvs1
只针对lvs1
进行操作
- 安装 keepalived 相关包:
yum install -y keepalived
- 编辑 keepalived.conf 配置文件:也可以备份原来的配置再修改,
vim /etc/keepalived/keepalived.conf
,修改内容如下:
vrrp_instance VI_1 {
state MASTER # 指定keepalived的角色,MASTER为主,BACKUP为备
interface eth0 # 当前进行vrrp通讯的网络接口卡(当前centos的网卡)
virtual_router_id 66 # 虚拟路由编号,主备要一致
priority 100 # 优先级,数值越大,获取处理请求的优先级越高
advert_int 1 # 检查间隔,默认为1s(vrrp组播周期秒数)
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.1.200 # 定义虚拟ip(VIP),可多设,每行一个
}
}
# 定义对外提供的LVS的VIP以及port
virtual_server 192.168.1.200 8080 {
delay_loop 6 # 设置健康检查时间,单位为秒
lb_algo wrr # 设置负载调度的算法为wrr
lb_kind DR # 设置lvs实现负载的机制,有NAT、TUN、DR三个模式
nat_mask 255.255.255.0
persistence_timeout 0 # 同一IP 0秒内的请求都发到同个real server
protocol TCP
real_server 192.168.1.103 8080 { # 指定real server1的ip地址
weight 3 # 配置节点权值,数值越大权重越高
TCP_CHECK {
connect_timeout 10
nb_get_retry 3
delay_before_retry 3
}
}
real_server 192.168.1.104 8080 {
weight 3
TCP_CHECK {
connect_timeout 10
nb_get_retry 3
delay_before_retry 3
}
}
}
配置文件说明:
state MASTER
保证是 MASTER 的值interface eth0
的 eth0,要看你自己的网卡主要是用了什么名字,一般是eth0,有些人可能是eth1,请ifconfig查看virtual_router_id
,虚拟路由编号,主备服务器要一致priority
,优先级,主备配成不一致,主大点,备小点,例如主100,备99,或主101,备100authentication
,不用改,不清楚是什么作用virtual_ipaddress
,改成VIP,如果你不是用本文的VIP,请修改成自己的- 配置
virtual_server
,这里的VIP和端口根据自己的情况配置,real_server
的IP和端口配置成实际需要转发的IP和端口(可以用主机名)
注意:网上其他教程贴的配置多global_defs
的内容,实际上是不需要的,这样的例子展示出来容易误导人,让人不知道如何修改
global_defs {
notification_email {
997914490@qq.com
}
notification_email_from sns-lvs@gmail.com
smtp_server 192.168.1.114
smtp_connection_timeout 30
router_id LVS_MASTER # 设置lvs的id,在一个网络应该是唯一的
}
- 配置好文件后,启动服务:
service keepalived start
五、配置备用负载服务器lvs2
总体跟配置祝福在服务器lvs1差不多,主要是配置文件有少许的差别,步骤如下
- 安装 keepalived 相关包:
yum install -y keepalived
- 编 辑keepalived.conf 配置文件:也可以备份原来的配置再修改,
vim /etc/keepalived/keepalived.conf
,修改内容如下:
vrrp_instance VI_1 {
state BACKUP # 指定keepalived的角色,MASTER为主,BACKUP为备
interface eth0 # 当前进行vrrp通讯的网络接口卡(当前centos的网卡)
virtual_router_id 66 # 虚拟路由编号,主备要一致
priority 99 # 优先级,数值越大,获取处理请求的优先级越高
advert_int 1 # 检查间隔,默认为1s(vrrp组播周期秒数)
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.1.200 # 定义虚拟ip(VIP),可多设,每行一个
}
}
# 定义对外提供的LVS的VIP以及port
virtual_server 192.168.1.200 8080 {
delay_loop 6 # 设置健康检查时间,单位为秒
lb_algo wrr # 设置负载调度的算法为wrr
lb_kind DR # 设置lvs实现负载的机制,有NAT、TUN、DR三个模式
nat_mask 255.255.255.0
persistence_timeout 0 # 同一IP 0秒内的请求都发到同个real server
protocol TCP
real_server 192.168.1.103 8080 { # 指定real server1的ip地址
weight 3 # 配置节点权值,数值越大权重越高
TCP_CHECK {
connect_timeout 10
nb_get_retry 3
delay_before_retry 3
}
}
real_server 192.168.1.104 8080 {
weight 3
TCP_CHECK {
connect_timeout 10
nb_get_retry 3
delay_before_retry 3
}
}
}
跟主LVS的配置的区别是:
state
改成了BACKUP
priority
比主的小一点- 注意
virtual_router_id
保持一致
- 配置好文件后,启动服务:
service keepalived start
验证和测试
一、理论验证
- 检验是否配置正确:在
lvs1
使用ip addr
查看eth0网卡必须有VIP存在,在lvs2
上则无(这是因为是热备的原因)
# 在lvs1上查看,看到192.168.1.200,而在lvs2上查看不到
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether ea:46:1b:19:0c:a6 brd ff:ff:ff:ff:ff:ff
inet 192.168.1.249/23 brd 192.168.1.255 scope global eth0
inet 192.168.1.200/32 scope global eth0
inet6 fe80::e846:1bff:fe19:ca6/64 scope link
valid_lft forever preferred_lft forever
-
在
lvs1
上关闭keepalived:service keepadlived stop
再使用ip addr
查看,发现lvs1
绑定的VIP没了,而在lvs2
上出现了,说明了主备的架构生效了,实现了备用顶替主的情况 -
重新在
lvs1
上将keepalived启动:service keepalived start
,则lvs1
重新抢回了主,这是因为其优先级比较高,恢复后抢回主动权 -
尝试在宿主机打开命令行窗口,PING 一下VIP:
ping 192.168.1.200
,应该是能ping通的,如果不通,说明有其他问题,必须解决
二、动手验证
1、在宿主机浏览器上输入VIP
可以观察到浏览器中显示Tomcat的欢迎页面,并且页面轮流转发到real1 和 real2 上
注意:
笔者在实验中发生过了访问上述IP却不能正确转到real1 和 real2 上,是有点奇怪,后面又恢复可以了,原因暂未找到,可能是防火墙?
2、当 Web 服务器其中一台发生故障
关闭 real1 或 real2 的 Tomcat,会发现固定得转发请求到正常的机器,当关闭的服务器上线后,可以实现重新加入集群并接受转发
测试下来似乎和Nginx一样,即如果 a 请求,发送到 real1 后如果发生问题,会重新分给 real2,似乎是这样,如果你们研究不是这样,请留言纠正
3、当"主"宕机,"备"上线
在"主"的服务器上执行service keepalived stop
模拟宕机,可以看到正常对外提供服务,在"备"的服务器上输入ip addr
查看发现接管了VIP
当然也可以从keepalived 的日志看到主备更替,详细查看 tail -f /etc/log/messages
,这里显示的主备更替的日志,更加准确反映了实时
总结
LVS 其实就是一台Linux服务器
LVS+keepalived的DR负载均衡模式,是应用非常广泛的软件负载方案,对比昂贵的硬件负载均衡方案F5,对比其他软件负载均衡方式,是性能比较高,比较不错的选择
如对比 Nginx+keepalived
方案,由于LVS是工作在网络第四层,在效率上比工作在第7层的 Nginx+keepalived 要高得多. 同样对比 HAProxy+keepalived
(也是工作在第7层),性能也是更好的. 当然后两者
LVS+keepalived的DR 方案的瓶颈不是CPU和内存,而在网卡带宽上
关于负载均衡方案,目前想到的有:DNS 轮询方案、LVS+keepalived、HAProxy+keepalived、nginx+keepalived、F5等方案
思考
上面说的LVS+keepalived
方案,在某一个时刻对外服务的LVS永远只是一台,有什么办法让两台一起对外提供服务呢? 比如主备一起对外提供服务,也就是负载均衡系统
本身就是负载均衡
对于这个问题,我觉得除了使用DNS轮询方案外,似乎无解,除了在上游DNS的解析上做点文章,似乎真没办法
因为对外永远只能有一个端点
对外暴露,如果有多个点,用户访问一个域名或IP,他从什么入口进来呢? 入口,似乎就永远只能有一个,就不可能有多个接触点
DNS轮询方案:将域名解析到多个IP,多个IP对应多台服务器,域名解析系统会自动轮询解析到不同服务器,实现了负载均衡,于是可以这么解决负载均衡系统本身的负载均衡问题:
- A 负载均衡:LVS+keepalived,VIP是 a (必须对外可以访问的公网IP)
- B 负载均衡:LVS+keepalived,VIP是 b (必须对外可以访问的公网IP)
配置某域名转到a和b,从而实现了负载均衡系统单点压力过大的问题
参考资料
参考博客: