高可用-->HA High Availability --》有备份
再准备一台LB2服务器,直接使用LB1服务器克隆 修改ip地址
防止单点故障:唯一一台负载均衡器坏了导致整个崩 设置LB1为master LB2为backup
keepalived
keepalived是一个路由软件,有2个功能:
- loadbalancing 负载均衡 ---》内核里的ipvs软件---》内置到内核里了,不需要安装
- 高可用 high-availability ---》VRRP协议 high-availability is achieved by VRRP protocol.
- VRRP协议:虚拟路由冗余协议
-
安装keepalived软件
[root@lb-1 ~]# yum install keepalived -y
[root@lb-1 ~]# cd /etc/keepalived/
Keepalived.conf配置文件的解析
[root@centos-LB-1 keepalived]# vim keepalived.conf
#vrrp_strict 注释掉,遵守最严格的vrrp协议 #这是实现高可用的配置
vrrp_instance VI_1 { 启动一个vrrp的实例 VI_1 实例名,可以自定义,一个实例背后就是一个keepalived相关的进程
state MASTER --》角色是master backup
interface ens33 --》在哪个接口上监听vrrp协议,同时绑定vip到那个接口
virtual_router_id 105 --》虚拟路由id(帮派) 0~255范围
priority 120 ---》优先级 0~255 master那台要高一点
advert_int 1 --》advert interval 宣告消息 时间间隔 1秒
authentication { 认证
auth_type PASS 认证的类型是密码认证
auth_pass 11112222 具体的密码,可以自己修改
}
virtual_ipaddress { --》vip的配置,vip可以是多个ip,也可以是一个vip
192.168.159.188 }}
另一台(backup )vrrp_instance VI_1 {
state BACKUP
interface ens33
virtual_router_id 88
priority 100
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.159.188}}
两台都启动keepalived服务
[root@lb-1 keepalived]# systemctl start keepalived
[root@lb-1 keepalived]# systemctl enable keepalived
查看vip在哪台服务器上
[root@lb-1 keepalived]# ip add
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
link/ether 00:0c:29:1a:1b:5d brd ff:ff:ff:ff:ff:ff
inet 192.168.159.139/24 brd 192.168.205.255 scope global noprefixroute ens33
valid_lft forever preferred_lft forever
inet 192.168.159.188/32 scope global ens33
valid_lft forever preferred_lft forever
inet6 fe80::20c:29ff:fe1a:1b5d/64 scope link
valid_lft forever preferred_lft forever
主要的有两个ip地址 从的只有一个
确保每台web的nginx启动了 这里注意都用编译安装的nginx
在到网站刷新 看2台负载均衡器都是好的
对外我们只公布有vip地址的负载均衡器即192.168.159.188地址访问
本项目里发布LB-1
验证vip漂移
[root@lb-1 conf]# systemctl stop keepalived 模拟LB1服务器down机
LB2上就有vip了
[root@lb-2 conf]# ip add
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
link/ether 00:0c:29:e7:94:6b brd ff:ff:ff:ff:ff:ff
inet 192.168.205.138/24 brd 192.168.205.255 scope global noprefixroute ens33
valid_lft forever preferred_lft forever
inet 192.168.205.188/32 scope global ens33
valid_lft forever preferred_lft forever
inet6 fe80::20c:29ff:fee7:946b/64 scope link
valid_lft forever preferred_lft forever
双vip架构
vrrp_instance VI_2 {在每台LB上加 相对应修改
state MASTER
interface ens33
virtual_router_id 99
priority 120
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.205.199
}
systemctl restart keepalived 在ip add 就能看到每台都有两个ip 地址
脑裂现象:就是2台或者多台LB上都有vip地址
原因:1.vrid(虚拟路由id)不一样
2.网络通信有问题:中间有防火墙阻止了网络之间的选举的过程,vrrp报文的通信
3.认证密码不一样也会出现脑裂
脑裂有没有危害?是否对业务有危害或者对业务有什么影响?
没有危害,能正常访问,反而还有负载均衡的作用
脑裂恢复的时候,还是有影响的,会短暂的中断,影响业务的