高可用集群KEEPALIVED

一.高可用集群
1.1 集群类型  
  •  LB:Load Balance  负载均衡 

LVS/HAProxy/nginx(http/upstream, stream/upstream)

  •  HA:High Availability 高可用集群 

数据库、Redis 

  • SPoF: Single Point of Failure,解决单点故障 

HPC:High Performance Computing 高性能集群

1.2系统可用性

        SLA:Service-Level Agreement 服务等级协议(提供服务的企业与客户之间就服务的品质、水准、性能 等方面所达成的双方共同认可的协议或契约) 

A = MTBF / (MTBF+MTTR

99.95%:(60*24*30)*(1-0.9995)=21.6分钟   #一般按一个月停机时间统计

指标 :99.9%, 99.99%, 99.999%,99.9999%

 1.3系统故障

硬件故障:设计缺陷、wear out(损耗)、非人为不可抗拒因素 

软件故障:设计缺陷 bug

1.4 实现高可用  

提升系统高用性的解决方案:降低MTTR- Mean Time To Repair(平均故障时间) 

解决方案:建立冗余机制 

  • active/passive 主/备 
  • active/active 双主 
  • active --> HEARTBEAT --> passive  
  • active <--> HEARTBEAT <--> active
1.5.VRRP:(Virtual Router Redundancy Protocol  )

虚拟路由冗余协议,解决静态网关单点风险 

  • 物理层:路由器、三层交换机
  • 软件层:keepalived

1.5.1 VRRP 相关术语

  • 虚拟路由器:Virtual Router

  • 虚拟路由器标识:VRID(0-255),唯一标识虚拟路由器

  • VIP:Virtual IP

  • VMAC:Virutal MAC (00-00-5e-00-01-VRID)

  • 物理路由器:

                master:主设备

                backup:备用设备

                priority:优先级

1.5.2 VRRP 相关技术

通告:心跳,优先级等;周期性

工作方式:抢占式,非抢占式

安全认证:

  • 无认证

  • 简单字符认证:预共享密钥

  • MD5

工作模式:

  • 主/备:单虚拟路由器

  • 主/主:主/备(虚拟路由器1),备/主(虚拟路由器2)

二.Keepalived 部署

2.1 keepalived 简介

vrrp 协议的软件实现,原生设计目的为了高可用 ipvs服务

官网: Keepalived for Linux

功能:

  • 基于vrrp协议完成地址流动

  • 为vip地址所在的节点生成ipvs规则(在配置文件中预先定义)

  • 为ipvs集群的各RS做健康状态检测

  • 基于脚本调用接口完成脚本中定义的功能,进而影响集群事务,以此支持nginx、haproxy等服务

2.2 Keepalived 架构

官方文档:

Keepalived User Guide — Keepalived 1.4.3 documentation

Keepalived for Linux

  • 用户空间核心组件:

vrrp stack:VIP消息通告

checkers:监测real server

system call:实现 vrrp 协议状态转换时调用脚本的功能

SMTP:邮件组件

IPVS wrapper:生成IPVS规则

Netlink Reflector:网络接口

WatchDog:监控进程

  • 控制组件:提供keepalived.conf 的解析器,完成Keepalived配置

  • IO复用器:针对网络目的而优化的自己的线程抽象

  • 内存管理组件:为某些通用的内存管理功能(例如分配,重新分配,发布等)提供访问权限

2.3 Keepalived 环境准备

需要克隆4台主机:

两台KA(KA1和KA2),两台realserver(realserver1和realserver2)

  • 各节点时间必须同步:ntp, chrony

  • 关闭防火墙及SELinux

  • 各节点之间可通过主机名互相通信:非必须

  • 建议使用/etc/hosts文件实现:非必须

  • 各节点之间的root用户可以基于密钥认证的ssh服务完成互相通信:非必须

2.4 Keepalived 相关文件
  • 软件包名:keepalived

  • 主程序文件:/usr/sbin/keepalived

  • 主配置文件:/etc/keepalived/keepalived.conf

  • 配置文件示例:/usr/share/doc/keepalived/

  • Unit File:/lib/systemd/system/keepalived.service

  • Unit File的环境配置文件:/etc/sysconfig/keepalived

Warning :RHEL7中可能会遇到以下bug

systemctl restart keepalived   
#新配置可能无法生效

systemctl stop keepalived; systemctl start keepalived 
#无法停止进程,需要 kill 停止

实验:

[root@realserver1 ~]# yum install httpd -y
[root@realserver1 ~]# echo 172.25.254.110 > /var/www/html/index.html
[root@realserver1 ~]# systemctl restart httpd.service



[root@realserver2 ~]# yum install httpd -y
[root@realserver2 ~]# echo 172.25.254.120 > /var/www/html/index.html
[root@realserver2 ~]# systemctl restart httpd.service

测试:

2.5 Keepalived 安装

2.6 KeepAlived 配置说明

2.6.1 配置文件组成部分

配置文件:/etc/keepalived/keepalived.conf

配置文件组成

GLOBAL CONFIGURATION Global definitions: 定义邮件配置,route_id,vrrp配置,多播地址等

VRRP CONFIGURATION

VRRP instance(s): 定义每个vrrp虚拟路由器

LVS CONFIGURATION

Virtual server group(s)

Virtual server(s):LVS集群的VS和RS

2.6.2 配置语法说明

帮助

man keepalived.conf

全局配置

! Configuration File for keepalived
 global_defs {
   notification_email {
        594233887@qq.com        
#keepalived 发生故障切换时邮件发送的目标邮箱,可以按行区分写多个
        timiniglee-zln@163.com
   }
   notification_email_from keepalived@KA1.timinglee.org         #发邮件的地址
   smtp_server 127.0.0.1                                	 	#邮件服务器地址
   smtp_connect_timeout 30                              		#邮件服务器连接timeout
   router_id KA1.timinglee.org                          		#每个keepalived主机唯一标识
        #建议使用当前主机名,但多节点重名不影响
  vrrp_skip_check_adv_addr                      
  #对所有通告报文都检查,会比较消耗性能
  #启用此配置后,如果收到的通告报文和上一个报文是同一个路由器,则跳过检查,默认值为全检查
  
  
   vrrp_strict          #严格遵循vrrp协议
                        #启用此项后以下状况将无法启动服务:
                        #1.无VIP地址 
                        #2.配置了单播邻居 
                        #3.在VRRP版本2中有IPv6地址
                        #建议不加此项配置
  
  vrrp_garp_interval 0         #报文发送延迟,0表示不延迟
  vrrp_gna_interval 0          #消息发送延迟
  vrrp_mcast_group4 224.0.0.18 #指定组播IP地址范围: 
  
}

配置虚拟路由器

vrrp_instance VI_1 {
    state MASTER
    interface eth0          
                #绑定为当前虚拟路由器使用的物理接口,如:eth0,可以和VIP不在一个网卡
    
    virtual_router_id 51    
                 #每个虚拟路由器惟一标识,范围:0-255,每个虚拟路由器此值必须唯一
                 #否则服务无法启动
                 #同属一个虚拟路由器的多个keepalived节点必须相同
                 #务必要确认在同一网络中此值必须唯一
    
    priority 100            
                 #当前物理节点在此虚拟路由器的优先级,范围:1-254
                 #值越大优先级越高,每个keepalived主机节点此值不同
   
    advert_int 1            
                 #vrrp通告的时间间隔,默认1s
    authentication {        #认证机制
        auth_type AH|PASS   
                 #AH为IPSEC认证(不推荐),PASS为简单密码(建议使用)
    uth_pass 1111       #预共享密钥,仅前8位有效
                        #同一个虚拟路由器的多个keepalived节点必须一样
    }
    virtual_ipaddress {     
                        #虚拟IP,生产环境可能指定上百个IP地址
        
        <IPADDR>/<MASK> brd <IPADDR> dev <STRING> scope <SCOPE> label <LABEL>
        172.25.254.100      
        #指定VIP,不指定网卡,默认为eth0,注意:不指定/prefix,默认32
        172.25.254.101/24 dev eth1
        172.25.254.102/24 dev eth2 label eth2:1
    }
 }

实验:

全局配置

[root@ka1 ~]# yum install keepalived  -y
[root@ka1 ~]# systemctl restart keepalived.service
[root@ka1 ~]# vim /etc/keepalived/keepalived.conf
//下图所示
[root@ka1 ~]# systemctl restart keepalived.service
[root@ka1 ~]# ifconfig
eth0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 172.25.254.10  netmask 255.255.255.0  broadcast 172.25.254.255
        inet6 fe80::20c:29ff:fe3d:5e6c  prefixlen 64  scopeid 0x20<link>
        ether 00:0c:29:3d:5e:6c  txqueuelen 1000  (Ethernet)
        RX packets 2073  bytes 187858 (183.4 KiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 1628  bytes 154798 (151.1 KiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

eth0:1: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 172.25.254.100  netmask 255.255.255.0  broadcast 0.0.0.0
        ether 00:0c:29:3d:5e:6c  txqueuelen 1000  (Ethernet)
//将1中配置文件内容复制给2,对其进行部分修改;        
[root@ka1 ~]# scp /etc/keepalived/keepalived.conf  root@172.25.254.20:/etc/keepalived/keepalived.conf        


[root@ka2 ~]# yum install keepalived  -y
[root@ka2 ~]# systemctl restart keepalived.service

[root@ka2 ~]# vim /etc/keepalived/keepalived.conf
[root@ka2 ~]# systemctl restart keepalived.service

测试:

//进行抓包测试,但因为1的优先大于2 故只能抓到1.

为了测试2,对1进行牵制;

在server1上登录KA1,然后在KA1上停止其keepalived.service服务,再次进行抓包测试,就可以看到20 ,所以配置成功。

//记得再次开启keepalived.service服务
[root@ka1 ~]# systemctl restart keepalived.service

实现ping通vip

实验:

这种情况ping不通,配置时,10和20同时进行修改,不要忘记;

//目前是ping不通172.25.254.100(vip)并且ping时不报错,不显示任何文字,只有等待;
//且ka主机显示为DROP(使用iptables -nL时);

//修改配置文件:
[root@ka1 ~]# vim /etc/keepalived/keepalived.conf
[root@ka1 ~]# systemctl restart keepalived.service
(10和20同时进行修改,不要忘记;)

注意:一共两种方法,但两种方法都需要写上vrrp_iptables,否则不生效;

启用keepalived日志功能

实验:

//一般建议先启动keepalived,后启动rsyslog,这样就会有日志生成;
systemctl restart keepalived.service
systemctl restart rsyslog.service
[root@ka1 ~]# vim /etc/rsyslog.conf
[root@ka1 ~]# systemctl restart rsyslog.service

[root@ka1 ~]# vim /etc/sysconfig/keepalived
[root@ka1 ~]# systemctl restart keepalived.service

测试:

实现独立子配置文件

​        当生产环境复杂时, /etc/keepalived/keepalived.conf 文件中内容过多,不易管理 将不同集群的配置,比如:不同集群的VIP配置放在独立的子配置文件中利用include 指令可以实现包含子配置文件。

格式:

include /path/file

实验:

[root@ka1 ~]# mkdir -p /etc/keepalived/conf.d
[root@ka1 ~]# vim /etc/keepalived/keepalived.conf

[root@ka1 ~]# vim /etc/keepalived/conf.d/172.25.254.100.conf

[root@ka1 ~]# systemctl restart keepalived.service
最后才对 keepalived 进行重启,前面重启会报错;

测试:

三.Keepalived 企业应用示例

3.1 实现master/slave的 Keepalived 单主架构
3.2抢占模式和非抢占模式

非抢占模式(记得重启系统 keepalived,查看ifconfig);

        默认为抢占模式preempt,即当高优先级的主机恢复在线后,会抢占低先级的主机的master角色, 这样会使vip在KA主机中来回漂移,造成网络抖动, 建议设置为非抢占模式 nopreempt ,即高优先级主机恢复后,并不会抢占低优先级主机的master角色 非抢占模块下,如果原主机down机, VIP迁移至的新主机, 后续也发生down时,仍会将VIP迁移回原主机。

Waring:要关闭 VIP抢占,必须将各 keepalived 服务器state配置为BACKUP

实验:

[root@ka1 ~]# vim /etc/keepalived/keepalived.conf
[root@ka1 ~]# systemctl restart keepalived.service

//在20中同样的操作
[root@ka2 ~]# vim /etc/keepalived/keepalived.conf
[root@ka2 ~]# systemctl restart keepalived.service

测试:

[root@ka1 ~]# ifconfig

[root@ka2 ~]# ifconfig

[root@ka1 ~]# systemctl stop keepalived.service


[root@ka2 ~]# ifconfig

[root@ka1 ~]# systemctl restart keepalived.service
[root@ka1 ~]# ifconfig

故:未发生抢占;

抢占模式

        抢占延迟模式,即优先级高的主机恢复后,不会立即抢回VIP,而是延迟一段时间(默认300s)再抢回 VIP。

 preempt_delay #     
#指定抢占延迟时间为#s,默认延迟300s

Warning:需要各keepalived服务器state为BACKUP,并且不要启用 vrrp_strict

实验:

[root@ka1 ~]# vim /etc/keepalived/keepalived.conf
[root@ka1 ~]# systemctl restart keepalived.service
//5s不合理,是为了实验;

[root@ka2 ~]# vim /etc/keepalived/keepalived.conf
[root@ka2 ~]# systemctl restart keepalived.service

测试:

[root@ka1 ~]# systemctl stop keepalived.service

[root@ka1 ~]# systemctl restart keepalived.service

10的优先级大于20 ,故10会抢占;

3.3VIP单播配置

        默认keepalived主机之间利用多播相互通告消息,会造成网络拥塞,可以替换成单播,减少网络流量

Warning:启用 vrrp_strict 时,不能启用单播

#在所有节点vrrp_instance语句块中设置对方主机的IP,建议设置为专用于对应心跳线网络的地址,而非使用业务网络
unicast_src_ip <IPADDR>  #指定发送单播的源IP
 unicast_peer {
 	<IPADDR>     #指定接收单播的对方目标主机IP
 		......
 }
#启用 vrrp_strict 时,不能启用单播,否则服务无法启动,并在messages文件中记录下面信息
Jun 16 17:50:06 centos8 Keepalived_vrrp[23180]: (m44) Strict mode does not support authentication. Ignoring.
Jun 16 17:50:06 centos8 Keepalived_vrrp[23180]: (m44) Unicast peers are not supported in strict mode
Jun 16 17:50:06 centos8 Keepalived_vrrp[23180]: Stopped - used 0.000606 user time, 0.000000 system time
Jun 16 17:50:06 centos8 Keepalived[23179]: Keepalived_vrrp exited with permanent error CONFIG. Terminating
Jun 16 17:50:06 centos8 systemd[1]: keepalived.service: Succeeded.
Jun 16 17:50:06 centos8 Keepalived[23179]: Stopped Keepalived v2.0.10    
(11/12,2018)

实验:

[root@ka1 ~]# vim /etc/keepalived/keepalived.conf
[root@ka1 ~]# systemctl restart keepalived.service

[root@ka2 ~]# vim /etc/keepalived/keepalived.conf
[root@ka2 ~]# systemctl restart keepalived.service

测试(抓包看效果):

[root@ka1 ~]# tcpdump -i eth0 -nn src host 172.25.254.10 and dst 172.25.254.20

[root@ka2 ~]# tcpdump -i eth0 -nn src host 172.25.254.20 and dst 172.25.254.10

3.4 Keepalived 通知脚本配置
  • 当keepalived的状态变化时,可以自动触发脚本的执行,比如:发邮件通知用户

  • 默认以用户keepalived_script身份执行脚本

  • 如果此用户不存在,以root执行脚本可以用下面指令指定脚本执行用户的身份

global_defs {
 ......
 script_user <USER>
 ......
 }

通知脚本类型

  • 当前节点成为主节点时触发的脚本

notify_master <STRING>|<QUOTED-STRING>
  • 当前节点转为备节点时触发的脚本

notify_backup <STRING>|<QUOTED-STRING>
  • 当前节点转为“失败”状态时触发的脚本

notify_fault <STRING>|<QUOTED-STRING>
  • 通用格式的通知触发机制,一个脚本可完成以上三种状态的转换时的通知

notify <STRING>|<QUOTED-STRING>
  • 当停止VRRP时触发的脚本

notify_stop <STRING>|<QUOTED-STRING>

脚本的调用方法

在 vrrp_instance VI_1 语句块的末尾加下面行

 notify_master "/etc/keepalived/notify.sh master"
 notify_backup "/etc/keepalived/notify.sh backup"
 notify_fault "/etc/keepalived/notify.sh fault"

实验:(10和20 配置一样)

[root@ka1 ~]# yum install mailx -y
[root@ka1 ~]# vim /etc/mail.rc
[root@ka1 ~]# echo hello yxy | mail -s test 3027225004@qq.com



[root@ka2 ~]# yum install mailx -y
[root@ka2 ~]# vim /etc/mail.rc
[root@ka2 ~]#  echo hello 俞心悦 | mail -s test 3027225004@qq.com

测试:

KA1:

​​​​​​

KA2:

创建通知脚本:

[root@ka1 ~]# vim /etc/keepalived/mail.sh
[root@ka1 ~]# chmod +x /etc/keepalived/mail.sh

[root@ka2 ~]# vim /etc/keepalived/mail.sh
[root@ka2 ~]# chmod +x /etc/keepalived/mail.sh

[root@ka1 ~]# vim /etc/keepalived/keepalived.conf
[root@ka1 ~]# systemctl restart keepalived.service

[root@ka2 ~]# vim /etc/keepalived/keepalived.conf
[root@ka2 ~]# systemctl restart keepalived.service

测试:

[root@ka1 ~]# ifconfig

[root@ka1 ~]# systemctl stop keepalived.service

[root@ka2 ~]# ifconfig

[root@ka2 ~]# systemctl stop keepalived.service
//此时邮箱没有收到邮件,因为10和20都停止服务了;



[root@ka1 ~]# systemctl restart keepalived.service
[root@ka1 ~]# ifconfig

[root@ka2 ~]# systemctl restart keepalived.service
[root@ka2 ~]# ifconfig  //此时vip在10

此时邮箱收到邮件:

或者

[root@ka1 ~]# /etc/keepalived/mail.sh master
[root@ka1 ~]# /etc/keepalived/mail.sh backup
[root@ka1 ~]# /etc/keepalived/mail.sh fault

3.5 实现 master/master 的 Keepalived 双主架构

        master/slave的单主架构,同一时间只有一个Keepalived对外提供服务,此主机繁忙,而另一台主机却 很空闲,利用率低下,可以使用master/master的双主架构,解决此问题。         master/master 的双主架构: 即将两个或以上VIP分别运行在不同的keepalived服务器,以实现服务器并行提供web访问的目的,提高 服务器资源利用率

(试验前可以先取消邮件发送)

实验:

[root@ka1 ~]# vim /etc/keepalived/keepalived.conf

[root@ka1 ~]# systemctl restart  keepalived.service
[root@ka1 ~]# ifconfig

(10和20同配置)

[root@ka2 ~]# vim /etc/keepalived/keepalived.conf
[root@ka2 ~]# systemctl restart  keepalived.service
[root@ka2 ~]# ifconfig

(eth0:2在20上的优先级大于10)

3.6 实现IPVS的高可用性

3.6.1 IPVS相关配置

3.6.1.1 虚拟服务器配置结构

virtual_server IP port {
 ...
 real_server {
 ...
 }
 real_server {
 ...
 }
 …
 }

3.6.1.2 virtual server (虚拟服务器)的定义格式

virtual_server IP port        #定义虚拟主机IP地址及其端口
virtual_server fwmark int     #ipvs的防火墙打标,实现基于防火墙的负载均衡集群
virtual_server group string   #使用虚拟服务器组

3.6.1.3 虚拟服务器配置

virtual_server IP port {                    #VIP和PORT
  delay_loop <INT>                          #检查后端服务器的时间间隔
  lb_algo rr|wrr|lc|wlc|lblc|sh|dh          #定义调度方法
  lb_kind NAT|DR|TUN                        #集群的类型,注意要大写
  persistence_timeout <INT>                 #持久连接时长
  protocol TCP|UDP|SCTP                     #指定服务协议,一般为TCP
  sorry_server <IPADDR> <PORT>              #所有RS故障时,备用服务器地址  
  real_server <IPADDR> <PORT> {             #RS的IP和PORT  
  weight <INT>                              #RS权重  
  notify_up <STRING>|<QUOTED-STRING>        #RS上线通知脚本
  notify_down <STRING>|<QUOTED-STRING>      #RS下线通知脚本
  HTTP_GET|SSL_GET|TCP_CHECK|SMTP_CHECK|MISC_CHECK { ... }   #定义当前主机健康状态检测方法
   }
}


#注意:括号必须分行写,两个括号写在同一行,如: }} 会出错

3.6.1.4 应用层监测

应用层检测:HTTP_GET|SSL_GET

HTTP_GET|SSL_GET {
 url {
     path <URL_PATH>         #定义要监控的URL       
     status_code <INT>       #判断上述检测机制为健康状态的响应码,一般为 200
 }
 connect_timeout <INTEGER>    #客户端请求的超时时长, 相当于haproxy的timeout server
 nb_get_retry <INT>           #重试次数
 delay_before_retry <INT>     #重试之前的延迟时长
 connect_ip <IP ADDRESS>      #向当前RS哪个IP地址发起健康状态检测请求
 connect_port <PORT>          #向当前RS的哪个PORT发起健康状态检测请求
 bindto <IP ADDRESS>          #向当前RS发出健康状态检测请求时使用的源地址 
 bind_port <PORT>             #向当前RS发出健康状态检测请求时使用的源端口 
}

3.6.1.5 TCP监测

传输层检测:TCP_CHECK

TCP_CHECK {                     
    connect_ip <IP ADDRESS>      #向当前RS的哪个IP地址发起健康状态检测请求 
    connect_port <PORT>          #向当前RS的哪个PORT发起健康状态检测请求  
    bindto <IP ADDRESS>          #发出健康状态检测请求时使用的源地址  
    bind_port <PORT>             #发出健康状态检测请求时使用的源端口   
    connect_timeout <INTEGER>    #客户端请求的超时时长 
                                 #等于haproxy的timeout server   
}

3.6.2 实战案例

实验:

前期准备:

[root@realserver1 ~]# yum install httpd -y
[root@realserver1 ~]# echo 172.25.254.110 > /var/www/html/index.html
[root@realserver1 ~]# systemctl restart httpd.service


[root@realserver2 ~]# yum install httpd -y
[root@realserver2 ~]# echo 172.25.254.120 > /var/www/html/index.html
[root@realserver2 ~]# systemctl restart httpd.service
[root@realserver1 ~]# ip a a 172.25.254.100/32 dev lo

//永久设定
[root@realserver1 ~]# cd /etc/sysconfig/network-scripts/
[root@realserver1 network-scripts]# vim ifcfg-lo
(server1和server2完全相同配置)

[root@realserver1 network-scripts]# systemctl restart network
[root@realserver1 ~]# vim /etc/sysctl.d/arp.conf
(server1和server2完全相同配置)

xxxxxxxxxx [root@realserver1 ~]# sysctl -p
[root@realserver1 ~]# sysctl --system

//为了查看配置信息
[root@ka1 ~]# yum install ipvsadm -y
[root@ka1 ~]# vim /etc/keepalived/keepalived.conf
[root@ka1 ~]# systemctl restart keepalived.service

[root@ka1 ~]# yum install ipvsadm -y
[root@ka2 ~]# vim /etc/keepalived/keepalived.conf
[root@ka2 ~]# systemctl restart keepalived.service

查看当前配置。
[root@ka1 ~]# ipvsadm -ln

[root@ka2 ~]# ipvsadm -ln

测试:

Warning:此处应该在2上面测试;1为调度器,故1会报错。

[root@ka1 ~]# for i in {1..6};  do curl 172.25.254.100; done

[root@ka1 ~]# ipvsadm -Ln

3.7 实现其它应用的高可用性 VRRP Scrip

        keepalived利用 VRRP Script 技术,可以调用外部的辅助脚本进行资源监控,并根据监控的结果实现优先 动态调整,从而实现其它应用的高可用性功能

参考配置文件:/usr/share/doc/keepalived/keepalived.conf.vrrp.localcheck

3.7.1 VRRP Script 配置

分两步实现:

  • 定义脚本

vrrp_script:自定义资源监控脚本,vrrp实例根据脚本返回值,公共定义,可被多个实例调用,定 义在vrrp实例之外的独立配置块,一般放在global_defs设置块之后。

通常此脚本用于监控指定应用的状态。一旦发现应用的状态异常,则触发对MASTER节点的权重减至 低于SLAVE节点,从而实现 VIP 切换到 SLAVE 节点

vrrp_script <SCRIPT_NAME> {
 script <STRING>|<QUOTED-STRING>   #此脚本返回值为非0时,会触发下面OPTIONS执行
 OPTIONS 
}
  • 调用脚本

track_script:调用vrrp_script定义的脚本去监控资源,定义在VRRP实例之内,调用事先定义的 vrrp_script

 track_script {
 SCRIPT_NAME_1
 SCRIPT_NAME_2
 }

3.7.1.1 定义 VRRP script

 vrrp_script <SCRIPT_NAME> {             #定义一个检测脚本,在global_defs 之外配置
     script <STRING>|<QUOTED-STRING>     #shell命令或脚本路径
     interval <INTEGER>                  #间隔时间,单位为秒,默认1秒
     timeout <INTEGER>                   #超时时间
     weight <INTEGER:-254..254>          #默认为0,如果设置此值为负数,
                                         #当上面脚本返回值为非0时
                                         #会将此值与本节点权重相加可以降低本节点权重,     
                                      #即表示fall. 
                                         #如果是正数,当脚本返回值为0,
                                         #会将此值与本节点权重相加可以提高本节点权重
                                         #即表示 rise.通常使用负值
     
     fall <INTEGER>             #执行脚本连续几次都失败,则转换为失败,建议设为2以上
     rise <INTEGER>             #执行脚本连续几次都成功,把服务器从失败标记为成功
     user USERNAME [GROUPNAME]  #执行监测脚本的用户或组
     init_fail                  #设置默认标记为失败状态,监测成功之后再转换为成功状态
}

3.7.1.2 调用 VRRP script

vrrp_instance test {
 ... ...
 track_script {
 check_down
 }
 }

3.7.2 实战案例:

实验:

Warning:将前期配置进行删除(两个主机都删);

[root@realserver1 ~]# vim /etc/sysconfig/network-scripts/ifcfg-lo
[root@realserver1 ~]# systemctl restart network

​​​​​​​

查看两个server的ip a(确保没有vip)

[root@realserver1 ~]# vim /etc/sysctl.d/arp.conf
[root@realserver1 ~]# sysctl --system

[root@ka1 ~]# vim /etc/keepalived/keepalived.conf
[root@ka1 ~]# systemctl restart keepalived.service

开始实验:

[root@ka1 ~]# yum install haproxy  -y
[root@ka2 ~]# yum install haproxy  -y
(两台主机都要安装)

#在两个ka1和ka2两个节点启用内核参数

[root@ka1 ~]# vim /etc/sysctl.conf
[root@ka1 ~]# sysctl -p
net.ipv4.ip_nonlocal_bind = 1

#在两个ka1和ka2先实现haproxy的配置

[root@ka1 ~]# vim /etc/haproxy/haproxy.cfg
[root@ka1 ~]# systemctl enable --now haproxy.service
Created symlink from /etc/systemd/system/multi-user.target.wants/haproxy.service to /usr/lib/systemd/system/haproxy.service.

ka1 & ka2:

查看端口状态:

#在ka1和ka2中编写检测脚本

[root@ka1 ~]# vim /etc/keepalived/test.sh

#在ka1和ka2中配置keepalived

[root@ka1 ~]# vim /etc/keepalived/keepalived.conf
[root@ka1 ~]# systemctl restart keepalived.service

测试:

[root@ka1 ~]# systemctl stop haproxy.service
此时停止ka1的haproxy服务,100的访问不断,实验成功;

​​​​​​​

  • 7
    点赞
  • 22
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值