高可用集群 keepalived+LVS

高可用HA

是指以减少服务中断时间为目的的服务器集群技术。它通过保护用户的业务程序对外不间断提供的服务,把因软件、硬件、人为造成的故障对业务的影响降低到最小程度

自动侦测

自动侦测阶段由主机上的软件通过冗余侦测线,经由复杂的监听程序,逻辑判断,来相互侦测对方运行的情况。
     常用的方法是:集群各节点间通过心跳信息判断节点是否出现故障。

脑裂

简介

在高可用(HA)系统中,当联系2个节点的“心跳线”断开时,本来为一整体、动作协调的HA系统,就分裂成为2个独立的个体。由于相互失去了联系,都以为是对方出了故障。两个节点上的HA软件像“裂脑人”一样,争抢“共享资源”、争起“应用服务”,就会发生严重后果——或者共享资源被瓜分、2边“服务”都起不来了;或者2边“服务”都起来了,但同时读写“共享存储”,导致数据损坏(常见如数据库轮询着的联机日志出错)。

***脑裂产生的原因****

因心跳线坏了(包括断了,老化)。
因网卡及相关驱动坏了,ip配置及冲突问题(网卡直连)。
因心跳线间连接的设备故障(网卡及交换机)。
因仲裁的机器出问题(采用仲裁的方案)。
高可用服务器上开启了 iptables防火墙阻挡了心跳消息传输。
高可用服务器上心跳网卡地址等信息配置不正确,导致发送心跳失败。
其他服务配置不当等原因,如心跳方式不同,心跳广插冲突、软件Bug等。

****脑裂的解决方案****

1)添加冗余的心跳线

2)启用磁盘锁

正在服务一方锁住共享磁盘,“裂脑”发生时,让对方完全“抢不走”共享磁盘资源。但使用锁磁盘也会有一个不小的问题,如果占用共享盘的一方不主动“解锁”,另一方就永远得不到共享磁盘。现实中假如服务节点突然死机或崩溃,就不可能执行解锁命令。后备节点也就接管不了共享资源和应用服务。于是有人在HA中设计了“智能”锁。即:正在服务的一方只在发现心跳线全部断开(察觉不到对端)时才启用磁盘锁。平时就不上锁了。

3)设置仲裁机制

例如设置参考IP(如网关IP或某一个服务器),当心跳线完全断开时,2个节点都各自ping一下参考IP,不通则表明断点就出在本端。不仅“心跳”、还兼对外“服务”的本端网络链路断了,即使启动(或继续)应用服务也没有用了,那就主动放弃竞争,让能够ping通参考IP的一端去起服务。更保险一些,ping不通参考IP的一方干脆就自我重启,以彻底释放有可能还占用着的那些共享资源。

4)裂脑的监控报警

其他高可用方案

heartbeat、pacemaker、 piranha(web页面)

keepalived

 keepalived是集群管理中保证集群高可用的一个服务软件,用来防止单点故障。

keepalived工作原理

 keepalived是以VRRP协议为实现基础的,VRRP全称Virtual Router Redundancy Protocol,即虚拟路由冗余协议。

将N台具有相同功能的服务器组成一个服务器组,这个组里包含一个master和多个backup,master上有一个对外提供服务的VIP,master会向其他服务器发出组播,当backup收不到VRRP包时,会认为master已经宕机,这是就会根据VRRP的优先级选出一个BACKUP当做master向外提供服务

IPV4总共三种通信方式:单播,组播,广播。
组播是指以224.0.0.0地址作为通信地址的一种方式。

keepalived主要有三个模块

core模块

        为keepalived的核心,负责主进程的启动、维护以及全局配置文件的加载和解析。

check模块

        负责健康检查,包括常见的各种检查方式。

vrrp模块

        是来实现VRRP协议的。

实战案例1 keepalived

环境:两台keepalived,一台window客户机用来访问

al1    192.168.31.181        (master)
al2    192.168.31.180        (backup)
VIP    192.168.31.110

server1

yum -y install keepalived

vim /etc/keepalived/keepalived.conf

!Configuration File for keepalived
global_defs {
router_id 1    #设备在组中的标识,设置不一样即可
}

#vrrp_script chk_nginx {                #健康检查
# script "/etc/keepalived/ck_ng.sh"       #检查脚本
# interval 2                #检查频率.秒
# weight -5                   #priority减5
#fall 3                        #失败三次
# }

vrrp_instance VI_1 {        #VI_1。实例名两台路由器相同。
    state MASTER            #主或者从状态
    interface ens33            #监控网卡
    mcast_src_ip 192.168.31.181    #心跳源IP
    virtual_router_id 55         #虚拟路由编号,主备要一致。
    priority 100                        #优先级
    advert_int 1                        #心跳间隔

    authentication {                    #秘钥认证(1-8位)
        auth_type PASS
        auth_pass 123456
    }

    virtual_ipaddress {                 #VIP
    192.168.31.110/24
        }

#  track_script {                       #引用脚本
#       chk_nginx
#    }

}

# scp -r /etc/keepalived/keepalived.conf  192.168.31.180:/etc/keepalived/

systemctl enable keepalived.service
    开机启动keepalived

安装NGINX

yum -y install nginx

systemctl  enable  nginx  &&  systemctl start nginx

echo nginx1 >/usr/share/nginx/htm/index.html

systemctl start keepalived.service

server2 (backup)

# yum  -y install keepalived

# vim /etc/keepalived/keepalived.conf

state MASTER改为  state BACKUP
mcast_src_ip 改为backup服务器实际的IP mcast_src_ip 192.168.31.180
priority 100改为priority 99

# systemctl enable keepalived.service

安装apache

yum -y install httpd

systemctl  enable  httpd  &&  systemctl start httpd

echo apache1 >/var/www/html/index.html

systemctl start keepalived.service

client

访问VIP   http://192.168.31.110        出现的是  nginx1

拔掉181的网线   再次访问出现的是

apache1

关于keepalived对nginx状态未知的问题

keepalived监控的是master的IP是否存在,不会单独监控nginx或者是apache,当master上的nginx服务关闭时,继续访问VIP访问的还是181,显示没有服务

编辑监控脚本

        server1

                vim /etc/keepalived/ck_ng.sh

count=$(ps -C nginx --no-heading | wc -l)
if  [ $count -eq 0  ]
    then
    systemctl start nginx
    sleep5
        count=$(ps -C nginx --no-heading | wc -l)    
        if  [ $count -eq 0  ]
            then
            systemctl stop keepalived
        fi
fi

        赋予执行权限        chmod  +x  /etc/keepalived/ck_ng.sh

       server2    添加apache监控脚本

                vim /etc/keepalived/ck_apache.sh

counter=$(ps -C httpd --no-heading | wc -l)
if  [ $counter  -eq  0  ]
    then
    systemctl start httpd
    sleep 5
    counter=$(ps -C httpd --no-heading | wc -l)
    if [ $counter -eq  0 ]
        then
        systemctl stop keepalived
    fi
fi

        chmod +x /etc/keepalived/ck_apache.sh

启动监控脚本

清除掉配置文件中的注释。  /etc/keepalived/keepalived.conf

重启keepalived                        systemctl restart  keepalived

实战案例2 keepalived+lvs集群

环境

1    192.168.31.183  负载均衡器 master
2    192.168.31.182  负载均衡器 backup
3    192.168.31.184  web1
4    192.168.31.185  web2
VIP 192.168.31.110

1.在master上安装配置Keepalived   181

        # yum install keepalived  ipvsadm -y                ipvsadm安装并不启动

***2.在master上修改配置文件***        181

vim /etc/keepalived/keepalived.conf

!Configuration File for keepalived
global_defs {
router_id Director1    #两边不一样
}

vrrp_instance VI_1  {
state MASTER 
interface ens33    #心跳网卡
virtual_router_id 51    #虚拟路由编号,主备要一致
priority  150       #优先级
advert_int 1        #检查间隔,单位秒
    authentication {
            auth_type PASS
            auth_pass 1111
        }
    virtual_ipaddress{
            192.168.31.110/24   dev  ens33    #VIP和工作接口
        }
}

virtual_server 192.168.31.110 80 {    #LVS配置,VIP
delay_lop 3        #服务论询的时间间隔,#每隔3秒检查一次real_server状态
lb_algo rr    #LVS调度算法
lb_kind DR    #LVS 集群模式
protocol TCP
    real_server 192.168.31.184 80  {
    weight 1
    TCP_CHECK {
			    connect_timeout 3       #健康检查方式,连接超时时间
			    }
            }    
    real_server 192.168.31.85 80 {
    weight 1
    TCP_CHECK {
                connection_timeout3
                    }
            }
}

3.在backup上安装keepalived:  182

yum -y install  keepalived   ipvsadm        ipvsadm 不启动

4.拷贝master上的keepalived.conf到backup上:

scp -r /etc/keepalived/keepalived.conf 192.168.31.182:/etc/keepalived/

5.拷贝后,修改配置文件        182

 router_id Director2
state    BACKUP
priority 100

6.master和backup上启动服务:

#systemctl enable keepalived

# systemctl restart keepalived

#reboot

7.web服务器配置

web1和web2同配置

        安装web测试站点

                yum install -y httpd && systemctl start httpd && systemctl enable httpd

                netstat -antp | grep httpd

                # elinks 127.0.0.1                自定义web主页,以便观察负载均衡结果

        配置虚拟地址**

                # cp /etc/sysconfig/network-scripts/{ifcfg-lo,ifcfg-lo:0}

                # vim /etc/sysconfig/network-scripts/ifcfg-lo:0               

DEVICE=lo:0
IPADDR=192.168.31.110
NETMASK=255.255.255.255
ONBOOT=yes
其他行注释掉

        配置路由

               # vim /etc/rc.local   添加上

                /sbin/route add -host 192.168.31.110 dev lo:0

        配置ARP        忽略arp请求,可以回复

                # vim /etc/sysctl.conf

net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2
net.ipv4.conf.default.arp_ignore = 1
net.ipv4.conf.default.arp_announce = 2
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2

        reboot 

8.测试

1)观察lvs路由条目

在master或者backup

2)观察vip地址在哪台机器上

 master上 查询 # ip a

3)客户端浏览器访问vip 

4)关闭master上的keepalived服务,再次访问vip

5)关闭web1站点服务,再次访问VIP

1.什么是集群?集群分为哪些类型?列举代表的产品。
2.有些负载均衡集群服务?他们有什么区别?
3.LVS-DR和LVS-NAT的工作原理。
4.keepalived的工作原理。
5.高可用集群有哪些产品。他们的区别。
6.负载均衡集群的策略有哪些?能否举例说明?

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值