LVS + Keepalived 群集

前言

一个合格的群集应该具备的特点:

(1)负载均衡:用于提高群集的性能LVS nginx  HAProxy SLB F5

(2)健康检查(探针):针对调度器和节点服务器 keepalived(高可用的应用程序)、Heartbeat

(3)故障转移:通过VIP漂移实现主备切换  vrrp  脚本

健康检查(探针)常用的工作方式:

(1)发送心跳消息      vrrp报文  ping/pong

(2)TCP端口检查      向目标主机的IP:PORT发起TCP连接请求,如果TCP连接三次握手成功则

认为健康检查正常,否则认为健康检查异常

(3)HTTP URL 检查     向目标主机的URL路径(比如http://PORT/URL路径)发起 HTTP GET 请

求方法,如果响应消息的状态码为2xx 或者 3xx 则认为健康检查正常;如果响应消息的状态码为

4xx 或者 5xx 则认为健康检查异常;

一.Keepalived 介绍

1.Keepalived案例分析

企业应用中,单台服务器承担应用存在单点故障的危险

单点故障一旦发生,企业服务将发生中断马,造成极大的危害

 2.Keepalived 工具介绍

(1)专为LVS 和 HA 设计的一款健康检查工具

  • 支持故障自动切换(Failover)
  • 支持节点健康状态检查(Health Checjing)

判断 LVS 负载调度器、节点服务器的可用性,当 master 主机出现故障及时切换到backup 节点保证业务正常,当 master故障主机恢复后将其重新加入群集并且业务重新切换回 master 节点。

(2)官方网站:

负载均衡架构图

3.Keepalived实现原理剖析

Keepalived 采用 VRRP 热备份协议实现 Linux 服务器的多机热备功能

VRRP (虚拟路由冗余协议) 是针对路由器的一种备份解决方案

  • 由多台路由器组成一个热备组,通过共用的虚拟IP地址对外提供服务
  • 每个热备组内同时只有一台主路由器提供服务,其他路由器处于冗余状态
  • 若当前在线的路由器失效,则其他路由器会根据设置的优先级自动接替虚拟IP地址,继续提供服务

Keepalived 是一个基于VRRP协议来实现的LVS服务高可用方案,可以解决静态路由出现的单点故障问题。

在一个LVS服务集群中通常有主服务器(MASTER)备份服务器(BACKUP)两种角色的服务器,但是对外表现为一个虚拟IP(VIP),主服务器会发送VRRP通告信息给备份服务器,当备份服务器收不到VRRP消息的时候,即主服务器异常的时候,备份服务器就会接管虚拟IP,继续提供服务,从而保证了高可用性。

4.Keepalived 案例

Keepalived 可实现多机热备,每个热备组可有多台服务器

双机热备的故障切换是由虚拟IP地址的漂移来实现,适用于各种应用服务器

二.Keepalived安装与启动

1.在LVS群集环境中应用时,也需用到ipvsadm管理工具

  • YUM安装Keepalived
  • 启用Keepalived服务

2.配置Keepalived master服务器

Keepalived配置目录位于/etc/keepalived/

keepalived.conf是主配置文件

  • global defs {...}区段指定全局参数
  • vrrp instance 实例名称 {...} 区段指定VRRP热备参数
  • 注释文字以”!”符号开头
  • 目录samples,提供了许多配置样例作为参考

Keepalived体系主要模块及其作用:

keepalived体系架构中主要有三个模块,分别是 core、check 和 vrrp。

  • core模块:为keepalived的核心,负责主进程的启动、维护及全局配置文件的加载和解析。
  • vrrp模块:是来实现VRRP协议的。(调度器之间的健康检查和主备切换)
  • check模块:负责健康检查,常见的方式有端口检查及URL检查。(节点服务器的健康检查)
     

2.1配置主备服务器

主配置服务器

cd /etc/keepalived/

cp keepalived.conf keepalived.conf.bak

vim keepalived.conf

systemctl start keepalived.service 

systemctl enable keepalived.service

备配置服务器

cd /etc/keepalived/

cp keepalived.conf keepalived.conf.bak

vim keepalived.conf

systemctl start keepalived.service 

systemctl enable keepalived.service

2.2验证

主服务器

备服务器

当主服务器关闭 keepalived 服务后;就会就VIP转移到备服务器上

2.3Keepalived通过什么判断哪台主机为主服务器,通过什么方式配置浮动IP

Keepalived首先做初始化先检查state状态,master为主服务器,backup为备服务器。
然后再对比所有服务器的priority,谁的优先级高谁是最终的主服务器。
优先级高的服务器会通过ip命令为自己的电脑配置一个提前定义好的浮动IP地址。

2.4 keepalived的抢占与非抢占模式

抢占模式即MASTER从故障中恢复后,会将VIP从BACKUP节点中抢占过来。

非抢占模式即MASTER恢复后不抢占BACKUP升级为MASTER后的VIP

非抢占式俩节点state必须为bakcup,且必须配置nopreempt。

注意:这样配置后,我们要注意启动服务的顺序,优先启动的获取master权限,与优先级没有关系了。

2.5非抢占模式配置

之后,主备服务器谁先启动谁就拥有VIP地址,且备服务器不会因为优先级将VIP地址返还给主服务器,只会根据谁先启动就在谁哪里;如果想要返还,需要关闭拥有VIP地址的服务器才能返还;建议在客户端时间少的时间段进行关闭。

 3.配置LVS+Keepalived 高可用群集

沿用了上一篇博客部署LVS-DR群集的配置;其中共享服务器和节点服务器没有变化,主要是配置DR服务器

准备五台虚拟机

主DR 服务器:192.168.10.70
备DR 服务器:192.168.10.60
Web 服务器1:192.168.10.20
Web 服务器2:192.168.10.30
vip:192.168.10.100
NFS共享主机:192.168.10.40

五台虚拟机进行一样的操作,关闭防火墙

systemctl disable --now firewalld.service 
setenforce 0
vim /etc/sysconfig/selinux 

3.1配置共享服务目录

 mkdir /share/{xy101,xy102} -p
 
echo '<h1>this is xy101 web!</h1>' > /share/xy101/test.html
echo '<h1>this is xy102 web!</h1>' > /share/xy102/test.html
 
vim /etc/exports
 
/share/xy101 192.168.10.0/24(ro) (仅读)
/share/xy102 192.168.10.0/24(ro)

3.2开启 rpcbind 和 nfs 并查看 共享目录

systemctl enable --now rpcbind nfs
 
showmount -e

3.3配置节点服务器

安装启动nginx

yum install -y nginx
systemctl start nginx

配置虚拟IP地址

cd /etc/sysconfig/network-scripts/
cp ifcfg-lo ifcfg-lo:0
vim ifcfg-lo:0

调整内核的 ARP 响应参数

vim /etc/sysctl.conf
 
net.ipv4.conf.lo.arp_ignore = 1   
net.ipv4.conf.lo.arp_announce = 2 
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2
 
sysctl -p

设置路由和添加挂载目录
(第一台节点服务器)
route add -host 192.168.10.100 lo:0
 
mount 192.168.10.40:/share/xy101 /usr/share/nginx/html/
(第二台节点服务器)
route add -host 192.168.10.100 dev lo:0
 
mount 192.168.10.40:/share/xy102 /usr/share/nginx/html/

关闭长连接

vim /etc/nginx/nginx.conf
systemctl restart nginx

设置 keepalive_timeout 0;

拓展:永久添加路由的方法

vim /etc/sysconfig/static-routes          #编辑这个文件

any host 192.168.10.100(vip地址) dev lo:0    #添加这条配置

systemctl restart network      #重启网卡

3.4配置负载调度器(主、备相同)

(1)安装 keepalived 服务 和 ipvsadm 服务

yum -y install ipvsadm keepalived

touch /etc/sysconfig/ipvsadm

(2)加载模块并启动 ipvsadm

modprobe ip_vs

cat /proc/net/ip_vs

systemctl start ipvsadm

systemctl enable ipvsadm

systemctl status ipvsadm   $检查状态

(3)配置keeplived(主、备DR 服务器上都要设置)

cd /etc/keepalived/

cp keepalived.conf keepalived.conf.bak   #做备份,就一个文件以防丢失

vim keepalived.conf

主服务器设置

备服务器设置

复制主服务器的配置去备服务器

scp keepalived.conf 192.168.10.60:`pwd`

3.5主备服务器都开启keepalived进行网页测试

systemctl start keepalived

关闭一个web服务器的nginx服务后,可以做到只能在单个web服务器上连接成功

三.nginx + keepalived 高可用

准备虚拟机

一台作NFS共享服务:192.168.10.40

两台作节点服务器:192.168.10.20 和 192.168.10.30 

两台作 nginx 服务器192.168.10.50 和 192.168.10.60

1.准备 nginx 服务器

(1)关闭防火墙

systemctl stop firewalld
systemctl disable --now firewalld
setenforce 0
vim /etc/sysconfig/selinux

systemctl status firewalld   #查看防火墙状态

(2)安装 nginx 服务

在官网下载nginx软件包 nginx-1.24.0-1.el7.ngx.x86_64.rpm

yum localinstall -y nginx-1.24.0-1.el7.ngx.x86_64.rpm

注意:配置四层反向代理需要nginx 的 --with-stream 配置项;可以使用 nginx -V 查看。

2.配置四层反向代理

主配置服务

cd /etc/nginx/
vim nginx.conf 

在events模块下进行配置

stream {
    upstream backends {
       server 192.168.10.20:80;
       server 192.168.10.30:80;
    }

    server {
        listen 8080;
        proxy_pass backends;
    }
}

配置完成后,可以使用 nginx -t 查看语法是否正确

将主配置服务复制到备服务上

 scp nginx.conf 192.168.10.60:`pwd`

之后进行浏览器验证

http://192.168.10.50:8080/test.html

http://192.168.10.60:8080/test.html

3.安装 keepalived 高可用

yum install -y keepalived

4.编写 nginx挂了结束 keepalived 的脚本

cd /etc/keepalived/

touch check_nginx.sh

vim check_nginx.sh


#!/bin/bash

if ! killall -0 nginx &> /dev/null
    then
      systemctl stop keepalived
fi

chmod +x check_nginx.sh   #添加运行权限

5.对 keepalived 高可用进行配置

主服务器

vim keepalived.conf

对备服务器进行修改时间先对备服务器进行文件备份

cp keepalived.conf keepalived.conf.bak

将主服务器的配置复制到备服务器

scp * 192.168.10.60:`pwd`

修改备服务器的 keepalived 的配置 

vim keepalived.conf

6.开启主备服务器的 keepalived 服务进行验证

systemctl start keepalived.service 
systemctl enable keepalived.service 

开启之后 VIP地址优先出现在主服务器上 

浏览器验证

http://192.168.10.100:8080/test.html

7.主服务器 nginx 意外关闭

网页依旧可以正常访问

如何恢复主服务器

优先开启主服务器的 nginx 服务;再开启 主服务器的 keepalived 高可用。

受脚本影响,若先开启 keepalived 会被脚本检测到 nginx 没有开启,脚本会关闭keepalived服务

四.脑裂故障

1.脑裂的现象

主服务器和备服务器都同时拥有相同的VIP

2.产生脑裂原因

因为主服务器和备服务器的通信中断,导致备服务器无法收到主服务器发送的VRRP报文,备服务器误认为主服务器已经故障了并通过ip命令生成VIP

3.如何解决脑裂

关闭主服务器或备服务器其中一个的keepalived服务

4.如何预防脑裂现象

(1)如果是系统防火墙导致,则关闭防火墙或添加防火墙规则放通VRRP组播地址(224.0.0.18)的传输
(2)如果是主备服务器之间的通信链路中断导致,则可以在主备服务器之间添加双链路通信
(3)在主服务器使用脚本定时判断与备服务器通信链路是否中断,如果判断是主备服务器之间的链接中断则自行关闭主服务器上的keepalived服务
(4)利用第三方应用或监控系统检测是否发生了脑裂故障现象,如果确认发生了脑裂故障则通过第三方应用或监控系统来关闭主服务器或备服务器其中一个的keepalived服务

  • 28
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值