18.1 集群介绍
18.2 keepalived介绍
18.3/18.4/18.5 用keepalived配置高可用集群
18.6 负载均衡集群介绍
18.7 LVS介绍
18.8 LVS调度算法
18.9/18.10 LVS NAT模式搭建
18.1 集群介绍
集群的概念
- 集群由多台服务器构成,是为了完成同一个目的的联合体。
根据功能划分为两大类:高可用和负载均衡
高可用集群
- 通常为两台服务器,一台工作,另外一台作为冗余,当提供服务的机器宕机,冗余将接替继续提供服务
- 实现高可用的开源软件有:heartbeat、keepalived
- 高可用的衡量标准是四个九即99.99%。时间为一年。有的是五个九甚至六个九。
负载均衡集群
- 需要有一台服务器作为分发器,它负责把用户的请求分发给后端的服务器处理。
- 在这个集群里,除了分发器外,就是给用户提供服务的服务器了,这些服务器数量至少为2
- 实现负载均衡的开源软件有LVS、keepalived、haproxy、nginx,
- 商业的有F5、Netscaler
18.2 keepalived介绍
- 由于heartbeat在centos6上有一些问题,影响实验效果。
- 所以在这里我们使用keepalived来实现高可用集群。
VRRP(Virtual Router Redundancy Protocl)
- VRRP(虚拟路由冗余协议)
- keepalived通过VRRP(Virtual Router Redundancy Protocl)来实现高可用。
- 在这个协议里会将多台功能相同的路由器组成一个小组。
- 这个小组里会有1个master角色和N(N>=1)个backup角色。
- master会通过组播的形式向各个backup发送VRRP协议的数据包。
- 当backup收不到master发来的VRRP数据包时,就会认为master宕机了。
- 此时就需要根据各个backup的优先级来决定谁成为新的mater。
Keepalived的三个模块:core、check和vrrp
- core模块为keepalived的核心,负责主进程的启动、维护以及全局配置文件的加载和解析。
- check模块负责健康检查
- vrrp模块是来实现VRRP协议的
18.3/18.4/18.5 用keepalived配置高可用集群
1,环境布署
- 准备两台机器,IP分别为192.168.19.101和192.168.19.102
- 192.168.19.101为master
- 192.168.19.101为backup
- 两台机器都安装keepalived
yum install -y keepalived
- master通过编译安装nginx
- backup通过
yum install -y nginx
安装
2,配置master
- yum安装的keepalived配置文件在/etc/keepalived/keepalived.conf
- 清空keepalived配置文件。
> /etc/keepalived/keepalived.conf
vim /etc/keepalived/keepalived.conf
- 将以下内容写入
global_defs {
notification_email {
aming@aminglinux.com
}
notification_email_from root@aminglinux.com
smtp_server 127.0.0.1
smtp_connect_timeout 30
router_id LVS_DEVEL
}
vrrp_script chk_nginx {
script "/usr/local/sbin/check_ng.sh"
interval 3
}
vrrp_instance VI_1 {
state MASTER
interface ens33
virtual_router_id 51
priority 100
advert_int 1
authentication {
auth_type PASS
auth_pass aminglinux>com
}
virtual_ipaddress {
192.168.19.100
}
track_script {
chk_nginx
}
}
- 配置说明:
vrrp_script chk_nginx定义了健康检查脚本的位置。
virtual_ipaddress定义了高可用环境下的共用IP。 - 编写健康检查脚本
vim /usr/local/sbin/check_ng.sh
#!/bin/bash
#时间变量,用于记录日志
d=`date --date today +%Y%m%d_%H:%M:%S`
#计算nginx进程数量
n=`ps -C nginx --no-heading|wc -l`
#如果进程为0,则启动nginx,并且再次检测nginx进程数量,
#如果还为0,说明nginx无法启动,此时需要关闭keepalived
if [ $n -eq "0" ]; then
/etc/init.d/nginx start
n2=`ps -C nginx --no-heading|wc -l`
if [ $n2 -eq "0" ]; then
echo "$d nginx down,keepalived will stop" >> /var/log/check_ng.log
systemctl stop keepalived
fi
fi
- 写完这个脚本后要为其做权限变更。
chmod 755 /usr/local/sbin/check_ng.sh
- 这个脚本的作用就是:
检查nginx进程是否存在。
如果不存在就启动这个进程。
如果无法启动就杀掉keepalived进程。
因为如果真的无法启动ningx就说明主服务器挂了,要启动备用服务器。这时就不应该存在主机的keepalived。 - 启动keepalived
systemctl start keepalived
- 这时如果停止nginx但它依然会自动启动,说明keepalived配置成功。
- 通过/var/log/messages文件可以查看日志
- vip地址只能用ip add命令查看到。
3,配置backup
- 清空配置文件
> /etc/keepalived/keepalived.conf
vim /etc/keepalived/keepalived.conf
- 添加以下内容
global_defs {
notification_email {
aming@aminglinux.com
}
notification_email_from root@aminglinux.com
smtp_server 127.0.0.1
smtp_connect_timeout 30
router_id LVS_DEVEL
}
vrrp_script chk_nginx {
script "/usr/local/sbin/check_ng.sh"
interval 3
}
vrrp_instance VI_1 {
state BACKUP
interface ens33
virtual_router_id 51
priority 90
advert_int 1
authentication {
auth_type PASS
auth_pass aminglinux>com
}
virtual_ipaddress {
192.168.19.100
}
track_script {
chk_nginx
}
}
- 配置说明
state BACKUP是这台服务器的角色。主机就是MASTER
virtual_router_id要和主机保挂一致
priority是权重,要低于主机 - 编写健康检查脚本
vim /usr/local/sbin/check_ng.sh
#!/bin/bash
#时间变量,用于记录日志
d=`date --date today +%Y%m%d_%H:%M:%S`
#计算nginx进程数量
n=`ps -C nginx --no-heading|wc -l`
#如果进程为0,则启动nginx,并且再次检测nginx进程数量,
#如果还为0,说明nginx无法启动,此时需要关闭keepalived
if [ $n -eq "0" ]; then
systemctl start nginx
n2=`ps -C nginx --no-heading|wc -l`
if [ $n2 -eq "0" ]; then
echo "$d nginx down,keepalived will stop" >> /var/log/check_ng.log
systemctl stop keepalived
fi
fi
- 写完后给脚本755权限
chmod 755 /usr/local/sbin/check_ng.sh
- 和主服务器有一点区别在于备机的nginx是通过yum安装的。所以可以用systemctl来控制。
- 启动keepalived
systemctl start keepalived
- 使用yum 安装的nginx默认主面在/usr/share/nginx/html/index.html
4,测试keepalived高可用集群。
- 先确定好两台机器上nginx差异,比如可以通过curl -I 来查看nginx版本
- 测试1:关闭master上的nginx服务
结果:没有变化,因为keepalived的存在nginx会自动启动nginx - 测试2:在master上增加iptabls规则
iptables -I OUTPUT -p vrrp -j DROP
结果:没有变化,阻止vrrp出口协议并不会影响web访问。 - 测试3:关闭master上的keepalived服务
关闭后,备机马上接管了192.168.19.100的vip。 - 测试4:启动master上的keepalived服务
vip恢复到了主机的默认页面。因为权重比备机高。
18.6 负载均衡集群介绍
- 主流开源软件LVS、keepalived、haproxy、nginx等
- 其中LVS属于4层(网络OSI 7层模型),nginx属于7层,haproxy既可以认为是4层,也可以当做7层使用
- keepalived的负载均衡功能其实就是lvs。keepalived内置了lvs
- lvs这种4层的负载均衡是可以分发除80外的其他端口通信的,比如MySQL的,而nginx仅仅支持http,https,mail,haproxy也支持MySQL这种
- 相比较来说,LVS这种4层的更稳定,能承受更多的请求,而nginx这种7层的更加灵活,能实现更多的个性化需求(比如针对某个目录或请求)
18.7 LVS介绍
1,lvs简介
- LVS是由国人章文嵩开发
- 流行度不亚于apache的httpd,基于TCP/IP做的路由和转发,稳定性和效率很高
- LVS最新版本基于Linux内核2.6,有好多年不更新了
- LVS架构中有一个核心角色叫做分发器(Load balance),它用来分发用户的请求,还有诸多处理用户请求的服务器(Real Server,简称rs)
- LVS有三种常见的模式:NAT、DR、IP Tunnel
2,NAT模式
- 这种模式借助iptables的nat表来实现
- 用户的请求到分发器后,通过预设的iptables规则,把请求的数据包转发到后端的rs上去
- rs需要设定网关为分发器的内网ip
- 用户请求的数据包和返回给用户的数据包全部经过分发器,所以分发器成为瓶颈
- 在nat模式中,只需要分发器有公网ip即可,所以比较节省公网ip资源
3,IP Tunnel模式
- 这种模式,需要有一个公共的IP配置在分发器和所有rs上,我们把它叫做vip
- 客户端请求的目标IP为vip,分发器接收到请求数据包后,会对数据包做一个加工,会把目标IP改为rs的IP,这样数据包就到了rs上
- rs接收数据包后,会还原原始数据包,这样目标IP为vip,因为所有rs上配置了这个vip,所以它会认为是它自己
4,DR模式
- 这种模式,也需要有一个公共的IP配置在分发器和所有rs上,也就是vip
- 和IP Tunnel不同的是,它会把数据包的MAC地址修改为rs的MAC地址
- rs接收数据包后,会还原原始数据包,这样目标IP为vip,因为所有rs上配置了这个vip,所以它会认为是它自己
18.8 LVS调度算法
- 轮询 Round-Robin rr
就是挨个给,不分高低贵贱 - 加权轮询 Weight Round-Robin wrr
权重高的给的多 - 最小连接 Least-Connection lc
谁闲给得谁多 - 加权最小连接 Weight Least-Connection wlc
在lc的基础上引入了权重概念 - 基于局部性的最小连接 Locality-Based Least Connections lblc
- 带复制的基于局部性最小连接 Locality-Based Least Connections with Replication lblcr
- 目标地址散列调度 Destination Hashing dh
- 源地址散列调度 Source Hashing sh
18.9/18.10 LVS NAT模式搭建
1,环境布署
- 三台机器:分别是一台分发器,也叫调度器(简写为dir),两台RS
- 分发器配置
内网:192.168.19.101 外网:192.168.47.128 - RS1
内网:192.168.19.102 网关:192.168.19.101 - RS2
内网:192.168.19.103 网关:192.168.19.101
2,关闭所有机器的防火墙
systemctl stop firewalld; systemctl disable firewalld
3,安装iptables并启动
yum install -y iptables-services
systemctl start iptables.service; iptables -F; service iptables save
- 这里要使用iptables的配置
- 顺便把selinux也关了。
setenforce 0
4,在分发器(dir)上安装ipvsadm
yum install -y ipvsadm
5,在dir上编写脚本
vim /usr/local/sbin/lvs_nat.sh
- 内容如下
#! /bin/bash
# director 服务器上开启路由转发功能
echo 1 > /proc/sys/net/ipv4/ip_forward
# 关闭icmp的重定向
echo 0 > /proc/sys/net/ipv4/conf/all/send_redirects
echo 0 > /proc/sys/net/ipv4/conf/default/send_redirects
# 注意区分网卡名字,阿铭的两个网卡分别为ens33和ens37
echo 0 > /proc/sys/net/ipv4/conf/ens33/send_redirects
echo 0 > /proc/sys/net/ipv4/conf/ens37/send_redirects
# director 设置nat防火墙
iptables -t nat -F
iptables -t nat -X
iptables -t nat -A POSTROUTING -s 192.168.19.0/24 -j MASQUERADE
# director设置ipvsadm
IPVSADM='/usr/sbin/ipvsadm'
# 清空规则
$IPVSADM -C
# -A使用nat模式-s指定算法-p超时时间(相同ip在这个时间内会一直连接刚才的RS)单位秒
$IPVSADM -A -t 192.168.47.128:80 -s wlc -p 3
# -r指定rs地址-m指nat模式-w指定权重
$IPVSADM -a -t 192.168.47.128:80 -r 192.168.19.102:80 -m -w 1
$IPVSADM -a -t 192.168.47.128:80 -r 192.168.19.103:80 -m -w 1
6,执行脚本
sh /usr/local/sbin/lvs_nat.sh
- 没有错误提示说明执行成功。
7,测试
- 在rs上编辑初始化页面,做一个区分两台RS的标志。
echo RS1------RS1 > /usr/share/nginx/html/index.html
- RS2也编辑一下,把内容改成RS2
echo RS2------RS2 > /usr/share/nginx/html/index.html
直播笔记
1 集群以及分类
2 高可用架构的意义
3 Keepalived的实现原理
VRRP协议
https://blog.csdn.net/u013920085/article/details/21184143
4 LVS 三种模式图解
http://blog.51cto.com/jiekeyang/1839583