18.1 集群介绍
- 根据功能划分为两大类:高可用和负载均衡
- 高可用集群通常为两台服务器,一台工作,另外一台作为冗余,当提供服务的机器宕机,冗余将接替继续提供服务
- 实现高可用的开源软件有:heartbeat、keepalived
- 负载均衡集群,需要有一台服务器作为分发器,它负责把用户的请求分发给后端的服务器处理,在这个集群里,除了分发器外,就是给用户提供服务的服务器了,这些服务器数量至少为2
- 实现负载均衡的开源软件有LVS、keepalived、haproxy、nginx,商业的有F5、Netscaler
18.2 keepalived介绍
- keepalived通过虚拟路由冗余协议,即VRRP(Virtual Router Redundancy Protocol)实现高可用。
- 在VRRP协议里会将多台功能相同的路由器组成一个小组,小组里会有1个master角色和N(N>=1)个backup角色
- master会通过组播的形式向各个backup发送VRRP协议的数据包,当backup收不到master发来的VRRP数据包时,就会认为master宕机了,此时就需要根据各个backup的优先级来决定谁成为新的master
- Keepalived要有三个模块,分别是core、check和vrrp。其中core模块为keepalived的核心,负责主进程的启动、维护以及全局配置文件的加载和解析,check模块负责健康检查,vrrp模块是来实现VRRP协议的
18.3 18.4 18.5 用keepalived配置高可用集群(上)(中)(下)
1、高可用集群配置准备
- 准备两台机器A和B,A作为master,B作为backup
- 两台机器都执行命令:yum install -y keepalived,安装keepalived
- 两台机器都安装nginx,其中A上已经编译安装过nginx,B上需要通过yum的方式安装nginx: yum install -y nginx
- 设定vip为100
2、A机器(master)配置
- 编辑A机器上的keepalived配置文件,内容从https://coding.net/u/aminglinux/p/aminglinux-book/git/blob/master/D21Z/master_keepalived.conf获取
global_defs {
notification_email {
test@test.com
}
notification_email_from root@testlinux.com
smtp_server 127.0.0.1
smtp_connect_timeout 30
router_id LVS_DEVEL
}
vrrp_script chk_nginx { #检测服务是否正常
script "/usr/local/sbin/check_ng.sh"
interval 3
}
vrrp_instance VI_1 {
state MASTER #主从角色不一致
interface ens33
virtual_router_id 51 #主备的id一致
priority 100 #权重,主备角色权重不同
advert_int 1
authentication {
auth_type PASS
auth_pass testlinux>com
}
virtual_ipaddress { #VIP,主备公有的IP,配置一致,主一旦宕机,从则绑定该IP
192.168.188.100
}
track_script {
chk_nginx
}
}
- A机器上编辑监控脚本,内容从https://coding.net/u/aminglinux/p/aminglinux-book/git/blob/master/D21Z/master_check_ng.sh获取,给脚本赋予755权限
#!/bin/bash
#时间变量,用于记录日志
d=`date --date today +%Y%m%d_%H:%M:%S`
#计算nginx进程数量
n=`ps -C nginx --no-heading|wc -l`
#如果进程为0,则启动nginx,并且再次检测nginx进程数量,
#如果还为0,说明nginx无法启动,此时需要关闭keepalived
if [ $n -eq "0" ]; then
/etc/init.d/nginx start #从机器上的nginx通过yum安装的,则启动命令:systemctl start nginx
n2=`ps -C nginx --no-heading|wc -l`
if [ $n2 -eq "0" ]; then
echo "$d nginx down,keepalived will stop" >> /var/log/check_ng.log
systemctl stop keepalived
fi
fi
- A机器上启动keeplived服务:systemctl start keepalived
3、B机器(backup)配置
- B机器上编辑keepalived配置文件,清空文件内容命令:> /etc/keepalived/keepalived.conf;编辑的内容从https://coding.net/u/aminglinux/p/aminglinux-book/git/blob/master/D21Z/backup_keepalived.conf获取
- B机器上编辑监控脚本,内容从https://coding.net/u/aminglinux/p/aminglinux-book/git/blob/master/D21Z/backup_check_ng.sh获取,给脚本755权限
- B机器上也启动keeplived服务 systemctl start keepalived
4、测试高可用
- 先确定好两台机器上nginx差异,比如可以通过curl -I 来查看nginx版本
- 测试1:关闭master上的nginx服务, 预期结果:主从关闭后nginx会自动重启,因为check_ng.sh脚本的作用
- 测试2:在master上增加iptabls规则,将从主上出去的vrrp协议包扔掉,预期结果:未能切换资源
iptables -I OUTPUT -p vrrp -j DROP
- 测试3:关闭master上的keepalived服务, 预期结果:主释放VIP,从绑定VIP,访问VIP,内容有变
- 测试4:启动master上的keepalived服务, 预期结果:主立即绑定VIP,访问VIP,内容恢复为主
18.6 负载均衡集群介绍
- 主流开源软件有:LVS、keepalived、haproxy、nginx等
- 其中LVS属于网络OSI 7层模型的第4层,nginx属于7层,haproxy既可以认为是4层,也可以当做7层使用
- keepalived的负载均衡功能其实就是lvs
- lvs这种4层的负载均衡是可以分发除80外的其他端口通信的,比如MySQL的,而nginx仅仅支持http,https,mail。haproxy也支持MySQL
- 相比较来说,LVS这种4层的更稳定,能承受更多的请求,而nginx这种7层的更加灵活,能实现更多的个性化需求
18.7 LVS介绍
1、LVS介绍
- 流行度不亚于apache的httpd,基于TCP/IP做的路由和转发,稳定性和效率很高
- LVS最新版本基于Linux内核2.6
- LVS有三种常见的模式:NAT、DR、IP Tunnel
- LVS架构中有一个核心角色叫做分发器(Load balancer),它用来分发用户的请求,还有诸多处理用户请求的服务器(Real Server,简称rs)
2、LVS之NAT模式
- 借助iptables的nat表来实现
- 用户的请求到分发器后,通过预设的iptables规则,把请求的数据包转发到后端的rs上去
- rs需要设定网关为分发器的内网ip
- 用户请求的数据包和返回给用户的数据包全部经过分发器,所以分发器成为瓶颈
- 在NAT模式中,只需要分发器设置公网IP即可,rs均使用内网IP,所以比较节省公网IP资源
3、LVS之IP Tunnel模式
- 需要有一个公共的IP(公网IP)配置在分发器和所有rs上,称之为vip
- 客户端请求的目标IP为vip,分发器接收到请求数据包后,会对数据包进行加工,把目标IP改为rs的IP(根据算法,每次更改会不同,以到达不同的rs),这样数据包就到了对应的rs上
- rs接收数据包后,会还原原始数据包,这样目标IP为vip,因为所有rs上配置了这个vip,所以它会认为是它自己。rs解完包后,会知晓来源IP,即客户端的IP,又其配置了一个公共的公网IP,因此可把返回的结果直接通过公网传输给客户端,而不再通过分发器来完成
4、LVS之DR模式
- 需要有一个公共的IP配置在分发器和所有rs上,也就是vip
- 和IP Tunnel不同的是,它会把数据包的MAC地址修改为rs的MAC地址,数据包会达到对应的rs
- rs接收数据包后,会还原原始数据包,这样目标IP为vip,因为所有rs上配置了这个vip,所以它会认为是它自己。各个rs均配置了公共的公网IP,rs直接把结果通过公网传输给客户端,而不再通过分发器来完成
18.8 LVS调度算法
- 轮询 Round-Robin,rr --均衡地分配
- 加权轮询 Weight Round-Robin,wrr --有权重的分配,权重大的会多分配
- 最小连接 Least-Connection, lc --优先把请求分发到请求数比较少的服务器上
- 加权最小连接 Weight Least-Connection,wlc --请求数少的服务器之间,有权重的配置,权重大的多分配
- 基于局部性的最小连接 Locality-Based Least Connections,lblc
- 带复制的基于局部性最小连接 Locality-Based Least Connections with Replication ,lblcr
- 目标地址散列调度 Destination Hashing,dh
- 源地址散列调度 Source Hashing ,sh
18.9 18.10 LVS NAT模式搭建(上)(下)
1、三台机器配置
- 分发器,也叫调度器(简写为dir),内网:133.130,外网:142.147(vmware仅主机模式)
- rs1,内网:133.132,设置网关为133.130
- rs2,内网:133.133,设置网关为133.130
三台机器上均执行以下命令
- systemctl stop firewalld; systemc disable firewalld #关闭防火墙,且开机不启动
- systemctl enable iptables.services; systemctl start iptables.services; iptables -F; service iptables save #开启iptables服务,清空规则,后续调用新规则
- setenforce 0 #临时关闭SELinux,可更改配置文件/etc/selinux/config永久关闭
2、NAT模式搭建
- 在分发器dir上安装ipvsadm,实现LVS的重要工具
yum install -y ipvsdam
- 在分发器dir上编写脚本,vim /usr/local/sbin/lvs_nat.sh,内容如下
#! /bin/bash
# director 服务器上开启路由转发功能,使数据包能转发到后面的rs上去
echo 1 > /proc/sys/net/ipv4/ip_forward
# 关闭icmp的重定向
echo 0 > /proc/sys/net/ipv4/conf/all/send_redirects
echo 0 > /proc/sys/net/ipv4/conf/default/send_redirects
# 注意区分网卡名字
echo 0 > /proc/sys/net/ipv4/conf/ens33/send_redirects
echo 0 > /proc/sys/net/ipv4/conf/ens37/send_redirects
# director 设置nat防火墙
iptables -t nat -F
iptables -t nat -X
iptables -t nat -A POSTROUTING -s 192.168.133.0/24 -j MASQUERADE
# director设置ipvsadm,命令:ipvsadm -ln查看规则
IPVSADM='/usr/sbin/ipvsadm'
$IPVSADM -C #清空规则
$IPVSADM -A -t 192.168.142.147:80 -s rr -p 3 #增加规则,SLC算法是rr,“-p”超时时间,单位是秒,针对对象是ip,同一个ip来源的请求,会在这个时间段内请求到同一个rs上
$IPVSADM -a -t 192.168.142.147:80 -r 192.168.133.132:80 -m -w 1 #“-r”选项指定rs的ip+端口。选项“-m”说明是NAT模式。选项“-w”设置权重
$IPVSADM -a -t 192.168.142.147:80 -r 192.168.133.133:80 -m -w 1
3、NAT模式测试
- 两台rs上都安装nginx,设置两台rs的主页,以示区分,也就是说直接用curl命令测试两台rs的ip时,得到不同的结果
- 浏览器里访问192.168.142.147,多访问几次看结果差异