18.1 集群介绍
Linux集群概述:
- 根据功能划分为两大类:高可用和负载均衡;
- 高可用集群通常为两台服务器,一台工作,另外一台作为冗余,当提供服务的机器宕机,冗余将接替继续提供服务;
- 实现高可用的开源软件有:heartbeat、keepalived;
- 负载均衡集群,需要有一台服务器作为分发器,它负责把用户的请求分发给后端的服务器处理,在这个集群里,除了分发器外,就是给用户提供服务的服务器了,这些服务器数量至少为2;
- 实现负载均衡的开源软件有LVS、keepalived、haproxy、nginx,商业的有F5、Netscaler。
18.2 keepalived介绍
- 在这里我们使用keepalived来实现高可用集群,因为heartbeat在centos6上有一些问题,影响实验效果;
- keepalived通过VRRP(Virtual Router Redundancy Protocl)虚拟路由冗余协议,来实现高可用;
- 在这个协议里会将多台功能相同的路由器组成一个小组,这个小组里会有1个master角色和N(N>=1)个backup角色;
- master会通过组播的形式向各个backup发送VRRP协议的数据包,当backup收不到master发来的VRRP数据包时,就会认为master宕机了。此时就需要根据各个backup的优先级来决定谁成为新的mater;
- Keepalived要有三个模块,分别是core、check和vrrp。其中core模块为keepalived的核心,负责主进程的启动、维护以及全局配置文件的加载和解析,check模块负责健康检查,vrrp模块是来实现VRRP协议的。
18.3 用keepalived配置高可用集群
1、准备两台机器:master和backup,都安装keepalived。都安装nginx,用nginx作为高可用对象,因为nginx大多数作为负载均衡器。
yum install -y keepalived;
yum install -y nginx
2、Master配置:
编辑master上的keepalived配置文件/etc/keepalived/keepalived.conf,内容从https://coding.net/u/aminglinux/p/aminglinux-book/git/blob/master/D21Z/master_keepalived.conf获取。
首先清空默认的配置:
[root@liang-00 ~]# vim /etc/keepalived/keepalived.conf [root@liang-00 ~]# > !$ > /etc/keepalived/keepalived.conf [root@liang-00 ~]#
在master配置文件中添加内容:
global_defs { notification_email { #出问题发送邮件。 aming@aminglinux.com } notification_email_from root@aminglinux.com #邮件源发送用户 smtp_server 127.0.0.1 smtp_connect_timeout 30 router_id LVS_DEVEL } vrrp_script chk_nginx { #检测服务是否正常 script "/usr/local/sbin/check_ng.sh" #检测脚本 interval 3 # 3秒检测一次。 } vrrp_instance VI_1 { state MASTER #角色 interface ens33 #检测网卡 virtual_router_id 51 #定义路由器的ID priority 100 #master的权重 advert_int 1 # authentication { #认证相关的信息 auth_type PASS auth_pass aminglinux>com } virtual_ipaddress { #定义vip,公有ip,正常情况下master映射,master出故障后,backup映射。 192.168.188.100 } track_script { chk_nginx } }
在master中编辑监控脚本:
在https://coding.net/u/aminglinux/p/aminglinux-book/git/blob/master/D21Z/master_check_ng.sh获取;
路径:/usr/local/sbin/check_ng.sh
#!/bin/bash #时间变量,用于记录日志 d=`date --date today +%Y%m%d_%H:%M:%S` #计算nginx进程数量 n=`ps -C nginx --no-heading|wc -l` #如果进程为0,则启动nginx,并且再次检测nginx进程数量, #如果还为0,说明nginx无法启动,此时需要关闭keepalived,以免影响其他。 if [ $n -eq "0" ]; then /etc/init.d/nginx start n2=`ps -C nginx --no-heading|wc -l` if [ $n2 -eq "0" ]; then echo "$d nginx down,keepalived will stop" >> /var/log/check_ng.log systemctl stop keepalived fi fi
编辑完成之后更改权限:chmod 755 /usr/local/sbin/check_ng.sh 保证脚本可以自动加载,以及keepalived服务的可用。
启动keepalived服务,检查keepalived和nginx服务是否启动:
[root@liang-00 ~]# systemctl start keepalived.service [root@liang-00 ~]# ps aux|grep keep root 3644 0.0 0.1 118676 1392 ? Ss 11:24 0:00 /usr/sbin/keepalived -D root 3645 1.0 0.2 122876 2372 ? S 11:24 0:00 /usr/sbin/keepalived -D root 3646 1.0 0.2 129544 2664 ? S 11:24 0:00 /usr/sbin/keepalived -D root 3654 0.0 0.1 129544 1192 ? S 11:24 0:00 /usr/sbin/keepalived -D root 3661 0.0 0.0 112704 972 pts/0 S+ 11:24 0:00 grep --color=auto keep [root@liang-00 ~]# ps aux|grep nginx root 3684 0.0 0.1 46032 1280 ? Ss 11:24 0:00 nginx: master process /usr/local/nginx/sbin/nginx -c /usr/local/nginx/conf/nginx.conf nobody 3685 0.0 0.3 48520 3924 ? S 11:24 0:00 nginx: worker process nobody 3686 0.0 0.3 48520 3924 ? S 11:24 0:00 nginx: worker process root 3697 0.0 0.0 112704 972 pts/0 S+ 11:24 0:00 grep --color=auto nginx [root@liang-00 ~]#
停掉nginx,会看到nginx又自动加载了:
[root@liang-00 ~]# systemctl stop nginx.service [root@liang-00 ~]# ps aux|grep nginx root 3954 0.0 0.1 46032 1280 ? Ss 11:25 0:00 nginx: master process /usr/local/nginx/sbin/nginx -c /usr/local/nginx/conf/nginx.conf nobody 3955 0.0 0.3 48520 3924 ? S 11:25 0:00 nginx: worker process nobody 3957 0.0 0.3 48520 3924 ? S 11:25 0:00 nginx: worker process root 3961 0.0 0.0 112704 968 pts/0 S+ 11:26 0:00 grep --color=auto nginx [root@liang-00 ~]#
日志/var/log/message
vip查看:
[root@liang-00 ~]# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
link/ether 00:0c:29:f5:8a:7f brd ff:ff:ff:ff:ff:ff
inet 192.168.37.200/24 brd 192.168.37.255 scope global ens33
valid_lft forever preferred_lft forever
inet 192.168.37.100/32 scope global ens33
valid_lft forever preferred_lft forever
inet 192.168.37.199/24 brd 192.168.37.255 scope global secondary ens33:0
valid_lft forever preferred_lft forever
inet6 fe80::20c:29ff:fef5:8a7f/64 scope link
valid_lft forever preferred_lft forever
[root@liang-00 ~]#
3、backup配置
首先编辑keepalived配置文件:/etc/keepalived/keepalived.conf
global_defs { notification_email { aming@aminglinux.com } notification_email_from root@aminglinux.com smtp_server 127.0.0.1 smtp_connect_timeout 30 router_id LVS_DEVEL } vrrp_script chk_nginx { script "/usr/local/sbin/check_ng.sh" interval 3 } vrrp_instance VI_1 { state BACKUP interface ens33 virtual_router_id 51 priority 90 advert_int 1 authentication { auth_type PASS auth_pass aminglinux>com } virtual_ipaddress { 192.168.37.100 } track_script { chk_nginx } }
编辑监控脚本:/usr/local/sbin/check_ng.sh
#!/bin/bash #时间变量,用于记录日志 d=`date --date today +%Y%m%d_%H:%M:%S` #计算nginx进程数量 n=`ps -C nginx --no-heading|wc -l` #如果进程为0,则启动nginx,并且再次检测nginx进程数量, #如果还为0,说明nginx无法启动,此时需要关闭keepalived if [ $n -eq "0" ]; then systemctl start nginx n2=`ps -C nginx --no-heading|wc -l` if [ $n2 -eq "0" ]; then echo "$d nginx down,keepalived will stop" >> /var/log/check_ng.log systemctl stop keepalived fi fi
编辑完成之后更改权限:chmod 755 /usr/local/sbin/check_ng.sh 保证脚本可以自动加载,以及keepalived服务的可用。
启动keepalived服务:
[root@liang-03 ~]# systemctl start keepalived [root@liang-03 ~]# ps aux|grep keepalive root 1764 0.0 0.1 118676 1400 ? Ss 11:52 0:00 /usr/sbin/keepalived -D root 1765 0.7 0.3 129604 3288 ? S 11:52 0:00 /usr/sbin/keepalived -D root 1766 0.0 0.2 129544 2848 ? S 11:52 0:00 /usr/sbin/keepalived -D root 1808 0.0 0.0 112704 968 pts/0 S+ 11:52 0:00 grep --color=auto keepalive [root@liang-03 ~]# ps aux|grep nginx root 1789 0.1 0.2 125096 2116 ? Ss 11:52 0:00 nginx: master process /usr/sbin/nginx nginx 1790 0.0 0.3 125484 3144 ? S 11:52 0:00 nginx: worker process nginx 1792 0.0 0.3 125484 3144 ? S 11:52 0:00 nginx: worker process root 1822 0.0 0.0 112704 972 pts/0 S+ 11:52 0:00 grep --color=auto nginx [root@liang-03 ~]# systemctl stop nginx [root@liang-03 ~]# ps aux|grep nginx root 1894 0.0 0.2 125096 2116 ? Ss 11:53 0:00 nginx: master process /usr/sbin/nginx nginx 1895 0.0 0.3 125484 3144 ? S 11:53 0:00 nginx: worker process nginx 1896 0.0 0.3 125484 3144 ? S 11:53 0:00 nginx: worker process root 1901 0.0 0.0 112704 968 pts/0 S+ 11:53 0:00 grep --color=auto nginx [root@liang-03 ~]#
4、服务测试。
在浏览器中直接访问master的IP:192.168.37.200,直接跳转到nginx默认虚拟主机上。
访问backup的IP:192.168.37.203,跳转到backup的nginx默认页面:/usr/share/nginx/html/index.html
访问vip会跳转到master上:192.168.37.100
5、测试高可用。
确定两台机器上的nginx的差异,比如可以用curl -I 查看nginx的版本。
1)关闭master上的nginx服务:nginx服务加入的keepalived服务文件,无法关闭。
2)在master上添加iptables规则:iptables -I OUTPUT -p vrrp -j DROP
在master上禁掉vrrp,并没有切换backup,说明不会受到影响。
3)在master上停掉keepalived服务:
master上ip addr:
[root@liang-00 ~]# systemctl stop keepalived.service [root@liang-00 ~]# ip addr 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo valid_lft forever preferred_lft forever inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000 link/ether 00:0c:29:f5:8a:7f brd ff:ff:ff:ff:ff:ff inet 192.168.37.200/24 brd 192.168.37.255 scope global ens33 valid_lft forever preferred_lft forever inet 192.168.37.199/24 brd 192.168.37.255 scope global secondary ens33:0 valid_lft forever preferred_lft forever inet6 fe80::20c:29ff:fef5:8a7f/64 scope link valid_lft forever preferred_lft forever [root@liang-00 ~]#
backup上ip addr,vip:
[root@liang-03 ~]# ip addr 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo valid_lft forever preferred_lft forever inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000 link/ether 00:0c:29:ff:51:9d brd ff:ff:ff:ff:ff:ff inet 192.168.37.203/24 brd 192.168.37.255 scope global noprefixroute ens33 valid_lft forever preferred_lft forever inet 192.168.37.100/32 scope global ens33 valid_lft forever preferred_lft forever inet6 fe80::424d:1d7a:7483:4c50/64 scope link noprefixroute valid_lft forever preferred_lft forever [root@liang-03 ~]#
成功切换到backup上。
查看日志:
Dec 30 12:22:41 liang-03 Keepalived_vrrp[1766]: Sending gratuitous ARP on ens33 for 192.168.37.100 Dec 30 12:22:46 liang-03 Keepalived_vrrp[1766]: Sending gratuitous ARP on ens33 for 192.168.37.100 Dec 30 12:22:46 liang-03 Keepalived_vrrp[1766]: VRRP_Instance(VI_1) Sending/queueing gratuitous ARPs on ens33 for 192.168.37.100 Dec 30 12:22:46 liang-03 Keepalived_vrrp[1766]: Sending gratuitous ARP on ens33 for 192.168.37.100 Dec 30 12:22:46 liang-03 Keepalived_vrrp[1766]: Sending gratuitous ARP on ens33 for 192.168.37.100 Dec 30 12:22:46 liang-03 Keepalived_vrrp[1766]: Sending gratuitous ARP on ens33 for 192.168.37.100 Dec 30 12:22:46 liang-03 Keepalived_vrrp[1766]: Sending gratuitous ARP on ens33 for 192.168.37.100 [root@liang-03 ~]#
4)再次启动master上的keepalived,vip又再次回到master上:192.168.37.100
18.6 负载均衡集群介绍
- 主流开源软件LVS、keepalived、haproxy、nginx等;
- 其中LVS属于4层(网络OSI 7层模型),nginx属于7层,haproxy既可以认为是4层,也可以当做7层使用;
- keepalived的负载均衡功能其实就是lvs;
- lvs这种4层的负载均衡是可以分发除80外的其他端口通信的,比如MySQL的,而nginx仅仅支持http,https,mail,haproxy也支持MySQL这种;
- 相比较来说,LVS这种4层的更稳定,能承受更多的请求,而nginx这种7层的更加灵活,能实现更多的个性化需求。
OSI7层模型:7 应用层、 6 表示层、 5 会话层、 4 传输层、 3 网络层、 2 数据链路层、 1 物理层。
关于OSI7层模型,更详细的内容可以观看:阿铭friends--永不止步的网路基础
18.7 LVS介绍
- LVS是由国人章文嵩开发;
- 流行度不亚于apache的httpd,基于TCP/IP做的路由和转发,稳定性和效率很高;
- LVS最新版本基于Linux内核2.6,有好多年不更新了;
- LVS有三种常见的模式:NAT(iptables--NAT表)、DR、IP Tunnel;
- LVS架构中有一个核心角色叫做分发器(Load Balancer),它用来分发用户的请求,还有诸多处理用户请求的服务器(Real Server,简称rs)。
1、LVS NAT模式。
- 这种模式借助iptables的nat表来实现;
- 用户的请求到分发器后,通过预设的iptables规则,把请求的数据包转发到后端的rs上去;(当访问量非常大的时候,load balancer还要把rs返回的结果发给user,这样会导致load balancer效率变低;所以,一般的NAT模式请求量不要超过10台。)
- rs需要设定网关为分发器的内网ip;
- 用户请求的数据包和返回给用户的数据包全部经过分发器,所以分发器成为瓶颈;
- 在nat模式中,只需要分发器有公网ip即可,所以比较节省公网ip资源;
2、LVS IP Tunnel模式。
- 这种模式,需要有一个公共的IP配置在分发器和所有rs上,我们把它叫做vip;
- 客户端请求的目标IP为vip,分发器接收到请求数据包后,会对数据包做一个加工,会把目标IP改为rs的IP,这样数据包就到了rs上;
- rs接收数据包后,会还原原始数据包,这样目标IP为vip,因为所有rs上配置了这个vip,所以它会认为是它自己。(rs在次发送数据包时,直接把数据包发送给user,不经过load balancer,减轻了其负载。)
3、LVS DR模式。
- 这种模式,也需要有一个公共的IP配置在分发器和所有rs上,也就是vip;
- 和IP Tunnel不同的是,它会把数据包的MAC地址修改为rs的MAC地址(arp解析);
- rs接收数据包后,会还原原始数据包,这样目标IP为vip,因为所有rs上配置了这个vip,所以它会认为是它自己。
18.8 LVS的调度算法
lvs的调度算法有八种,其中前四种需要知道:
- 轮询 Round-Robin rr
- 加权轮询 Weight Round-Robin wrr
- 最小连接 Least-Connection lc
- 加权最小连接 Weight Least-Connection wlc
- 基于局部性的最小连接 Locality-Based Least Connections lblc
- 带复制的基于局部性最小连接 Locality-Based Least Connections with Replication lblcr
- 目标地址散列调度 Destination Hashing dh
- 源地址散列调度 Source Hashing sh
18.9 LVS NAT模式搭建
1、准备工作
三台机器。
分发器,也叫调度器(简写为dir)
内网:192.168.37.200,外网(模拟外网):192.168.168.129(vmware仅主机模式)
rs1
内网:192.168.37.203,设置网关为192.168.37.200
rs2
内网:192.168.37.204,设置网关为192.168.37.200
三台机器上都执行执行
systemctl stop firewalld; systemc disable firewalld
systemctl start iptables.services; iptables -F; service iptables save
2、NAT模式搭建
在dir上安装ipvsadm:yum -y install ipvsadm
编写脚本:/usr/local/sbin/lvs_nat.sh
#! /bin/bash # director 服务器上开启路由转发功能 echo 1 > /proc/sys/net/ipv4/ip_forward # 关闭icmp的重定向 echo 0 > /proc/sys/net/ipv4/conf/all/send_redirects echo 0 > /proc/sys/net/ipv4/conf/default/send_redirects # 注意区分网卡名字,两个网卡分别为ens33和ens37 echo 0 > /proc/sys/net/ipv4/conf/ens33/send_redirects echo 0 > /proc/sys/net/ipv4/conf/ens37/send_redirects # director 设置nat防火墙 iptables -t nat -F iptables -t nat -X iptables -t nat -A POSTROUTING -s 192.168.37.0/24 -j MASQUERADE #让同网段的能上网 # director设置ipvsadm IPVSADM='/usr/sbin/ipvsadm' $IPVSADM -C #清空规则 $IPVSADM -A -t 192.168.168.129:80 -s wlc #-p 指定超时时间 $IPVSADM -a -t 192.168.168.129:80 -r 192.168.37.203:80 -m -w 1 $IPVSADM -a -t 192.168.168.129:80 -r 192.168.37.204:80 -m -w 1
启动rs1和rs2的nginx服务,访问页面 /usr/share/nginx/html/index.html 分别设为:backup-03和backup-04
在dir中执行lvs_nat.sh脚本:
[root@liang-00 ~]# sh /usr/local/sbin/lvs_nat.sh [root@liang-00 ~]#
查看ipvsadm规则是否生效:
[root@liang-00 ~]# ipvsadm -ln IP Virtual Server version 1.2.1 (size=4096) Prot LocalAddress:Port Scheduler Flags -> RemoteAddress:Port Forward Weight ActiveConn InActConn TCP 192.168.168.129:80 rr -> 192.168.37.203:80 Masq 1 0 3 -> 192.168.37.204:80 Masq 1 0 5 [root@liang-00 ~]#
浏览器访问“公网”IP:192.168.168.129。
用curl访问:192.168.168.129。
[root@liang-00 ~]# curl 192.168.168.129 backup-03! [root@liang-00 ~]# curl 192.168.168.129 backup-04! [root@liang-00 ~]# curl 192.168.168.129 backup-03! [root@liang-00 ~]# curl 192.168.168.129 backup-04! [root@liang-00 ~]# curl 192.168.168.129 backup-03! [root@liang-00 ~]# curl 192.168.168.129 backup-04!