LVS 负载均衡群集
前言
在各种互联网应用中,随着站点对硬件性能、响应速度、服务稳定性、数据可靠性等要求越来越高,单台服务器将难以承担所有的访问(即负载均衡及高可用性的要求)
除了使用价格昂贵的大型机、专用负载分流设备外,企业还有另外一种选择来解决难题,那就是构建集群服务器——通过整合多台对廉价的普通服务器,以同一个地址对外提供相同的服务。
所以LVS(Linux Virtual Server,Linux 虚拟服务器)应运而生。
一、LVS 群集应用基础
1.群集技术概述
根据企业实际环境的不同,群集所提供的功能也各不相同,采用的技术细节也可能各有千秋
然而从整体上看,需要先了解一些关于群集的共性特征,这样才能在构建和维护群集的工作中做到心中有数,避免操作上的盲目西行
1.1 群集的分类
无论哪种群集,都至少包括两台节点服务器,而对外表现为一个整体,只提供一个访问入口(域名或IP系统)
根据群集所针对的目标差异,可分为以下三种类型:
1.负载均衡群集(Load Balance Cluster)
2. 高可用群集 (High Availability Cluster)
3.高性能运算群集 (High Performance Computer Cluster)
负载均衡群集:(Load Balance Cluster)
提高应用系统的响应能力、尽可能处理更多的访问请求、减少延迟为目标,获得高并发、高负载(LB)的整体性能
例如,“DNS轮询”“应用层交换”“反向代理”等都可用做负载均衡群集
LB的负载分配依赖于主节点的分流算法,将来自客户机的访问请求分担给多个服务器节点,从而缓解整个系统的负载
高可用群集: (High Availability Cluster)
提高应用系统的可靠性、尽可能地减少中断时间为目标,确保服务的连续性,达到高可用(HA)的容错效果
例如,“故障切换”“双机热备”等都是属于高可用群集技术
HA的工作方式包括双工和主从两种模式,双工即所有节点同时在线;主从则只有主节点在线,但当出现故障时从节点能自动切换为主节点
高性能运算群集 :(High Performance Computer Cluster)
以提高应用系统的CPU运算速度、扩展硬件资源和分析能力为目标,获得相当于大型、超级计算机的高性能运算(HPC)能力
例如,“云计算”“网格计算”也可视为高性能运算的一种
高性能依赖于"分布式运算”、“并行计算”,通过专用硬件和软件将多个服务器的CPU、内存等资源整合在一起,实现只有大型、超级计算机才具备的计算能力
1.2负载均衡的分层结构
在典型的负载均衡群集中,包括三个层次的组件,前端至少有一个负载调度器(Load Balancer,或称为 Director)负责响应并分发来自客户端的访问请求
后端由大量真实服务器(Real Server)构成服务器池(Server Pool),提供实际的应用服务,整个群集的伸缩性通过增加、删除服务器节点来完成,而这些过程对客户机是透明的
为了保持服务的一致性,所有节点统一使用共享存储设备
1.2.1 第一层 负载调度器
访问整个群集系统的唯一入口,对外使用所有服务器共有的 VIP(Virtual IP,虚拟 IP)地址,也称为群集 IP 地址
通常会配置主、备两台调度器实现热备份,当主调度器失效以后能够平滑替换至备用调度器,确保高可用性
1.2.2 第二层 服务器池
群集所提供的应用服务(如 HTTP、FTP)、由服务器池承担,其中每个节点具有独立的 RIP 地址(Real IP,真实 IP),只处理调度器分发过来的客户机请求
当某个节点暂时失效时,负载调度器的容错机制会将其隔离,等待错误排除以后再重新纳入服务器池
1.2.3 第三层 共享存储
为服务器池中的所有节点提供稳定、一致的文件存取服务, 确保整个群集的统一性
共享存储可以使用 NAS 设备,或者提供 NFS(Network File System,网络文件系统) 共享服务的专用服务器
1.3 负载均衡的工作模式
关于群集的负载调度技术,可以基于 IP、端口、内容等进行分发,其中基于 IP 的负载调度是效率最高的
基于 IP 的负载均衡中,常见的有地址转换、IP 隧道和直接路由三种工作模式:
1.3.1 地址转换(Network Address Translation)
简称 NAT 模式,类似于防火墙的私有网络结构,负载调度器作为所有服务器节点的网关,即作为客户机的访问入口,也是各节点回应客户机的访问出口
服务器节点使用私有 IP 地址,与负载调度器位于同一个物理网络,安全性要优于其他两种方式
1.3.2 IP 隧道(IP Tunnel)
简称 TUN 模式,采用开放式的网络结构,负载调度器仅作为客户机的访问入口,各节点通过各自的 Internet 连接直接回应客户机,而不再经过负载调度器
服务器节点分散在互联网中的不同位置,具有独立的公网 IP 地址,通过专用 IP 隧道与负载调度器相互通信
1.3.3 直接路由(Direct Routing)
简称 DR 模式,采用半开放式的网络结构,与 TUN 模式的结构类似,但各节点并不是分散在各地,而是与调度器位于同一个物理网络
负载调度器与各节点服务器通过本地网络连接,不需要建立专用的 IP 隧道
以上三种工作模式中,NAT 方式只需要一个公网 IP 地址,从而称为最已用的一种负载均衡模式,安全性也比较好,许多硬件负载均衡设备就是采用这种方式;相比较而言,DR 模式和 TUN 模式的负载能力更加强大、使用范围更广,但节点的安全性要稍差一些
2. LVS 虚拟服务器
Linux Virtual Server(LVS)是针对 Linux 内核开发的负载均衡解决方案,由我国的章文嵩博士在1998年5月创建,官网站点位于 http://www.linuxvirtualserver.org/
LVS 实际上相当于基于IP地址的虚拟化应用,为基于 IP 地址和内容请求分发的负载均衡提出了一种高效的解决方法
LVS 现在已成为 Linux 内核的一部分,默认编译为 ip_vs 模块,必要时能够自动调用
在 CentOS 7 系统中,以下操作可以手动加载 ip_vs 模块,并查看当前系统中 ip_vs 模块的版本信息
[root@localhost ~]# modprobe ip_vs #加载 ip_vs 模块
[root@localhost ~]# cat /proc/net/ip_vs #查看 ip_vs 版本信息
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
2.1 LVS的负载调度算法
针对不同的网络服务和配置需要,LVS 调度器提供多种不同的负载调度算法,其中最常见的四种算法包括轮询、加权轮询、最少连接和加权最少连接
2.1.1 轮询(Round Robin):
将收到的访问请求按照顺序轮流分配给群集中的各节点(真实服务器)
均等地对待每一台服务器 ,而不管服务器实际的连接数和系统负载
2.1.2 加权轮询(Weighted Round Robin):
根据真实服务器的处理能力轮流分配收到的访问请求
调度器可以自动查询各节点的负载情况,并动态调整其权重
这样可以保证处理能力强的服务器承担更多的访问流量
2.1.3 最少连接(Least Connections):
根据真实服务器已建立的连接数进行分配
将收到的访问请求优先分配给连接数最少的节点
如果所有的服务器节点性能相近,采用这种方式可以更好的均衡负载
2.1.4 加权最少连接(Weighted Least Connections)
在服务器节点的性能差异较大时,可以为真实服务器自动调整权重
权重较高的节点将承担更大比例的活动连接负载
2.2 使用 ipvsadm 管理工具
ipvsadm 是在负载调度器上使用的 LVS 群集管理工具,通过调用 ip_vs 模块来添加、删除服务器节点,以及查看群集的运行状态
2.2.1 安装
[root@localhost ~]# yum -y install ipvsadm
...
...
已安装:
ipvsadm.x86_64 0:1.27-7.el7
完毕!
[root@localhost ~]# ipvsadm -v
ipvsadm v1.27 2008/5/15 (compiled with popt and IPVS v1.2.1)
2.2.2 操作方法
LVS 群集的管理工作主要包括创建虚拟服务器、添加服务器节点、查看群集节点状态、删除服务器节点和保存负载分配策略
2.2.3 示例
1.管理虚拟服务
#添加一个虚拟服务192.168.1.100:80,使用轮询算法
ipvsadm -A -t 192.168.1.100:80 -s rr
#修改虚拟服务的算法为加权轮询
ipvsadm -E -t 192.168.1.100:80 -s wrr
#删除虚拟服务
ipvsadm -D -t 192.168.1.100:80
2.管理真实服务
#添加一个真实服务器192.168.1.123,使用DR模式,权重2
ipvsadm -a -t 192.168.1.100:80 -r 192.168.1.123 -g -w 2
#修改真实服务器的权重
ipvsadm -a -t 192.168.1.100:80 -r 192.168.1.123 -g -w 5
#删除真实服务器
ipvsadm -d -t 192.168.1.100:80 -r 192.168.1.123
3,查看统计
#查看当前配置的虚拟服务和各个RS的权重
ipvsadm -Ln
#查看当前ipvs模块中记录的连接(可用于观察转发情况)
ipvsadm -lnc
#查看ipvs模块的转发情况统计
ipvsadm -Ln --stats | --rate
二、构建 LVS-NAT 负载均衡群集
地址转换模式(LVS-NAT
1.准备
1.1 概述
在 NAT 模式的群集中,LVS 负载调度器是所有节点访问 Internet 的网关服务器,同时也作为整个群集的 VIP 地址
LVS 调度器具有两块网卡,分别连接内外网
对于 LVS 负载均衡调度器来说,需使用 iptables 为出站响应配置 SNAT 转发规则,以便节点服务器能够访问 Internet
所有的节点服务器、共享存储均位于私有网络内,其默认网关设为 LVS 负载调度器的内网地址
1.2 环境
本实验共布设五台虚拟机,详情如下:
客户端(Win10):12.0.0.12
负载调度器(CentOS 7-1):内网关 ens33:192.168.126.11,外网关 ens32:12.0.0.1
Web节点服务器1(CentOS 7-2):192.168.126.12
Web节点服务器2(CentOS 7-3):192.168.126.13
NFS服务器(CentOS 7-4):192.168.126.14
宿主机:Windows 10 专业工作站版本
VWware 16 Pro(16.1.0)
CentOS7
虚拟机网络适配器均为 NAT 模式
网卡配置均为静态获取
本地 YUM 源仓库
2.部署 NFS 共享存储
systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0
#安装nfs共享所需软件包及开启nfs功能
yum install nfs-utils rpcbind -y
systemctl start nfs.service
systemctl start rpcbind.service
systemctl enable nfs.service
systemctl enable rpcbind.service
#给予共享文件最大权限
mkdir /opt/xcf /opt/zxc
chmod 777 /opt/xcf /opt/zxc
#给共享文件输出内容,以作网站首页内容
cd /opt/xcf
echo 'Hello xcf' > index.html
cd /opt/zxc
echo 'Hello zxc' > index.html
vim /etc/exports
/usr/share *(ro,sync)
/opt/xcf 192.168.126.0/24(rw,sync)
/opt/zxc 192.168.126.0/24(rw,sync)
#发布共享
exportfs -rv
showmount -e
3.配置节点服务器
systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0
yum -y install httpd
systemctl start httpd.service
systemctl enable httpd.service
yum -y install nfs-utils rpcbind
systemctl start rpcbind.service
systemctl enable rpcbind.service
systemctl start nfs.service
systemctl enable nfs.service
showmount -e 192.168.126.14
mount 192.168.126.14:/opt/xcf /var/www/html
cd /var/www/html/
ls
cat index.html
vim /etc/fstab
192.168.126.14:/opt/xcf /var/www/html nfs defaults,_netdev 0 0
mount -a
另一台节点服务器同上,注意区分两个不同的共享文件夹
4.配置负载调度器
systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0
#添加一块网卡后开机
ifconfig ens32 12.0.0.1/24
4.1 配置SNAT转发规则
vim /etc/sysctl.conf
net.ipv4.ip_forward = 1
sysctl -p
#先清空iptables规则
iptables -t nat -F
iptables -F
iptables -t nat -A POSTROUTING -s 192.168.126.0/24 -o ens32 -j SNAT --to-source 12.0.0.1
4.2 加载LVS内核模块
#加载ip_vs模块
modprobe ip_vs
#查看ip_vs版本信息
cat /proc/net/ip_vs
```yum install -y ipvsadm
#启动服务前须保存负载分配策略
ipvsadm-save > /etc/sysconfig/ipvsadm
或
ipvsadm --save > /etc/sysconfig/ipvsadm
systemctl start ipvsadm.service
![在这里插入图片描述](https://img-blog.csdnimg.cn/06d582f51ce546fd86aef991d485c729.png)
4.3 安装ipvsadm管理工具
```c
yum install -y ipvsadm
#启动服务前须保存负载分配策略
ipvsadm-save > /etc/sysconfig/ipvsadm
或
ipvsadm --save > /etc/sysconfig/ipvsadm
systemctl start ipvsadm.service
4.4 配置负载分配策略(NAT模式只要在服务器上配置,节点服务器不需要特殊配置)
#清除原有策略
ipvsadm -C
ipvsadm -A -t 12.0.0.1:80 -s rr
ipvsadm -a -t 12.0.0.1:80 -r 192.168.126.12:80 -m -w 1
ipvsadm -a -t 12.0.0.1:80 -r 192.168.126.13:80 -m -w 1
#启用策略
ipvsadm
#查看节点状态,Masq代表 NAT模式
ipvsadm -ln
#保存策略
ipvsadm-save > /etc/sysconfig/ipvsadm
![在这里插入图片描述](https://img-blog.csdnimg.cn/783542d045174214ae80639ce46e1959.png?x-oss-process=image/watermark,type_ZHJvaWRzYW5zZmFsbGJhY2s,shadow_50,text_Q1NETiBA5b635Zu95oiY6L2m5Zif5Zif5Zif,size_20,color_FFFFFF,t_70,g_
se,x_16)
4.5 注意
4.6 补充
#删除群集中某一节点服务器
ipvsadm -d -t 12.0.0.1:80 -r 192.168.126.12:80 -m [-w 1]
#删除整个虚拟服务器
ipvsadm -D -t 12.0.0.1:80
#停止服务(清除策略)
systemctl stop ipvsadm
#启动服务(重建规则)
systemctl start ipvsadm
#恢复LVS 策略
ipvsadm-restore < /etc/sysconfig/ipvsadm
5.测试 LVS 集群
打开 Win10 修改网络适配器,测试机的网关要指向调度器的的网关
打开浏览器,访问 http:/12.0.0.1 ,将能够看到由真实服务器提供的网页内容——如果各节点的网页不同,则不同客户机看到的网页可能也不一样(需多刷新几次,间隔需多等待一会儿)
3.在 LVS 负载调度器中,通过查看节点状态可以观察当前的负载分配情况,对于轮询算法来说,每个节点所获得的连接负载应大致相同
总结
基本上LVS负责均衡集群也就这么多,掌握即可。