LVS-NAT 负载均衡群集实战

企业群集应用概述

群集的含义

Cluster,集群、群集

由多台主机构成,但对外只表现为一个整体,只提供一个访问入口(域名或IP地址),相当于一台大型计算机

问题

互联网应用中,随着站点硬件性能、响应速度、服务稳定性、数据可靠性等要求越来越高,单台服务器已经无法满足负载均衡及高可用的要求

1.1企业群集分类

根据群集所针对的目标差异,可分为三种类型

  • 负载均衡群集
  • 高可用群集
  • 高性能运算群集

负载均衡群集(Load Balance Cluster)

  • 提高应用系统的响应能力,尽可能处理更多的访问请求、减少延迟为目标、获取高并发、高负载(LB)的整体性能
  • LB的负载分配依赖于主节点的分流算法,将来自客户机的访问的请求分担给多个服务器节点,从而缓解整个系统的负载压力。例如,"DNS轮询" "反向代理" 等

1.2企业群集分类

高可用群集(High Availability Cluster)

  • 提高应用系统的可靠性,尽可能地减少中断时间为目标,确保服务的连续性,达到高可用(HA)的容错效果
  • HA的工作方式包括双工和主从两种模式,双工即所有节点同时在线;主从则只有主节点在线,但当出现故障时从节点能自动切换为主节点。例如,"故障切换" "双机热备" 等

高性能运算群集(High Performance Computer Cluster)

  • 以提高应用系统的CUP运算速,扩展硬件资源和分析能力为目标,获取相当于大型、超级计算机的高性能运算(HPC)能力
  • 高性能依赖于“分布式运算”、“并行计算”,通过专用硬件和软件将多个服务器的CPU、内存等资源整合在一起,实现只有大型、超级计算机才具备的计算能力 例如 "云计算" "网格计算" 等

负载均衡群集架构

负载均衡的结构

  • 第一层,负载调度器(Load Balancer或Director)                                                                       访问整个群集系统的唯一入口,对外使用所有服务器共有的VIP地址,也称为群集I地址。通     常会配置主、备两台调度器实现热备份,当主调度器失效以后能够平滑替换至备用调度器,确保高可用性。
  • 第二层,服务器池(Server Pool)                                                                                               群集所提供的应用服务、由服务器池承担,其中每个节点具有独立的RIP地址(真实IP),只处   理调度器分发过来的客户机请求。当某个节点暂时失效时,负载调度器的容错机制会将其隔离,等待错误排除以后再重新纳入服务器池。
  • 第三层,共享存储(Share Storage)                                                                                           为服务器池中的所有节点提供稳定、一致的文件存取服务,确保整个群集的统一性。共享存储可以使用NAS设备,或者提供NFS共享服务的专用服务器。

负载均衡的工作模式

  • 关于群集的负载调度技术,可以基于 IP、端口、内容等进行分发,其中基于 IP 的负载调度是效率最高的
  • 基于 IP 的负载均衡中,常见的有地址转换、IP 隧道和直接路由三种工作模式:

地址转换(Network Address Translation)

  • 简称 NAT 模式,类似于防火墙的私有网络结构,负载调度器作为所有服务器节点的网关,即作为客户机的访问入口,也是各节点回应客户机的访问出口
  • 服务器节点使用私有 IP 地址,与负载调度器位于同一个物理网络,安全性要优于其他两种方式

IP 隧道(IP Tunnel)

  • 简称 TUN 模式,采用开放式的网络结构,负载调度器仅作为客户机的访问入口,各节点通过各自的 Internet 连接直接回应客户机,而不再经过负载调度器
  • 服务器节点分散在互联网中的不同位置,具有独立的公网 IP 地址,通过专用 IP 隧道与负载调度器相互通信

直接路由(Direct Routing)

  • 简称 DR 模式,采用半开放式的网络结构,与 TUN 模式的结构类似,但各节点并不是分散在各地,而是与调度器位于同一个物理网络
  • 负载调度器与各节点服务器通过本地网络连接,不需要建立专用的 IP 隧道

 以上三种工作模式中,NAT 方式只需要一个公网 IP 地址,从而称为最已用的一种负载均衡模式,安全性也比较好,许多硬件负载均衡设备就是采用这种方式;相比较而言,DR 模式和 TUN 模式的负载能力更加强大、使用范围更广,但节点的安全性要稍差一些

LVS 虚拟服务器

  • Linux Virtual Server(LVS)是针对 Linux 内核开发的负载均衡解决方案,由我国的章文嵩博士在1998年5月创建,官网站点位于 http://www.linuxvirtualserver.org/
  • LVS 实际上相当于基于IP地址的虚拟化应用,为基于 IP 地址和内容请求分发的负载均衡提出了一种高效的解决方法
  • LVS 现在已成为 Linux 内核的一部分,默认编译为 ip_vs 模块,必要时能够自动调用
  • 在 CentOS 7 系统中,以下操作可以手动加载 ip_vs 模块,并查看当前系统中 ip_vs 模块的版本信息
[root@localhost ~]# modprobe ip_vs          #加载 ip_vs 模块
[root@localhost ~]# cat /proc/net/ip_vs     #查看 ip_vs 版本信息
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port Forward Weight ActiveConn InActConn

 LVS的负载调度算法

针对不同的网络服务和配置需要,LVS 调度器提供多种不同的负载调度算法,其中最常见的四种算法包括轮询、加权轮询、最少连接和加权最少连接

轮询(Round Robin):

  • 将收到的访问请求按照顺序轮流分配给群集中的各节点(真实服务器)
  • 均等地对待每一台服务器 ,而不管服务器实际的连接数和系统负载

 加权轮询(Weighted Round Robin):

  • 根据真实服务器的处理能力轮流分配收到的访问请求
  • 调度器可以自动查询各节点的负载情况,并动态调整其权重
  • 这样可以保证处理能力强的服务器承担更多的访问流量

最少连接(Least Connections):

  • 根据真实服务器已建立的连接数进行分配
  • 将收到的访问请求优先分配给连接数最少的节点
  • 如果所有的服务器节点性能相近,采用这种方式可以更好的均衡负载

加权最少连接(Weighted Least Connections):

  • 在服务器节点的性能差异较大时,可以为真实服务器自动调整权重
  • 权重较高的节点将承担更大比例的活动连接负载

使用 ipvsadm 管理工具

  • ipvsadm 是在负载调度器上使用的 LVS 群集管理工具,通过调用 ip_vs 模块来添加、删除服务器节点,以及查看群集的运行状态

安装

在 CentOS 7 系统中,需要手动安装此软件包

[root@localhost ~]# yum -y install ipvsadm
...
...
已安装:
  ipvsadm.x86_64 0:1.27-7.el7                                                                                 

完毕!


[root@localhost ~]# ipvsadm -v
ipvsadm v1.27 2008/5/15 (compiled with popt and IPVS v1.2.1)

 

操作方法

LVS 群集的管理工作主要包括创建虚拟服务器、添加服务器节点、查看群集节点状态、删除服务器节点和保存负载分配策略

常用选项说明
-A添加虚拟服务器
-D删除整个虚拟服务器
-s指定负载调度算法 (轮询:rr、加权轮询: wrr、最少连接:lc、加权最少连接: wlc )
-a表示添加真实服务器 (节点服务器)
-d删除某一个节点
-t-t
-r指定 RIP地址及 TCP端口
-m表示使用 NAT群集模式.
-g表示使用 DR模式
-i表示使用 TUN模式
-w设置权重 (权重为 0 时表示暂停节点)
-p 60表示保持长连接60秒
-l列表查看 LVS 虚拟服务器 (默认为查看所有)
-n以数字形式显示地址、端口等信息,常与 “-l” 选项组合使用。ipvsadm -ln

示例

  1. 管理虚拟服务
    #添加一个虚拟服务192.168.1.100:80,使用轮询算法
    ipvsadm -A -t 192.168.1.100:80 -s rr
    
    
    #修改虚拟服务的算法为加权轮询
    ipvsadm -E -t 192.168.1.100:80 -s wrr
    
    
    #删除虚拟服务
    ipvsadm -D -t 192.168.1.100:80
    
  2. 管理真实服务
    #添加一个真实服务器192.168.1.123,使用DR模式,权重2
    ipvsadm -a -t 192.168.1.100:80 -r 192.168.1.123 -g -w 2
    
    
    #修改真实服务器的权重
    ipvsadm -a -t 192.168.1.100:80 -r 192.168.1.123 -g -w 5
    
    
    #删除真实服务器
    ipvsadm -d -t 192.168.1.100:80 -r 192.168.1.123
    
  3. 查看统计
    #查看当前配置的虚拟服务和各个RS的权重
    ipvsadm -Ln
    
    
    #查看当前ipvs模块中记录的连接(可用于观察转发情况)
    ipvsadm -lnc
    
    
    #查看ipvs模块的转发情况统计
    
    ipvsadm -Ln --stats | --rate
    
    

构建 LVS-NAT 负载均衡群集

地址转换模式(LVS-NAT)

准备

概述

  • 在 NAT 模式的群集中,LVS 负载调度器是所有节点访问 Internet 的网关服务器,同时也作为整个群集的 VIP 地址
  • LVS 调度器具有两块网卡,分别连接内外网

 

  • 对于 LVS 负载均衡调度器来说,需使用 iptables 为出站响应配置 SNAT 转发规则,以便节点服务器能够访问 Internet
  • 所有的节点服务器、共享存储均位于私有网络内,其默认网关设为 LVS 负载调度器的内网地址

 环境

  • 本实验共布设五台虚拟机,详情如下:
    客户端(Win10):12.0.0.12
    负载调度器(CentOS 7-1):内网关 ens33:192.168.126.11,外网关 ens32:12.0.0.1
    Web节点服务器1(CentOS 7-2):192.168.126.12
    Web节点服务器2(CentOS 7-3):192.168.126.13
    NFS服务器(CentOS 7-4):192.168.126.14
    
    宿主机:Windows 10 专业工作站版本
    VWware 16 Pro(16.1.0)
    CentOS7
    虚拟机网络适配器均为 NAT 模式
    网卡配置均为静态获取
    本地 YUM 源仓库
    

 部署 NFS 共享存储

systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0

#安装nfs共享所需软件包及开启nfs功能
yum install nfs-utils rpcbind -y
systemctl start nfs.service
systemctl start rpcbind.service
systemctl enable nfs.service
systemctl enable rpcbind.service

#给予共享文件最大权限
mkdir /opt/xcf /opt/wu
chmod 777 /opt/xcf /opt/wu

#给共享文件输出内容,以作网站首页内容
cd /opt/xcf
echo 'Hello xcf' > index.html
cd /opt/zxc
echo 'Hello wu' > index.html

vim /etc/exports
/usr/share *(ro,sync)
/opt/xcf 192.168.10.0/24(rw,sync)
/opt/wu 192.168.10.0/24(rw,sync)


#发布共享
exportfs -rv
showmount -e

 

配置节点服务器(192.168.10.12 192.168.10.13)

systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0

yum -y install httpd 
systemctl start httpd.service
systemctl enable httpd.service

yum -y install nfs-utils rpcbind
systemctl start rpcbind.service
systemctl enable rpcbind.service
systemctl start nfs.service
systemctl enable nfs.service

showmount -e 192.168.10.14

mount 192.168.10.14:/opt/xcf /var/www/html
cd /var/www/html/
ls
cat index.html

vim /etc/fstab
192.168.10.14:/opt/xcf /var/www/html nfs defaults,_netdev 0 0

mount -a

 

另一台节点服务器同上,注意区分两个不同的共享文件夹

配置负载调度器

systemctl stop firewalld.service 
systemctl disable firewalld.service 
setenforce 0

#添加一块网卡后开机
ifconfig ens37 12.0.0.1/24

 配置SNAT转发规则

vim /etc/sysctl.conf
net.ipv4.ip_forward = 1

sysctl -p

#先清空iptables规则
iptables -t nat -F
iptables -F

iptables -t nat -A POSTROUTING -s 192.168.126.0/24 -o ens32 -j SNAT --to-source 12.0.0.1

 加载LVS内核模块

#加载ip_vs模块
modprobe ip_vs

#查看ip_vs版本信息
cat /proc/net/ip_vs

 安装ipvsadm管理工具

yum install -y ipvsadm


#启动服务前须保存负载分配策略
ipvsadm-save > /etc/sysconfig/ipvsadm
或
ipvsadm --save > /etc/sysconfig/ipvsadm

systemctl start ipvsadm.service

 注意

 两台作负载均衡的主机,记得把网关都指向调度器的网关

 补充

#删除群集中某一节点服务器
ipvsadm -d -t 12.0.0.1:80 -r 192.168.10.12:80 -m [-w 1]

#删除整个虚拟服务器
ipvsadm -D -t 12.0.0.1:80

#停止服务(清除策略)
systemctl stop ipvsadm

#启动服务(重建规则)
systemctl start ipvsadm

#恢复LVS 策略
ipvsadm-restore < /etc/sysconfig/ipvsadm

测试 LVS 集群

 打开浏览器,访问 http:/12.0.0.1 ,将能够看到由真实服务器提供的网页内容——如果各节点的网页不同,则不同客户机看到的网页可能也不一样(需多刷新几次,间隔需多等待一会儿)

 

在 LVS 负载调度器中,通过查看节点状态可以观察当前的负载分配情况,对于轮询算法来说,每个节点所获得的连接负载应大致相同

      

 

 

 

 

 

 

 

 

 

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值