LVS负载均衡群集

在各种互联网应用中,随着站点对硬件性能、响应速度、服务稳定性、数据可靠性等要求越来越高,单台服务器已经无法满足负载均衡及高可用的要求。除了使用价格昂贵的大型机、专用负载分流设备以外,企业还有另外一种选择来解决难题,那就是构建群集服务器一一通过整合多台服务器,使用LVS来达到服务器的高可用和负载均衡,并以同一个IP 地址 对外提供相同的服务。

 LVS 群 集 应 用 基 础

群集的称呼来自于英文单词“Cluster”,     表示一群、一串的意思,用在服务器领域则表示大量服务器的集合体,以区分于单个服务器。本节将对群集的结构、工作模式、LVS虚拟 应用,以及NFS共享存储介绍及使用。

群集技术概述

1. 群集的类型

无论是哪种群集,都至少包括两台节点服务器,而对外表现为一个整体,只提供一个访 问入口。根据群集所针对的目标差异,可分为以下三种类型。

>负载均衡群集(Load    Balance    Cluster): 以提高应用系统的响应能力、尽可能处理更多的访问请求、减少延迟为目标,获得高并发、高负载的整体性能。例如,“DNS 轮询”“应用层交换”“反向代理”等都可用作负载均衡群集。LB的负载分配依赖于主节点的分流算法,将来自客户机的访问请求分担给多个服务器节点,从而缓解整个系统的负载压力。

高可用群集 (High     Availability      Cluster):以提高应用系统的可靠性、尽可能地减少中断时间为目标,确保服务的连续性,达到高可用(HA) 的容错效果。例如“故障切换”“双机热备”“多机热备”等都属于高可用群集技术。HA的工作方式包括双工和主从两种模式。双工即所有节点同时在线;主从则只有主节点在线,但当出现故障时从节点能自动切换为主节点。

>高性能运算群集 (High   Performance   Computer   Cluster):以提高应用系统的CPU 运算速度、扩展硬件资源和分析能力为目标,获得相当于大型、超级计算机的高性能运算(HPC) 能力。例如,“云计算”“网格计算”也可视为高性能运算的一种。 高性能运算群集的高性能依赖于“分布式运算”“并行计算”,通过专用硬件和软件 将多个服务器的CPU、内存等资源整合在一起,实现只有大型、超级计算机才具备的计算能力。

不同类型的群集在必要时可以合并,如高可用的负载均衡群集。

2.负载均衡的分层结构

在典型的负载均衡群集中,包括三个层次的组件。前端至少有一个负载调度器 (Load   Balancer,或称为Director)     负责响应并分发来自客户机的访问请求;后端由大量真实服务器 (Real      Server) 构成服务器池 (Server         Pool),提供实际的应用服务,整个群集的伸缩性通过增加、删除服务器节点来完成,而这些过程对客户机是透明的;为了保持服务的一致性,所有节点使用共享存储设备。

第一层,负载调度器:这是访问整个群集系统的唯一入口,对外使用所有服务器共有的VIP(Virtual   IP,虚拟 IP)   地址,也称为群集IP 地址。通常会配置主、备两台调度器实现热备份,当主调度器失效以后能够平滑替换至备用调度器,确保高可用性。

第二层,服务器池:群集所提供的应用服务(如 HTTP 、FTP)由服务器池承担,其中每个节点具有独立的RIP(Real        IP,真 实IP)   地址,只处理调度器分发过来的客户机请求。当某个节点暂时失效时,负载调度器的容错机制会将其隔离,等待错 误排除以后再重新纳入服务器池。

第三层,共享存储:为服务器池中的所有节点提供稳定、一致的文件存取服务,确保整个群集的统一性。在Linux/UNIX环境中,共享存储可以使用NAS设备,或者提供NFS(Network    File     System,网络文件系统)共享服务的专用服务器。

3.负载均衡的工作模式

关于群集的负载调度技术,可以基于IP、端口、内容等进行分发,其中基于 IP 的负载调度是效率最高的。基于IP 的负载均衡模式中,常见的有地址转换、IP 隧道和直接路由三种工作模式。

地址转换 (Network   Address    Translation):  简称NAT模式,类似于防火墙的私有网络结构,负载调度器作为所有服务器节点的网关,即作为客户机的访问入口,也是各节点回应客户机的访问出口。服务器节点使用私有IP地址,与负载调度器位于同一个物理网络,安全性要优于其他两种方式。

IP 隧道 (IP     Tunnel): 简 称TUN模式,采用开放式的网络结构,负载调度器仅作为客户机的访问入口,各节点通过各自的Internet连接直接回应客户机,而不再 经过负载调度器。服务器节点分散在互联网中的不同位置,具有独立的公网IP 地 址,通过专用IP 隧道与负载调度器相互通信。

直接路由 (Direct       Routing): 简称DR模式,采用半开放式的网络结构,与TUN  模式的结构类似,但各节点并不是分散在各地,而是与调度器位于同一个物理网络。负载调度器与各节点服务器通过本地网络连接,不需要建立专用的IP 隧道。

以上三种工作模式中,NAT方式只需要一个公网IP地址,从而成为最易用的一种负载 均衡模式,安全性也比较好,许多硬件负载均衡设备就采用这种方式。相比较而言,DR模式和TUN模式的负载能力更加强大,适用范围更广,但节点的安全性要稍差一些。

 LVS虚拟服务器

Linux   Virtual    Server是针对Linux 内核开发的一个负载均衡项目,由我国的章文嵩博士在1998年5月创建,官方站点位于The Linux Virtual Server Project - Linux Server Cluster for Load Balancing 。LVS实际上相当于基于IP 地址的虚拟化应用,为基于IP 地址和内容请求分发的负载均衡提出了一种高效的解决方法。

LVS现在已成为Linux 内核的一部分,默认编译为ip_vs  模块,必要时能够自动调用。在CentOS  7系统中,以下操作可以手动加载ip_vs  模块,并查看当前系统中ip_vs 模块的版本信息。

[root@localhost ~]# modprobe ip_vs                                //加载ip_vs模块

[root@localhost ~]# cat /proc/net/ip_vs                       //查看ip_vs版本信息
1.LVS 的负载调度算法

针对不同的网络服务和配置需要,LVS 调度器提供多种不同的负载调度算法,其中最常 用的四种算法是轮询、加权轮询、最少连接和加权最少连接。

轮询(Round  Robin): 将收到的访问请求按照顺序轮流分配给群集中的各节点,均等地对待每台服务器,而不管服务器实际的连接数和系统负载。

加权轮询 (Weighted  Round  Robin): 根据调度器设置的权重值来分发请求,权重值高的节点优先获得任务并且分配的请求越多,这样可以保证性能高的节点承担更多请求。

最少连接(Least     Connections): 根据真实服务器已建立的连接数进行分配,将收到的访问请求优先分配给连接数最少的节点。如果所有的服务器节点性能相近,采用这种方式可以更好地均衡负载。

加权最少连接 (Weighted    Least    Connections): 在服务器节点的性能差异较大的情况下,调度器可以根据节点服务器负载自动调整权重,权重较高的节点将承担更大比例的活动连接负载。

2.  使用ipvsadm管理工具

ipvsadm是在负载调度器上使用的LVS群集管理工具,通过调用ip_vs 模块来添加、删 除服务器节点,以及查看群集的运行状态。在CentOS  7 系统中,需要手动安装 ipvsadm.x86_640:1.27-7.el7软件包。

[root@localhost ~]# yum -y install ipvsadm 

LVS群集的管理工作主要包括创建虚拟服务器、添加服务器节点、查看群集节点状态、删除服务器节点和保存负载分配策略。

(1)创建虚拟服务器

若群集的VIP地址为172.16.16.172,针对TCP 80端口提供负载分流服务,使用的调度算法为轮询,则对应的ipvsadm 命令操作如下所示。对于负载均衡调度器来说,VIP 必须是本机实际已启用的IP地址。

[root@localhost ~]# ipvsadm -A-t 172.16.16.172:80 -s rr

上述操作中,选项-A表示添加虚拟服务器,-t 用来指定VIP地址及TCP端口,-s 用来指定负载调度算法——轮询(rr) 、加权轮询 (wrr) 、最少连接(1c)、加权最少连接(wlc)。

(2)添加服务器节点

为虚拟服务器172.16.16.172添加四个服务器节点,IP 地址依次为192.168.7.21~24,对应的 ipvsadm 命令操作如下所示。若希望使用保持连接,还应添加“-p   60”选项,其中 60为保持时间(单位为s)。

[root@localhost ~]# ipvsadm -a-t 172.16.16.172:80 -r 192.168.7.22:80-m-w 1

[root@localhost ~]# ipvsadm -a-t 172.16.16.172:80 -r 192.168.7.23:80-m -w 1

[root@localhost ~]# ipvsadm -a -t 172.16.16.172:80 -r 192.168.7.24:80-m-w 1

上述操作中,有以下选项: 

-a  表示添加真实服务器;

-t 用来指定VIP地址及TCP端口; 

-r  用来指定RIP地址及TCP端口;

-m 表示使用NAT群集模式(-g DR模式和-i TUN模式); 

-w  用来设置权重(权重为0时表示暂停节点)。

(3)查看群集节点状态

结合选项-1可以列表查看LVS虚拟服务器,可以指定只查看某一个VIP地址(默认为查看所有),结合选项-n将以数字形式显示地址、端口等信息。

[root@localhost ~]#ipvsadm -ln                  //查看节点状态

(4)删除服务器节点

需要从服务器池中删除某一个节点时,使用选项-d 。执行删除操作必须指定目标对象,包括节点地址、虚拟IP 地址。

[root@localhost~]# ipvsadm -d -r 192.168.7.24:80-t 172.16.16.172:80

需要删除整个虚拟服务器时,使用选项-D 并指定虚拟IP 地址即可,无须指定节点。

ipvsadm      -D-t       172.16.16.172:80

(5)保存负载分配策略

使用导出/导入工具ipvsadm-save/ipvsadm-restore    可以保存、恢复LVS策略。当然也可以快速清除、重建负载分配策略。

[root@localhost ~]# ipvsadm-save>/etc/sysconfig/ipvsadm

NFS共享存储服务

NFS是一种基于TCP/IP 传输的网络文件系统协议,最初由Sun 公司开发。通过使用NFS 协议,客户机可以像访问本地目录一样访问远程服务器中的共享资源。对于大多数负载均衡 群集来说,使用NFS协议来共享数据存储是比较常见的做法,NFS也是NAS 存储设备必然支持的一种协议。

1.  使用NFS 发布共享资源

NFS服务的实现依赖于RPC(Remote  Process  Call, 远端过程调用)机制,以完成远程 到本地的映射过程。在CentOS 7系统中,需要安装nfs-utils、rpcbind软件包来提供NFS 共享服务,前者用于NFS共享发布和访问,后者用于RPC支持。

(1)安装nfs-utils 、rpcbind      软件包

提供RPC支持的服务为rpcbind,  提 供NFS共享的服务为nfs,   完成安装以后建议调整这两个服务的自启动状态,以便每次开机后自动启用。手动加载NFS共享服务时,应该先启动rpcbind,  再启动nfs。

[root@localhost ~]# yum -y install nfs-utils rpcbind 
[root@localhost ~]# systemctl enable nfs
[root@localhost ~]# systemctl enable rpcbind

(2)设置共享目录

NFS的配置文件为/etc/exports,文件内容默认为空(无任何共享)。在exports文件中设置共享资源时,记录格式为“目录位置 客户机地址(权限选项)”。

[root@localhost ~]# mkdir -p /opt/wwwroot 

[root@localhost ~]#vi   /etc/exports

/opt/wwwroot             192.168.7.0/24(rw,sync,no_root_squash)

其中客户机地址可以是主机名、IP地址、网段地址,允许使用*、?通配符;权限选项中的rw 表示允许读写(ro  为只读),sync   表示同步写入,no_root_squash   表示当客户机以 root  身份访问时赋予本地root  权限(默认是root_squash, 将作为nfsnobody 用户降权对待)。

当需要将同一个目录共享给不同的客户机,且分配不同的权限时,只要以空格分隔指定多个“客户机(权限选项)”即可。例如,以下操作将/var/ftp/public      目录共享给两个客户机,并分别给予只读、读写权限。

[root@localhost ~]# vi  /etc/exports

/var/ftp/public        192.168.7.11(ro) 192.168.7.22(rw)

(3)启动NFS服务程序

[root@localhost ~]# systemctl start rpcbind 

[root@localhost ~]# systemctl start nfs

(4)查看本机发布的NFS共享目录

[root@localhost  ~]# showmount -e

Export  list  for  localhost.localdomain: /opt/wwwroot 192.168.7.0/24

/var/ftp/public     192.168.7.11, 192.168.7.22
2.在客户机中访问NFS共享资源

NFS协议的目标是提供一种网络文件系统,因此对NFS共享的访问也使用mount命令来进行挂载,对应的文件系统类型为nfs 。既可以手动挂载,也可以加入/etc/fstab 配置文件 来实现开机自动挂载。考虑到群集系统中的网络稳定性,NFS服务器与客户机之间最好使用专有网络进行连接。

(1)安装rpcbind 软件包,并启动rpcbind 服务。

若要正常访问NFS共享资源,客户机中也需要安装rpcbind   软件包,并启动rpcbind 系统服务。另外,为了使用showmount查询工具,建议将nfs-utils      软件包也一并装上。

[root@localhost ~]# yum -y install rpcbind nfs-utils 

[root@localhost ~]# systemctl enable rpcbind

[root@localhost ~]# systemctl start rpcbind

如果已经安装了nfs-utils软件包,则客户机也可以使用showmount查看NFS服务器端共享了哪些目录,查询格式为 “showmount   -e 服务器地址”。

[root@localhost ~]# showmount -e 192.168.7.250

 (2)手动挂载NFS共享目录。

以root  用户身份执行mount  操作,将NFS服务器共享的/opt/wwwroot  目录挂载到本地 目录/var/www/html。

[root@localhost ~]# mount 192.168.7.250:/opt/wwwroot /var/www/html

完成挂载以后,访问客户机的/var/www/html文件夹,实际上就相当于访问NFS服务器中的/opt/wwwroot  文件夹,其中的网络映射过程对于用户程序来说是透明的。

(3)fstab     自动挂载设置。

修改/etc/fstab     配置文件,加入NFS共享目录的挂载设置。注意将文件系统类型设为 nfs,  挂载参数建议添加_netdev(设备需要网络)。若添加soft 、intr   参数可以实现软挂载,允许在网络中断时放弃挂载。这样,客户机就可以在每次开机后自动挂载NFS共享资源了。

[root@localhost ~]# vi   /etc/fstab ……//省略部分信息

192.168.7.250:/opt/wwwroot /var/www/html nfs defaults,_netdev 00

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值