LVS负载均衡群集部署—NAT


一、群集的概述

1、群集的含义

Cluster,集群、群集,为解决某个特定的问题将多台计算机组合起来形成的单个系统
由多台主机构成的一个整体,提供一个访问入口(IP或域名),集群中的多台主机都干一件事提供一样的服务

2、出现高并发的解决方法

目前互联网应用中,随着站点对硬件性能、响应速度、服务稳定性、数据可靠性等要求越来越高,单台服务器已经无法满足负载均衡及高可用的要求。通常有以下两个解决方法:

纵向扩展:扩展CPU、内存、使用价格昂贵的小型机、大型机
横向扩展:使用多台相对廉价的普通服务器构建服务群集

但是纵向扩展总有上限,插槽的数量有限,所以我们更多的采用横向扩展,通过整合多台服务器,使用LVS来达到服务器的高可用和负载均衡,并以同一个IP地址(通常成为浮动IP,简称VIP)对外提供相同的服务。

3、群集的三种分类

  • 负载均衡群集(LB) 提高系统响应能力,处理更多的访问请求,减少延迟,获得高并发、高负载的性能
  • 高可用群集(HA) 提高系统的可靠性,尽可能的减少中断时间,确保业务的连续性
  • 高性能运算群集(HPC) 通过整合多台主机的硬件资源,使用分布式/并行运算方法来获取高性能计算能力,云计算就是它的具体实现

3.1负载均衡群集

LB:Load Balancing,负载均衡,多个主机组成,每个主机只承担一部分访问请求

提高应用系统的响应能力、尽可能处理更多的访问请求、减少延迟为目标,获得高并发、高负载(LB)的整体性能
LB的负载分配依赖于主节点的分流算法

3.2高可用群集

HA:High Availability Cluster

提高应用系统的可靠性,尽可能地减少中断时间为目标,确保服务的连续性,达到高可用(HA)的容错效果
HA的工作方式包括双工和主从两种模式

3.3高性能运算群集

HPC:High Performance Computer Cluster

提高应用系统的CPU运算速度、扩展硬件资源和分析能力为目标。获得相当于大型、超级计算机的高性能运算(HPC)能力
高性能依赖于“分布式运算”、“并行计算”,通过专用硬件个软件将多个服务器的CPU、内存等资源整合在一起,实现只有大型、超级计算机才具备的计算能力

4、负载均衡的结构

在这里插入图片描述
第一层,负载调度器(Load Balancer或Director)——代理Nginx
访问整个群集系统的唯一入口,对外使用所有服务器共有的VIP地址,也称为群集IP地址,通常会配置主、备两台调度器实现热备份,当主调度器失效后能够平滑替换至备用调度器,确保高可用性。

第二层,服务器池(Server Pool)
后端的真实服务器,upstream tocmat_server{ip:port} + location进行匹配跳转到upstream地址池中,也是服务器池所映射的后端节点tomcat群集所提供的应用服务,由服务器池承担,其中每个节点具有独立的RIP地址(真实IP),只处理调度器分发过来的客户机请求。当某个节点暂时失效时,负载调度器的容错机制会将其隔离,等待错误排除后在重新纳入服务器池。

第三层,共享存储(Share Storage)
为服务器池中的所有节点提供稳定、一致的文件存取服务,确保整个群集的统一性。共享存储可以使用NAS设备,或者提供NFS共享服务的专用服务器。

三、LVS调度器用的调度方法

LVS调度器用的调度方法基本分为两类:

固定调度算法:rr,wrr,dh,sh

  1. rr:轮询算法,将请求依次分配给不同的RS(真实服务器)节点,即RS节点中均摊分配。适合于RS所有节点处理性能接近的情况。
  2. wrr:加权轮训调度,依据不同RS的权值分配任务。权值较高的RS将优先获得任务,并且分配到的连接数将比权值低的RS更多。相同权值的RS得到相同数目的连接数。
  3. dh:目的地址哈希调度(destination hashing)以目的地址为关键字查找一个静态hash表来获得所需RS。
  4. sh:源地址哈希调度(source hashing)以源地址为关键字查找一个静态hash表来获得需要的RS。

动态调度算法:wlc,lc,lblc

  1. wlc:加权最小连接数调度,假设各台RS的权值依次为Wi,当前tcp连接数依次为Ti,依次去Ti/Wi为最小的RS作为下一个分配的RS。
  2. lc:最小连接数调度(least-connection),IPVS表存储了所有活动的连接。LB会比较将连接请求发送到当前连接最少的RS。
  3. lblc:基于地址的最小连接数调度(locality-based least-connection):将来自同一个目的地址的请求分配给同一台RS,此时这台服务器是尚未满负荷的。否则就将这个请求分配给连接数最小的RS,并以它作为下一次分配的首先考虑。

四、LVS的工作模式及其工作过程

LVS 有三种负载均衡的模式,分别是VS/NAT(nat 模式)、VS/DR(路由模式)、VS/TUN(隧道模式)。

1.NAT模式(VS-NAT)

原理:首先负载均衡器接收到客户的请求数据包时,根据调度算法决定将请求发送给哪个后端的真实服务器(RS)。然后负载均衡器就把客户端发送的请求数据包的目标IP地址及端口改成后端真实服务器的IP地址(RIP)。真实服务器响应完请求后,查看默认路由,把响应后的数据包发送给负载均衡器,负载均衡器在接收到响应包后,把包的源地址改成虚拟地址(VIP)然后发送回给客户端。

优点:集群中的服务器可以使用任何支持TCP/IP的操作系统,只要负载均衡器有一个合法的IP地址。

缺点:扩展性有限,当服务器节点增长过多时,由于所有的请求和应答都需要经过负载均衡器,因此负载均衡器将成为整个系统的瓶颈。

2.直接路由模式(VS-DR)

原理:首先负载均衡器接收到客户的请求数据包时,根据调度算法决定将请求发送给哪个后端的真实服务器(RS)。然后负载均衡器就把客户端发送的请求数据包的目标MAC地址改成后端真实服务器的MAC地址(R-MAC)。真实服务器响应完请求后,查看默认路由,把响应后的数据包直接发送给客户端,不需要经过负载均衡器。

优点:负载均衡器只负责将请求包分发给后端节点服务器,而RS将应答包直接发给用户。所以,减少了负载均衡器的大量数据流动,负载均衡器不再是系统的瓶颈,也能处理很巨大的请求量。

缺点:需要负载均衡器与真实服务器RS都有一块网卡连接到同一物理网段上,必须在同一个局域网环境。

3.IP隧道模式(VS-TUN)

原理:首先负载均衡器接收到客户的请求数据包时,根据调度算法决定将请求发送给哪个后端的真实服务器(RS)。然后负载均衡器就把客户端发送的请求报文封装一层IP隧道(T-IP)转发到真实服务器(RS)。真实服务器响应完请求后,查看默认路由,把响应后的数据包直接发送给客户端,不需要经过负载均衡器。

优点:负载均衡器只负责将请求包分发给后端节点服务器,而RS将应答包直接发给用户。所以,减少了负载均衡器的大量数据流动,负载均衡器不再是系统的瓶颈,也能处理很巨大的请求量。

缺点:隧道模式的RS节点需要合法IP,这种方式需要所有的服务器支持“IP Tunneling”。

五、LVS虚拟服务器

Linux Virtual Server(LVS)是针对Linux内核开发的负载均衡解决方案,由我国博士章文嵩在1998年创建,LVS实际上相当于基于IP地址的虚拟化应用,为基于IP地址和内容请求分发的负载均衡提出的一种高效的解决方法,做的是四层代理转发

LVS现在已成为Linux内核的一部分,默认编译为ip_vs模块,必要时能够自动调用。在CentOS7系统中,以下操作可以手动加载ip_vs模块,并查看当前系统中ip_vs模块的版本信息。

[root@localhost ~]# modprobe ip_vs
#手动加载
[root@localhost ~]# cat /proc/net/ip_vs
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port Forward Weight ActiveConn InActConn 
  #确认内核对LVS的支持
[root@localhost ~]# cd /usr/lib/modules/3.10.0-693.el7.x86_64/kernel/net/netfilter/ipvs/
[root@localhost ipvs]# ls
ip_vs_dh.ko.xz   ip_vs.ko.xz       ip_vs_lblcr.ko.xz  ip_vs_nq.ko.xz      ip_vs_rr.ko.xz   ip_vs_sh.ko.xz   ip_vs_wrr.ko.xz
ip_vs_ftp.ko.xz  ip_vs_lblc.ko.xz  ip_vs_lc.ko.xz     ip_vs_pe_sip.ko.xz  ip_vs_sed.ko.xz  ip_vs_wlc.ko.xz
[root@localhost ipvs]# ls |grep -o "^[^.]*"
ip_vs_dh
ip_vs_ftp
ip_vs
ip_vs_lblc
ip_vs_lblcr
ip_vs_lc
ip_vs_nq
ip_vs_pe_sip
ip_vs_rr
ip_vs_sed
ip_vs_sh
ip_vs_wlc
ip_vs_wrr[root@localhost ipvs]# for i in $(ls |grep -o "^[^.]*")
> do
> echo $i
> modprobe $i
#使用for循环,一次性加载

六、ipvsadm工具

创建虚拟服务器

添加、删除服务器节点

查看群集及节点情况

保存负载分配策略

ipvasdm工具选项
-A:添加虚拟服务器

-D:删除整个虚拟fuwq

-s:指定负载调度算法(轮询,加权轮询,最少连接,加权最少连接,wlc)

-a:表示添加真实服务器(节点服务器)

-d:删除某一个节点

-t:指定VIP地址及TCP端口

-r:指定RIP地址及TCP端口

-m:表示使用NAT群集模式

-g:表示使用DR模式

-i:表示使用TUN模式

-w:设置权重(权重为0时表示暂停节点)

-p60:表示保持长连接60秒

-l:列表查看LVS虚拟服务器(默认为查看所有)

-n:以数字形式显示地址,端口等信息,常与“-l”选项组合使用

七、LVS-NAT部署实操

在这里插入图片描述
准备四台虚拟机

192.168.154.10做LVS调度器 内网关:192.168.154.10 外网关ens36:12.0.0.10

192.168.154.11做nginx1

192.168.154.12做nginx2

192.168.154.13做nfs共享存储

1.部署nginx服务器

#192.168.154.11  做nginx
cd /etc/yum.repo.d/
将nginx的包拉进去
yum -y install nginx

在这里插入图片描述

#192.168.154.11
scp nginx.repo 192.168.154.12:`pwd`

在这里插入图片描述

#192.168.154.12 做nginx
cd /etc/yum.repo.d/
yum -y install nginx

在这里插入图片描述

#192.168.154.11和192.168.154.12
systemctl start nginx  #两个主机都开启Nginx服务
#192.168.154.11
cd /etc/nginx/
vim nginx.conf 
可以发现,他的默认server块在conf.d配置文件中
 
cd conf.d/
vim default.conf
找到网页根目录在/usr/share/nginx/html

在这里插入图片描述

#192.168.154.11
将网页根目录下的所有东西,复制到共享存储服务器中
scp * 192.168.154.13:/opt

在这里插入图片描述

2.部署NF共享服务

#192.168.154.13 创建网页
cd /opt
mkdir html
vim game.html

<html>
<body>
<h1>this is nfs share web page!</h1>
<img src="game.jpg" />
</body>
</html>

在这里插入图片描述

rpm -q nfs-utils rpcbind  #安装依赖包
systemctl enable --now rpcbind nfs
netstat -lntup  #nfs端口号是2049 ,rpcbind端口号是111

nfs端口号是2049 ,rpcbind端口号是111

在这里插入图片描述

#192.168.154.13
vim /etc/exports   #共享opt目录下的html目录
/opt/html 192.168.154.0/24(rw,sync,no_root_squash)  
chmod 777 html/   #客户端用户也可进行操作
exportfs -arv #在线发布共享目录

在这里插入图片描述

#192.168.154.11和192.168.154.12
vim /etc/fstab  #配置永久挂载NFS服务器的共享目录
192.168.154.13:/opt/html  /usr/share/nginx/html   nfs    defaults,_netdev 0 0

在这里插入图片描述
在这里插入图片描述

cd /usr/share/nginx/html/ #挂载成功后就看到来自共享目录的文件
ls

在这里插入图片描述
192.168.154.11访问共享服务器测试结果
在这里插入图片描述
为了做区分,我们在192.168.154.13的共享目录/opt下又创建了www,添加了网页

cd /opt
mkdir www
chmod 777 www/
cd html/
cp * /opt/www/

在这里插入图片描述

vim /etc/exports 
/opt/www 192.168.154.0/24(rw,sync,no_root_squash)
exportfs -avr

在这里插入图片描述

在这里插入图片描述

#192.168.154.12
showmount -e 192.168.154.13
cd 
umount /usr/share/nginx/html/ #解挂载
vim /etc/fstab #重新挂载
192.168.154.13:/opt/www  /usr/share/nginx/html   nfs    defaults,_netdev 0 0
mount -a
df -h

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
192.168.154.12访问共享服务器测试结果
在这里插入图片描述

3.部署LVS调度器

对192.168.154.10的主机添加网络适配器,并设为仅主机模式

在这里插入图片描述

cd /etc/sysconfig/network-scripts/
cp ifcfg-ens33 ifcfg-ens36
vim ifcfg-ens36 #修改网卡名及IP,注释网关和DNS
vim ifcfg-ens33 #注释网关和DNS
systemctl restart network
ifconfig

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

因为NAT模式下,调度器会成为所有节点服务器的网关,所以要修改192.168.154.11和192.168.154.12两台nginx服务器的网关

#192.168.154.11和192.168.154.12
cd /etc/sysconfig/network-scripts/
vim ifcfg-ens33 
systemctl restart network

在这里插入图片描述
在这里插入图片描述

#192.168.154.10
vim /etc/sysctl.conf 
net.ipv4.ip_forward=1  #设置IP转发功能
sysctl -p

在这里插入图片描述

#192.168.154.10
iptables -F && iptables -t nat -F  #先清除所有nat表规则
iptables -nL
iptables -nL -t nat
iptables -t nat -A POSTROUTING -s 192.168.154.0/24 -o ens36 -j SNAT --to 12.0.0.10
iptables -nL -t nat

在这里插入图片描述
在这里插入图片描述

#192.168.154.10
modprobe ip_vs  #加载ip_vs模块
cat /proc/net/ip_vs

在这里插入图片描述

#192.168.154.10
cd /etc/yum.repos.d/
mount /dev/cdrom /mnt
yum install -y ipvsadm #安装ipvsadm

在这里插入图片描述

#192.168.154.10
ipvsadm-save > /etc/sysconfig/ipvsadm #创建ipvsadm文件
systemctl start ipvsadm

在这里插入图片描述

4.配置负载分配策略

#192.168.154.10
ipvsadm -A -t 12.0.0.10:80 -s rr
ipvsadm -a -t 12.0.0.10:80 -r 192.168.154.11:80 -m
ipvsadm -a -t 12.0.0.10:80 -r 192.168.154.12:80 -m
ipvsadm
ipvsadm -ln

在这里插入图片描述

#192.168.154.11及192.168.154.12
vim /etc/nginx/nginx.conf  #为了实验效果修改连接时间
systemctl restart nginx

在这里插入图片描述
client 测试
将客户端网卡换成VMnet1仅主机模式,跟调度器ens36一样,修改IP和网关
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

ipvsadm --save > /etc/sysconfig/ipvsadm #保存ipvsadm策略
ipvsadm -C
ipvsadm-restore < /etc/sysconfig/ipvsadm #导回保存的ipvsadm策略
ipvsadm -ln

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值