目录
2.1、负载均衡群集(Load Balance Cluster)
2.2、高可用群集(High Availiablity Cluster)
2.3、高性能运算群集(High Performance Computing Cluster)
一、群集
1、 群集的含义
Cluster,集群,群集
由多台主机构成,但对外只表现为一个整体,只提供一个访问入口(域名或IP地址),相当于一台大型计算机。
2、群集的类型
- 负载均衡群集
- 高可用群集
- 高性能运算群集
2.1、负载均衡群集(Load Balance Cluster)
- 提高应用系统的响应能力、尽可能处理更多的访问请求、减少延迟为目标,获得高并发、高负载(LB)的整体性能
- LB的负载分配依赖于主节点的分流算法,将来自客户机的访问请求分担给多个服务器节点,从而缓解整个系统的负载压力。例如,“DNS轮询”“反向代理”等
2.2、高可用群集(High Availiablity Cluster)
- 提高应用系统的可靠性、尽可能地减少中断时间为目标,确保服务的连续性,达到高可用(HA)的容错效果
- HA的工作方式包括双工和主从两种模式,双工即所有节点同时在线;主从则只有主节点在线,但当出现故障时从节点能自动切换为主节点。例如,”故障切换” “双机热备” 等
2.3、高性能运算群集(High Performance Computing Cluster)
- 提高应用系统的CPU运算速度、扩展硬件资源和分析能力为目标,获得相当于大型、超级计算机的高性能运算(HPC)能力
- 高性能依赖于“分布式运算”、“并行计算”,通过专用硬件和软件将多个服务器的CPU、内存等资源整合在一起,实现只有大型、超级计算机才具备的计算能力。例如“云计算”、“网格计算”
3、负载集群的结构
第一层,负载调度器(Load Balancer或Director)
访问整个群集系统的唯一入口,对外使用所有服务器共有的VIP地址,也称为群集IP地址。通常会配置主、备两台调度器实现热备份,当主调度器失效以后能够平滑替换至备用调度器,确保高可用性。负载均衡层
第二层,服务器池(Server Pool)
群集所提供的应用服务、由服务器池承担,其中每个节点具有独立的RIP地址(真实IP),只处理调度器分发过来的客户机请求。当某个节点暂时失效时,负载调度器的容错机制会将其隔离,等待错误排除以后再重新纳入服务器池。web应用层
第三层,共享存储(Share Storage)
为服务器池中的所有节点提供稳定、一致的文件存取服务,确保整个群集的统一性。共享存储可以使用NAS设备,或者提供NFS共享服务的专用服务器。
4、负载均衡集群的三种工作模式
- NAT(地址转换)
- DR(直接路由)
- TUN(IP隧道)
4.1、NAT(地址转换)
- Network Address Translation,简称NAT模式
- 类似于防火墙的私有网络结构,负载调度器作为所有服务器节点的网关,即作为客户机的访问入口,也是各节点回应客户机的访问出口
- 服务器节点使用私有IP地址,与负载调度器位于同一个物理网络,安全性要优于其他两种方式
4.2、DR(直接路由)
- Diret Routing,简称DR模式
- 采用半开放式的网络结构,与TUN模式的结构类似,但各节点并不是分散在各地,而是与调度器位于同一个物理网络
- 负载调度器与各节点服务器通过本地网络连接,不需要建立专用的IP隧道
4.3、TUN(IP隧道)
- IP Tunnel,简称TUN模式
- 采用开放式的网络结构,负载调度器仅作为客户机的访问入口,各节点通过各自的Internet连接直接回应客户机,而不再经过负载调度器
- 服务器节点分散在互联网中的不同位置,具有独立的公网IP地址,通过专用IP隧道与负载调度器相互通信
二、LVS虚拟服务器
1、LVS介绍
LVS 实际上相当于基于IP地址的虚拟化应用,为基于IP地址和内容请求分发的负载均衡提出了一种高效的解决方法
在centOS7系统中,可以手动添加ip_vs模块,并查看当前系统中ip_vs模块的版本信息
[root@localhost ~]# modprobe ip_vs
[root@localhost ~]# cat /proc/net/ip_vs
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
查看所有ip_vs调度算法的模块
在/usr/lib/modules/3.10.0-693.el7.x86_64/kernel/net/netfilter/ipvs/路径下
[root@localhost ~]# cd /usr/lib/modules/3.10.0-693.el7.x86_64/kernel/net/netfilter/ipvs/
[root@localhost ipvs]# ls
ip_vs_dh.ko.xz ip_vs.ko.xz ip_vs_lblcr.ko.xz ip_vs_nq.ko.xz ip_vs_rr.ko.xz ip_vs_sh.ko.xz ip_vs_wrr.ko.xz
ip_vs_ftp.ko.xz ip_vs_lblc.ko.xz ip_vs_lc.ko.xz ip_vs_pe_sip.ko.xz ip_vs_sed.ko.xz ip_vs_wlc.ko.xz
2、LVS的负载调度算法
固定调度算法
rr:轮询(Round Robin)
- 将收到的访问请求安装顺序轮流分配给群集指定各节点(真实服务器),均等地对待每一台服务器,而不管服务器实际的连接数和系统负载。
wrr:加权轮询(Weighted Round Robin)
- 依据不同RS的权值分配任务。权重值较高的RS将优先获得任务,并且分配到的连接数将比权值低的RS更多。相同权值的RS得到相同数目的连接数。
- 保证性能强的服务器承担更多的访问流量。
dh:目的地址哈希调度(destination hashing)
- 以目的地址为关键字查找一个静态hash表来获得所需RS。
sh:源地址哈希调度(source hashing)
- 以源地址为关键字查找--个静态hash表来获得需要的RS。
lc:最小连接数调度( Least Connections)
- ipvs表存储了所有活动的连接。LB会比较将连接请求发送到当前连接最少的RS。
- 根据真实服务器已建立的连接数进行分配,将收到的访问请求优先分配给连接数最少的节点。
动态调度算法
wlc:加权最小连接数调度(Weighted Least Connections)
- 假设各台RS的权值依次为Wi,当前tcp连接数依次为Ti,依次取Ti/Wi为最小的RS作为下一个分配的RS。
lblc:基于地址的最小连接数调度(locality-based least-connection)
- 将来自同一个目的地址的请求分配给同一台RS,此时这台服务器是尚未满负荷的。否则就将这个请求分配给连接数最小的RS,并以它作为下一次分配的首先考虑。
三、ipvsadm工具
选项 | 解释 |
---|---|
-D | 删除整个虚拟服务器 |
-A | 添加虚拟服务器 |
-s | 指定负载调度算法(轮询:rr、加权轮询:wrr、最少连接:lc、加权最少连接: wlc) |
-a | 表示添加真实服务器(节点服务器) |
-d | 删除某一个节点 |
-t | 指定VIP地址及TCP端口 |
-r | 指定RIP地址及TCP端口 |
-m | 表示使用NAT群集模式 |
-g | 表示使用DR模式 |
-i | 表示使用TUN模式 |
-w | 设置权重(权重为0时表示暂停节点) |
-p 60 | 表示保持长连接60秒 |
-l | 列表查看LVS虚拟服务器〔默认为查看所有) |
-n | 以数字形式显示地址、端口等信息,常与"-"选项组合使用。ipvsadm -ln |
四、LVA—— NAT实战部署
LVS调度器作为Web服务器池的网关,LVS两块网卡,分别连接内外网,使用轮询(rr)调度算法
NFS服务器192.168.72.10
关闭防火墙下载nfs服务
[root@localhost ~]# systemctl stop firewalld.service
[root@localhost ~]# setenforce 0
[root@localhost ~]# yum install nfs-utils rpcbind -y
需要搭建一个本地yum仓库,重新安装
[root@localhost ~]# cd /opt/
[root@localhost opt]# ls
rh
[root@localhost opt]# mkdir nfs
[root@localhost opt]# cd nfs/
[root@localhost nfs]# mkdir my whg
[root@localhost nfs]# ls
my whg
[root@localhost nfs]# echo "this is my" >my/index.html
[root@localhost nfs]# echo "this is whg" >whg/index.html
[root@localhost nfs]#
设置权限
设置共享策略
[root@localhost nfs]# vim /etc/exports
/opt/nfs/my 192.168.72.0/24(rw,sync,no_root_squash)
/opt/nfs/whg 192.168.72.0/24(rw,sync,no_root_squash)
开启服务发布共享
[root@localhost nfs]# systemctl start rpcbind
[root@localhost nfs]# systemctl start nfs
[root@localhost nfs]# showmount -e
Export list for localhost.localdomain:
/opt/nginx/whg 192.168.72.0/24
/opt/nginx/my 192.168.72.0/24
web1服务器192.168.72.25
关闭防火墙
[root@localhost ~]# systemctl stop firewalld.service
[root@localhost ~]# setenforce 0
安装apache服务
[root@localhost ~]# yum install httpd -y
[root@localhost ~]#mount 192.168.72.10:/opt/nfs/my /var/www/html/ #将nfs主机共享目录挂载在web主机主页下
[root@localhost ~]# df -h
文件系统 容量 已用 可用 已用% 挂载点
/dev/mapper/centos-root 39G 4.5G 34G 12% /
devtmpfs 1.9G 0 1.9G 0% /dev
tmpfs 1.9G 0 1.9G 0% /dev/shm
tmpfs 1.9G 9.0M 1.9G 1% /run
tmpfs 1.9G 0 1.9G 0% /sys/fs/cgroup
/dev/mapper/centos-home 19G 33M 19G 1% /home
/dev/sda1 1014M 179M 836M 18% /boot
tmpfs 378M 12K 378M 1% /run/user/42
tmpfs 378M 0 378M 0% /run/user/0
192.168.72.10:/opt/nfs/my 50G 12G 39G 24% /var/www/html
[root@localhost ~]# cd /var/www/html/
[root@localhost html]# ls
index.html
[root@localhost html]# cat index.html #查看主页内容
this is my
重启服务并输入IP地址查看
[root@localhost html]# systemctl restart httpd.service
配置网关
[root@localhost ~]# vim /etc/sysconfig/network-scripts/ifcfg-ens33
-------------------------------------------------------------------------
GATEWAY=192.168.72.50
#DNS1=8.8.8.8
#DNS2=114.114.114.114
[root@localhost ~]# systemctl restart network
web2服务器192.168.72.20
步骤同web1
挂载
重启服务并输入IP地址查看
[root@localhost html]# systemctl restart httpd.service
配置网关
步骤同web1
调度服务器192.168.72.50
关闭防火墙
下载ipvsadm
[root@localhost ~]# yum install ipvsadm.x86_64 -y
添加网卡为NAT模式
更改网络配置
重启服务并查看网卡信息
开启路由转发功能
[root@localhost network-scripts]# vim /etc/sysctl.conf
--------------------------------------------------------
net.ipv4.ip_forward = 1
[root@localhost network-scripts]# sysctl -p
net.ipv4.ip_forward = 1
防火墙策略
[root@localhost network-scripts]# iptables -nL #查看规则
[root@localhost network-scripts]# iptables -F #清空规则
[root@localhost network-scripts]# iptables -nL -t nat #查看规则
[root@localhost network-scripts]# iptables -t nat -A POSTROUTING -s 192.168.72.0/24 -o ens36 -j SNAT --to 12.0.0.1 #添加规则
[root@localhost network-scripts]# iptables -nL -t nat
加载ip_vs模块,安装ipvsadm工具
[root@localhost network-scripts]# modprobe ip_vs
[root@localhost network-scripts]# cat /proc/net/ip_vs
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
开启ipvsadm服务
[root@localhost network-scripts]#ipvsadm-save >/etc/sysconfig/ipvsadm #保存负载分配策略
[root@localhost network-scripts]#systemctl start ipvsadm.service
清空策略
[root@localhost network-scripts]# ipvsadm -C #清空策略
制定策略
[root@localhost network-scripts]# ipvsadm -A -t 12.0.0.1:80 -s rr
-A添加虚拟服务器 -t VIP,虚拟IP所用外网网卡 -s算法 rr 轮询算法
#先指定虚拟服务器再添加真实服务器地址,
[root@localhost network-scripts]# ipvsadm -a -t 12.0.0.1:80 -r 192.168.72.25:80 -m
-a 真实服务器 -t:VIP -r:真实IP地址(节点服务器地址) -m:使用nat模式
[root@localhost network-scripts]# ipvsadm -a -t 12.0.0.1:80 -r 192.168.72.20:80 -m
开启并查看策略
客户机测试
客户机网关设置为网关服务器的外网网卡,使用浏览器搜索