文章目录
1 集群
1.1 集群的含义
Cluster,集群,群集
由多台主机构成,但对外只表现为一个整体,只提供一个访问入口(域名或IP地址),相当于一台大型计算机
2 集群类型
- 负载均衡群集
- 高可用群集
- 高性能运算群集
2.1 负载均衡集群
- 提高应用系统的响应能力、尽可能处理更多的访问请求、减少延迟为目标,获得高并发、高负载(LB)的整体性能
- LB的负载分配依赖于主节点的分流算法,将来自客户机的访问请求分担给多个服务器节点,从而缓解整个系统的负载压力。例如,“DNS轮询”“反向代理”等
2.2高可用群集
- 提高应用系统的可靠性、尽可能地减少中断时间为目标,确保服务的连续性,达到高可用(HA)的容错效果
- HA的工作方式包括双工和主从两种模式,双工即所有节点同时在线;主从则只有主节点在线,但当出现故障时从节点能自动切换为主节点。例如,”故障切换” “双机热备” 等
2.3高性能运算群集
- 提高应用系统的CPU运算速度、扩展硬件资源和分析能力为目标,获得相当于大型、超级计算机的高性能运算(HPC)能力
- 高性能依赖于“分布式运算”、“并行计算”,通过专用硬件和软件将多个服务器的CPU、内存等资源整合在一起,实现只有大型、超级计算机才具备的计算能力。例如“云计算”、“网格计算”
3负载均衡群集的结构
第一层,负载调度器(Load Balancer或Director)
访问整个群集系统的唯一入口,对外使用所有服务器共有的VIP地址,也称为群集IP地址。通常会配置主、备两台调度器实现热备份,当主调度器失效以后能够平滑替换至备用调度器,确保高可用性。负载均衡层
第二层,服务器池(Server Pool)
群集所提供的应用服务、由服务器池承担,其中每个节点具有独立的RIP地址(真实IP),只处理调度器分发过来的客户机请求。当某个节点暂时失效时,负载调度器的容错机制会将其隔离,等待错误排除以后再重新纳入服务器池。web应用层
第三层,共享存储(Share Storage)
为服务器池中的所有节点提供稳定、一致的文件存取服务,确保整个群集的统一性。共享存储可以使用NAS设备,或者提供NFS共享服务的专用服务器。
4负载均衡群集的三种工作方式
- 地址转换
- IP隧道
- 直接路由
4.1地址转换
- Network Address Translation,简称NAT模式
- 类似于防火墙的私有网络结构,负载调度器作为所有服务器节点的网关,即作为客户机的访问入口,也是各节点回应客户机的访问出口
- 服务器节点使用私有IP地址,与负载调度器位于同一个物理网络,安全性要优于其他两种方式
4.2ip隧道
- IP Tunnel,简称TUN模式
- 采用开放式的网络结构,负载调度器仅作为客户机的访问入口,各节点通过各自的Internet连接直接回应客户机,而不再经过负载调度器
- 服务器节点分散在互联网中的不同位置,具有独立的公网IP地址,通过专用IP隧道与负载调度器相互通信
4.3直接路由
- Direct Routing,简称DR模式
- 采用半开放式的网络结构,与TUN模式的结构类似,但各节点并不是分散在各地,而是与调度器位于同一个物理网络
- 负载调度器与各节点服务器通过本地网络连接,不需要建立专用的IP隧道
5lvs虚拟服务器
5.1lvs介绍
LVS 实际上相当于基于IP地址的虚拟化应用,为基于IP地址和内容请求分发的负载均衡提出了一种高效的解决方法
在centOS7系统中,可以手动添加ip_vs模块,并查看当前系统中ip_vs模块的版本信息
modprobe ip_vs
[root@localhost ~]# cat /proc/net/ip_vs
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
查看所有ip_vs调度算法的模块
在/usr/lib/modules/3.10.0-693.el7.x86_64/kernel/net/netfilter/ipvs/路径下
cd /usr/lib/modules/3.10.0-693.el7.x86_64/kernel/net/netfilter/ipvs/
[root@localhost ipvs]# ls
ip_vs_dh.ko.xz ip_vs.ko.xz ip_vs_lblcr.ko.xz ip_vs_nq.ko.xz ip_vs_rr.ko.xz ip_vs_sh.ko.xz ip_vs_wrr.ko.xz
ip_vs_ftp.ko.xz ip_vs_lblc.ko.xz ip_vs_lc.ko.xz ip_vs_pe_sip.ko.xz ip_vs_sed.ko.xz ip_vs_wlc.ko.xz
5.2lvs的负载调度算法
固定调度算法
rr:轮询(Round Robin)
- 将收到的访问请求安装顺序轮流分配给群集指定各节点(真实服务器),均等地对待每一台服务器,而不管服务器实际的连接数和系统负载。
wrr:加权轮询(Weighted Round Robin) - 依据不同RS的权值分配任务。权重值较高的RS将优先获得任务,并且分配到的连接数将比权值低的RS更多。相同权值的RS得到相同数目的连接数。
- 保证性能强的服务器承担更多的访问流量。
dh:目的地址哈希调度(destination hashing) - 以目的地址为关键字查找一个静态hash表来获得所需RS。
sh:源地址哈希调度(source hashing) - 以源地址为关键字查找–个静态hash表来获得需要的RS。
lc:最小连接数调度( Least Connections) - ipvs表存储了所有活动的连接。LB会较将连接请求发送到当前连接最少的RS。
- 根据真实服务器已建立的连接数进行分配,将收到的访问请求优先分配给连接数最少的节点。
动态调度算法
wlc:加权最小连接数调度(Weighted Least Connections) - 假设各台RS的权值依次为Wi,当前tcp连接数依次为Ti,依次取Ti/Wi为最小的RS作为下一个分配的RS。
lblc:基于地址的最小连接数调度(locality-based least-connection) - 将来自同一个目的地址的请求分配给同一台RS,此时这台服务器是尚未满负荷的。否则就将这个请求分配给连接数最小的RS,并以它作为下一次分配的首先考虑。
6ipvsadm工具
7lvs—nat部署实验
nfs服务器192.168.132.9
关闭防火墙下载nfs服务
[root@localhost ~]# systemctl stop firewalld.service
[root@localhost ~]# setenforce 0
[root@localhost ~]# yum install nfs-utils rpcbind -y
[root@localhost ~]# cd /opt/
[root@localhost opt]# ls
rh
[root@localhost opt]# mkdir nfs
[root@localhost opt]# cd nfs/
[root@localhost nfs]# mkdir my qyd
[root@localhost nfs]# ls
my qyd
[root@localhost nfs]# echo "this is smr" >my/index.html
[root@localhost nfs]# echo "this is xu" >qyd/index.html
[root@localhost nfs]#
设置权限
设置共享策略
[root@localhost nfs]# vim /etc/exports
/opt/nfs/smr 192.168.132.0/24(rw,sync,no_root_squash)
/opt/nfs/xu 192.168.132.0/24(rw,sync,no_root_squash)
开启服务发布共享
[root@localhost nfs]# systemctl start rpcbind
[root@localhost nfs]# systemctl start nfs
[root@localhost nfs]# showmount -e
Export list for localhost.localdomain:
/opt/nginx/smr 192.168.132.0/24
/opt/nginx/xu 192.168.132.0/24
web1服务器192.168.132.22
[root@localhost ~]# showmount -e 192.168.132.9
Export list for 192.168.132.9:
/opt/nfs/smr 192.168.132.0/24
/opt/nfs/xu 192.168.132.0/24
安装apache服务
[root@localhost ~]# yum install httpd -y
挂载
重启服务并输入IP地址查看
配置网关
[root@localhost ~]# vim /etc/sysconfig/network-scripts/ifcfg-ens33
-------------------------------------------------------------------------
GATEWAY=192.168.132.56
#DNS1=8.8.8.8
[root@localhost ~]# systemctl restart network
web2服务器192.168.132.11
showmount -e
Export list for localhost.localdomain:
/opt/nginx/smr 192.168.132.0/24
/opt/nginx/xu 192.168.132.0/24
``
安装apache服务
[root@localhost ~]# yum install httpd -y
挂载
重启服务并输入IP地址查看
配置网关
[root@localhost ~]# vim /etc/sysconfig/network-scripts/ifcfg-ens33
-------------------------------------------------------------------------
GATEWAY=192.168.132.56
#DNS1=8.8.8.8
[root@localhost ~]# systemctl restart network
网管服务器192.168.132.56
下载ipvsadm
[root@localhost ~]# yum install ipvsadm.x86_64 -y
添加网卡为NAT模式
更改网络配置
重启服务,并查看网卡信息
开启路由转发功能
root@localhost network-scripts]# vim /etc/sysctl.conf
--------------------------------------------------------
net.ipv4.ip_forward = 1
[root@localhost network-scripts]# sysctl -p
net.ipv4.ip_forward = 1
防火墙策略
ost network-scripts]# iptables -nL #查看规则
Chain INPUT (policy ACCEPT)
target prot opt source destination
Chain FORWARD (policy ACCEPT)
target prot opt source destination
Chain OUTPUT (policy ACCEPT)
target prot opt source destination
[root@localhost network-scripts]# iptables -F #清空规则
[root@localhost network-scripts]# iptables -nL -t nat #查看规则
Chain PREROUTING (policy ACCEPT)
target prot opt source destination
Chain INPUT (policy ACCEPT)
target prot opt source destination
Chain OUTPUT (policy ACCEPT)
target prot opt source destination
Chain POSTROUTING (policy ACCEPT)
target prot opt source destination
[root@localhost network-scripts]# iptables -t nat -A POSTROUTING -s 192.168.132.0/24 -o ens36 -j SNAT --to 12.0.0.1 #添加规则
[root@localhost network-scripts]# iptables -nL -t nat
Chain PREROUTING (policy ACCEPT)
target prot opt source destination
Chain INPUT (policy ACCEPT)
target prot opt source destination
Chain OUTPUT (policy ACCEPT)
target prot opt source destination
Chain POSTROUTING (policy ACCEPT)
target prot opt source destination
SNAT all -- 192.168.132.0/24 0.0.0.0/0 to:12.0.0.1
加载ip_vs模块,安装ipvsadm工具
[root@localhost network-scripts]# modprobe ip_vs
[root@localhost network-scripts]# cat /proc/net/ip_vs
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
开启ipvsadm服务
[root@localhost network-scripts]#ipvsadm-save >/etc/sysconfig/ipvsadm #保存负载分配策略
[root@localhost network-scripts]#systemctl start ipvsadm.service
[root@localhost network-scripts]# ipvsadm -C #清空策略
[root@localhost network-scripts]# ipvsadm -A -t 12.0.0.1:80 -s rr
-A添加虚拟服务器 -t VIP,虚拟IP所用外网网卡 -s算法 rr 轮询算法
#先指定虚拟服务器再添加真实服务器地址,
[root@localhost network-scripts]# ipvsadm -a -t 12.0.0.1:80 -r 192.168.132.22:80 -m
-a 真实服务器 -t:VIP -r:真实IP地址(节点服务器地址) -m:使用nat模式
[root@localhost network-scripts]# ipvsadm -a -t 12.0.0.1:80 -r 192.168.132.11:80 -m
开启并查看策略
[root@localhost network-scripts]# ipvsadm #开启服务
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP localhost.localdomain:http rr
-> 192.168.132.22:http Masq 1 0 0
-> 192.168.132.11:http Masq 1 0 0
[root@localhost network-scripts]# ipvsadm -ln #查看策略
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP 12.0.0.1:80 rr
-> 192.168.132.22:80 Masq 1 0 0
-> 192.168.132.11:80 Masq 1 0 0
客户机测试
客户机网关设置为网关服务器的外网网卡,使用浏览器搜索