搭建LVS负载均衡群集
1.0.0理论
1.1.0 企业群集应用概述
- 群集的含义
- Cluster,集群,群集
- 由多台主机构成,但对外只表现为一个整体
- 问题
- 互联网应用应用种,随着站点对硬件性能,响应速度,服务稳定性,数据可靠性等要求越来越高,单台服务器力不从心
- 解决方法
- 使用价格昂贵的小型机,大型机
- 使用普通服务器构建服务群集
1.2.0 企业群集分类
- 根据群集所针对的目标差异,可分为三种类型
- 负载均衡群集
- 高可用群集
- 高性能运算群集
- 负载均衡群集 (Load Balance Cluster)
- 提高应用系统的响应能力,尽可能处理更多的访问请求,减少延迟为目标,获得高并发,高负载(LB)的整体性能
- LB的负载分配依赖于主节点的分流算法
- 高可用群集(High Availability Cluster)
- 提高应用系统的可靠性、尽可能地减少中断时间为目标,确保服务的连续性,达到高可用(HA)的容错效果
- HA的工作方式包括双工和主从两种模式
- 高性能运算群集(High Performance Computer Cluster)
- 提高应用系统的CPU运算速度、扩展硬件资源和分析能力为目标,获得相当于大型、超级计算机的高性能运算(HPC)能力
- 高性能依赖于"分布式运算"、“并行计算”,通过专用硬件和软件将多个服务器的CPU、内存等资源整合在一起,实现只有大型、超级计算机才具备的计算能力
1.3.0 负载均衡群集架构
- 负载均衡的结构
- 第一层,负载调度器(Load Balancer或Director)
- 根据需求,双活,主从
- 第二层,服务器池(Server Pool)
- 根据客户需求选中可用区
- 第三层,共享存储(Share Storage)
- 内容重分发
- 第一层,负载调度器(Load Balancer或Director)
1.4.0 负载均衡群集工作模式分析
- 负载均衡群集是目前企业用得最多的群集类型
- 群集的负载调度技术有三种工作模式
- 地址转换
- IP隧道
- 直接路由
1.4.1 NAT模式
- 地址转换
- Network Address Translation,简称NAT模式
- 类似于防火墙的私有网络结构,负载调度器作为所有服务器节点的网关,即作为客户机的访问入口,也是各节点回应客户机的访问出口
- 服务器节点使用私有IP地址,与负载调度器位于同一个物理网络,安全性要优于其他两种方式
1.4.2 TUN模式
- IP隧道
- IP Tunnel,简称TUN模式
- 采用开放式的网络结构,负载调度器仅作为客户机的访问入口,各节点通过各自的Internet连接直接回应客户机,而不再经过负载调度器
- 服务器节点分散在互联网种的不同位置,具有独立的公网IP地址,通过专用IP隧道与负载调度器相互通信
1.4.3 DR模式
- 直接路由
- Direct Routing,简称DR模式
- 采用半开方式的网络结构,与TUN模式的结构类似,但各节点并不是分散在各地,而是在调度器位于同一个物理网络
- 负载调度器与各节点服务器通过本地网络连接,不需要建立专用的IP隧道
1.5.0 关于LVS虚拟服务器
- Linux Virtual Server
- 针对Linux内核的负载均衡解决方案
- 1998年5月,由我国的章文嵩博士创建
1.5.1 LVS的负载调度算法
- 轮询(Round Robin)
- 将收到的访问请求按照顺序轮流分配给群集中的各节点(真实服务器),均等地对待每一台服务器,而不管服务器实际的连接数喝系统负载
- 加权轮询 (Weighted Round Robin)
- 根据调度器设置的权重值来分发请求,权重值高的节点优先获得任务,分配的请求数越多
- 保证性能强的服务器承担更多的访问流量
- 最少连接 (Least Connections)
- 根据真是服务器已建立的连接数进行分配,将收到的访问请求优先分配给连接数量少的节点
- 加权最少连(Weighted Least Connections)
- 在服务器节点的性能差异较大时,可用为真是服务器自动调整权重
- 性能较高的节点将承担更大比例的活动连接负载
1.6.0 使用ipvsadm工具
- LVS群集创建与管理
- 创建虚拟服务器
- 添加,删除服务器节点
- 查看群集及节点情况
- 保存负载分配策略
1.7.0 NFS共享存储服务
- Network File System,网络文件系统
- 依赖于RPC(远端过程调用)
- 需安装nfs-utils,rpcbind软件包
- 系统服务:nfs,rpcbind
- 共享配置文件:/etc/exports
1.7.0 案例:LVS-NAT部署实战
- 案例环境
- LVS调度器作为Web服务器池的网关,LVS两块网卡,分别连接内外网,使用轮询(rr)调度算法
1.8.0 部署步骤
- 加载ip_vs模块,安装ipvsadm工具
- 开启路由准发
- 新建LVS虚拟服务器并添加节点服务器
- 配置节点服务器
- 建立测试网站
- 挂载NFS共享存储
- 建立测试网页
- 保存规则并测试
2.0.0 实例实验
2.1.0 实验环境配置
- 一台调度器:配置双网卡 VM1:192.168.100.41 桥接网卡:10.0.2.73
- 两台WEB服务器集群池:
- 192.168.100.42
- 192.168.100.43
- 这边的网关必须指向192.168.100.41这个地址
- 一台NFS共享服务器:192.168.100.44
2.2.0 调度器上设置
- 一块网卡桥接配置DHCP模式
- 在调度器 192.168.100.41 上按照以下操作进行
nmcali connection #先使用这个命令获得 网卡的 UID
cd /etc/sysconfig/network-scripts/ #设置 第二张网卡
vi ifcfg-ens36
yum -y install ipvsadm #yum安装 ipvsadm
modprobe ip_vs #加载 ip_vs 模块
car /proc/net/ip_vs #查看 ip_vs 模块
ipvsadm -A -t 192.168.100.10:80 -s rr #创建虚拟服务器
ipvsadm -a -t 192.168.100.10:80 -r 192.168.100.42:80 -m #添加服务器节点
ipvsadm -a -t 192.168.100.10:80 -r 192.168.100.43:80 -m
ipvsadm-save #查看LVS策略
vi /etc/sysctl.conf #开启调度服务器路由转发功能
net.ipv4.ip_forward = 1 #将这串指令保存到sysctl.conf文件中
sysctl -p # 刷新一下
2.3.0 存储服务器配置
- 在存储服务器 192.168.100.44 上按照以下操作进行
yum -y install nfs-utils # 安装 nfs-utils
yum -y install rpcbind # 安装 rpcbind
systemctl start nfs #开启 nfs 服务
systemctl start rpcbind #开启rpcbind 服务
mkdir /opt/51xit /opt/52xit # 创建用来共享的服务
vi /etc/exports #将以下2行代码 加入到这个文件
/opt/51xit 192.168.100.0/24(rw.sync)
/opt/52xit 192.168.100.0/24(rw.sync)
systemctl restart nfs #重启 nfs 服务
systemctl restart rpcbind #重启 rpcbind 服务
echo "this is www.51xit.tio" >/opt/51xit/index.html #给 共享文件 打入数据
echo "this is www.52xit.tio" >/opt/52xit/index.html
2.4.0 节点服务器配置
- 在服务器 192.168.100.42 上按照以下操作进行
yum -y install nfs-utils httpd # 安装nfs-ustils 和httpd服务
mount 192.168.100.44:/opt/51xit /var/www/html/
systemctl start httpd
-
登录 192.168.100.42测试网站是否正常
-
在服务器 192.168.100.42 上按照以下操作进行
yum -y install nfs-utils httpd # 安装nfs-ustils 和httpd服务
mount 192.168.100.44:/opt/52xit /var/www/html/
systemctl start httpd
- 登录 192.168.100.43测试网站是否正常
3.0.0测试结果
- 登录 192.168.100.41 测试网页 是否切换
- 切换成功就可以了。