企业级调度器LVS(LVS-NAT;LVS-DR负载均衡群集部署)
企业级调度器LVS(Linux Virtual Server)
- 集群概念
- LVS模型
- LVS调度算法
- LVS实现
集群和分布式
系统性能扩展方式:
- Scale UP:垂直扩展,向上扩展,增强,性能更强的计算机运行同样的服务
- Scale Out:水平扩展,向外扩展,增加设备,并行地运行多个服务调度分配问题,Cluster
随着计算机性能的增长,其价格会成倍增长
单台计算机的性能是有上限的,不可能无限制地垂直扩展
多核CPU意味着即使是单台计算机也可以并行的。
1.1 集群 Cluster
Cluster:集群,为解决某个特定问题将多台计算机组合起来形成的单个系统
Cluster分为三种类型:
-
LB: Load Balancing,负载均衡,多个主机组成,每个主机只承担一部分访问请求
-
HA:High Availiablity,高可用,避免SPOF (single Point Of failure)
- MTBF:Mean Time Between Failure 平均无故障时间,正常时间
- MTTR:Mean Time To Restoration ( repair)平均恢复前时间,故障时间
- A=MTBF/ (MTBF+MTTR)(0,1): 99%,99.5%,99.9%,99.99%,99.999%
-
SLA:服务等级协议(简称: SLA,全称: service level agreement)。是在一定开销下为保障服务的性能和可用性,服务提供商与用户间定义的一种双方认可的协定。通常这个开销是驱动提供服务质量的主要因素。在常规的领域中,总是设定所谓的三个9,四个9来进行表示,当没有达到这种水平的时候,就会有一些列的惩罚措施,而运维,最主要的目标就是达成这种服务水平。
1年 = 365天 = 8760小时
99.9 = 8760 * 0.1% = 8760 * 0.001 = 8.76小时
99.99 = 876 * 0.0001 = 0.876小时 = 0.876 * 60 = 52.6分钟
99.999 = 8760 * 0.00001 = 0.0876小时 = 0.0876 * 60 = 5.26分钟
停机时间又分为两种,一种是计划内停机时间,一种是计划外停机时间,而运维则主要关注计划外停机时间。
- HPC:Hgih-performance computing,高性能 超级计算机
1.2 分布式系统
分布式存储: Ceph,GlusterFS,FastDFS,MogileFs
分布式计算: hadoop,Spark
分布式常见应用
- 分布式应用-服务按照功能拆分,使用微服务
- 分布式静态资源–静态资源放在不同的存储集群上
- 分布式数据和存储–使用key-value缓存系统
- 分布式计算–对特殊业务使用分布式计算,比如Hadoop集群
1.3 集群和分布式
集群:同一个业务系统,部署在多台服务器上。集群中,每一台服务器实现的功能没有差别,数据和代码都是一样的
分布式:一个业务被拆成多个子业务,或者本身就是不同的业务,部署在多台服务器上。分布式中,每一台服务器实现的功能是有差别的,数据和代码也是不一样的,分布式每台服务器功能加起来,才是完整的业务
分布式是以缩短单个任务的执行时间来提升效率的,而集群则是通过提高单位时间内执行的任务数来提升效率。
对于大型网站,访问用户很多,实现一个群集,在前面部署一个负载均衡服务器,后面几台服务器完成同一业务。如果有用户进行相应业务访问时,负载均衡器根据后端哪台服务器的负载情况,决定由给哪一台去完成响应,并且一台服务器垮了,其它的服务器可以顶上来。分布式的每一个节点,都完成不同的业务,如果一个节点垮了,那这个业务可能就会失败
1.4 集群设计原则
可扩展性 集群的横向扩展能力
可用性 无故障时间
性能 访问响应时间
容量 单位时间内的最大并发吞吐量(C10K 并发问题)
1.5 集群设计实现
1.5.1 基础设施层面
提升硬件资源性能 从入口防火墙到后端web server均使用更高性能的硬件资源
多域名—DNS轮询A记录解析
多入口一将A记录解析到多个公网IP入口
多机房―同城+异地容灾
CDN(Content Delivery Network)—基于GSLB(Global Server Load Balance)实现全局负载均衡,如:DNS
1.5.2 业务层面
分层:安全层、负载层、静态层、动态层、(缓存层、存储层)持久化与非持久化
分割:基于功能分割大业务为小服务
分布式:对于特殊场景的业务,使用分布式计算
1.6 LB Cluster 负载均衡集群
- 以提高应用系统的响应能力、尽可能处理更多的访问请求、减少延迟为目标,获得高并发、高负载(LB)的整体性能
- LB的负载分配依赖于主节点的分流算法
1.6.1 按实现方式划分
-
硬件
F5 Big-IP
Citrix Netscaler
A10 A10
-
软件
lvs:linux virtual server,阿里四层SLB(Server Load Balance)使用
nginx:支持七层调度,阿里七层SLB使用Tengine
haproxy:支持七层调度
1.6.2 基于工作的协议层次划分
-
传输层(通用): DNAT和DPORT
LVS:nginx: stream
haproxy: mode tcp
-
应用层(专用):针对特定协议,常称为proxy server
http: nginx, httpd, haproxy(mode http), …fastcgi: nginx,httpd, …
mysql: mysql-proxy,…
1.6.3 负载均衡的会话保持
- session sticky:同一用户调度固定服务器
Source lP: LVS sh算法(对某一特定服务而言)
Cookie
- session replication:每台服务器拥有全部session
session multicast cluster
- session server:专门的session服务器
Memcached,Redis
1.7 HA Cluster 高可用集群实现
- 以提高应用系统的可靠性、尽可能地减少中断时间为目标,确保服务的连续性,达到高可用(HA)的容错效果
- HA的工作方式包括双工和主从两种模式
keepalived: vrrp协议
Ais :应用接口规范
heartbeat
cman+rgmanager(RHCS)
coresync_pacemaker
1.8 HPC Cluster 高性能运算群集
- 以提高应用系统的CPU运算速度、扩展硬件资源和分析能力为目标,获得相当于大型、超级计算机的高性能运算(HPC)能力
- 高性能运算群集的高性能依赖于“分布式运算”、“并行计算”,通过专用硬件和软件将多个服务器的CPU、内存等资源整合在一起,实现只有大型、超级计算机才具备的计算能力
Linux Virtual Server简介
2.1 LVS介绍
LVS: Linux Virtual Server,负载调度器,内核集成,章文嵩,阿里的四层SLB(Server LoadBalance)是基于LVS+keepalived实现
LVS官网: http://www.linuxvirtualserver.org/
LVS相关术语
VS: Virtual Server,负责调度
RS: Real Server,负责真正提供服务
2.2 LVS工作原理
VS根据请求报文的目标IP和目标协议及端口将其调度转发至某RS,根据调度算法来挑选RS。LVS是内核级功能, 工作在INPUT链的位置,将发往INPUT的流量进行“处理”
范例:查看内核支持LVS
[root@lnmp ~]# grep -i -C 10 ipvs /boot/config-3.10.0-862.el7.x86_64
...
# 显示LVS支持哪些协议
# IPVS transport protocol load balancing support
#
CONFIG_IP_VS_PROTO_TCP=y
CONFIG_IP_VS_PROTO_UDP=y
CONFIG_IP_VS_PROTO_AH_ESP=y
CONFIG_IP_VS_PROTO_ESP=y
CONFIG_IP_VS_PROTO_AH=y
CONFIG_IP_VS_PROTO_SCTP=y
# LVS的调度算法
# IPVS scheduler
#
CONFIG_IP_VS_RR=m
CONFIG_IP_VS_WRR=m
CONFIG_IP_VS_LC=m
CONFIG_IP_VS_WLC=m
CONFIG_IP_VS_LBLC=m
CONFIG_IP_VS_LBLCR=m
CONFIG_IP_VS_DH=m
CONFIG_IP_VS_SH=m
CONFIG_IP_VS_SED=m
CONFIG_IP_VS_NQ=m
2.3 LVS集群体系架构
从互联网上发请求过来 到达防火墙经过路由器 路由器
2.4 LVS功能及组织架构
负载均衡的应用场景为高访问量的业务,提高应用程序的可用性和可靠性。
2.4.1 应用于高访问量的业务
如果您的应用访问量很高,可以通过配置监听规则将流量分发到不同的云服务器ECS (Elastic Compute Service弹性计算服务)实例上。此外,可以使用会话保持功能将同一客户端的请求转发到同一台后端ECS
2.4.2 扩展应用程序
可以根据业务发展的需要,随时添加和移除ECS实例来扩展应用系统的服务能力,适用于各种Web服务器和App服务器。
2.4.3 消除单点故障
可以在负载均衡实例下添加多台ECS实例。当其中一部分ECS实例发生故障后,负载均衡会自动屏蔽故障的ECS实例,将请求分发给正常运行的ECS实例,保证应用系统仍能正常工作
2.4.4 同城容灾(多可用区容灾)
为了提供更加稳定可靠的负载均衡服务,阿里云负载均衡已在各地域部署了多可用区以实现同地域容灾。当主可用区出现机房故障或不可用时,负载均衡仍然有能力在非常短的时间内(如:大约30s中断)切换到另外一个备可用区恢复服务能力;当主可用区恢复时,负载均衡同样会自动切换到主可用区提供服务。
使用负载均衡时,您可以将负载均衡实例部署在支持多可用区的地域以实现同城容灾。此外,建议您结合自身的应用需要,综合考虑后端服务器的部署。如果您的每个可用区均至少添加了一台ECS实例,那么此种部署模式下的负载均衡服务的效率是最高的。
如下图所示,在负载均衡实例下绑定不同可用区的ECS实例。正常情况下,用户访问流量将同时转至发主、备可用区内的ECS实例;当可用区A发生故障时,用户访问流量将只转发至备可用区内的ECS实例。此种部署既可以避免因为单个可用区的故障而导致对外服务的不可用,也可以通过不同产品间可用区的选择来降低延迟。
如果采取如下图所示的部署方案,即在负载均衡实例的主可用区下绑定多台ECS实例,而在备可用区没有任何ECS实例。当主可用区发生故障时会造成业务中断,因为备可用区没有ECS实例来接收请求。这样的部署方式很明显是以牺牲高可用性为代价来获取低延时。
2.4.5 跨地域容灾
您可以在不同地域下部署负载均衡实例,并分别挂载相应地域内不同可用区的ECS。上层利用云解析做智能DNS,将域名解析到不同地域的负载均衡实例服务地址下,可实现全局负载均衡。当某个地域出现不可用时,暂停对应解析即可实现所有用户访问不受影响。
2.5 LVS集群类型中的术语
VS: Virtual Server,Director Server(DS), Dispatcher(调度器),Load Balancer
RS: 后端服务器 Real Server(lvs), upstream server(nginx), backend server(haproxy)
CIP:客户端IP (Client lP) 用户记录发送给集群的源IP地址
VIP:: 虚拟IP (Virtual serve lP VS外网的IP) 用于Director对外提供服务的IP地址
DIP:Director lP VS内网的IP Director用于连接内外网络的IP地址,即负载均衡器上的IP地址
RIP: 真实IP (Real server IP) 集群中真实服务器的物理 IP 地址
LIP:LVS内部IP(Local IP Address) LVS集群的内部通信IP
访问流程:CIP<–>VIP == DIP<–>RIP
LVS 工作模式和相关命令
3.1 LVS集群的工作模式
lvs-nat:修改请求报文的目标IP,多目标IP的DNAT
lvs-dr:操纵封装新的MAC地址
lvs-tun:在原请求IP报文之外新加一个IP首部
lvs-fullnat:修改请求报文的源和目标IP
3.1.1 LVS的NAT模式
地址转换(Network Address Translation)
- 简称NAT模式,类似于防火墙的私有网络结构,负载调度器作为所有服务器节点的网关,即作为客户机的访问入口,也是各节点回应客户机的访问出口
- 服务器节点使用私有IP地址,与负载调度器位于同一个物理网络,安全性要优于其他两种方式
- RIP和DIP应在同一个IP网络,且应使用私网地址;RS的网关要指向DIP
- 请求报文和响应报文都必须经由Director转发,Director易于成为系统瓶颈
- 支持端口映射,可修改请求报文的目标PORT
- VS必须是Linux系统,RS可以是任意OS系统
3.1.2 LVS的DR模式
直接路由(Direct Routing)
- 简称DR模式,采用半开放式的网络结构,与TUN模式的结构类似,但各节点并不是分散在各地,而是与调度器位于同一个物理网络
- 负载调度器与各节点服务器通过本地网络连接,不需要建立专用的IP隧道
LVS-DR: Direct Routing,直接路由,LVS默认模式,应用最广泛,通过为请求报文重新封装一个MAC首部进行转发,源MAC是DIP所在的接口的MAC,目标MAC是某挑选出的RS的RIP所在接口的MAC地址;源IP/PORT,以及目标IP/PORT均保持不变
DR模式的特点:
-
Director和各RS都配置有VIP
-
确保前端路由器将目标IP为VIP的请求报文发往Director
在前端网关做静态绑定VIP和Director的MAC地址
在RS上使用 arptables工具
arptables -A IN -d $VIP -j DROP arptables -A OUT -s $VIP -j mangle --mgngle-ip-s $RIP
在RS上修改内核参数以限制arp通告及应答级别
cat /proc/sys/net/ipv4/conf/all/arp_announce cat /proc/sys/net/ipv4/conf/all/arp_announce
- RS的RIP可以使用私网地址,也可以是公网地址;RIP与DIP在同—IP网络;RIP的网关不能指向DiIP,以确保响应报文不会经由Director
- RS和Director要在同一个物理网络
- 请求报文要经由Director,但响应报文不经由Director,而由RS直接发往Client
- 不支持端口映射(端口不能修改)
- 无需开启 ip_forward
- RS可使用大多数OS系统
3.1.3 LVS的TUN模式
IP隧道(IP Tunnel)
- 简称TUN模式,采用开放式的网络结构,负载调度器仅作为客户机的访问入口,各节点通过各自的Internet连接直接回应客户机,而不再经过负载调度器
- 服务器节点分散在互联网中的不同位置,具有独立的公网IP地址,通过专用IP隧道与负载调度器相互通信
转发方式:不修改请求报文的IP首部(源IP为CIP,目标IP为VIP),而在原报文之外再封装一个Ip首部(源IP是DIP,目标IP是RIP),将报文发往挑选出的目标RS;RS直接响应给客户端(源IP是VIP,目标IP是CIP)
TUN模式特点:
-
RIP和DIP可以不处于同一物理网络中,RS的网关一般不能指向DIP,且kIP可以和公网通信。也就是说集群节点可以跨互联网实现。DIP, VIP,RIP可以是公网地址
-
RealServer的tun接口上需要配置VIP地址,以便接收director转发过来的数据包,以及作为响应的报文源IP
-
Director转发给RealServer时需要借助隧道,隧道外层的IP头部的源IP是DIP,目标IP是RIP,而RealServer响应给客户端的IP头部是根据隧道内层的IP头分析得到的,源IP是VIP,目标IP是CIP
-
请求报文要经由Director,但响应不经由Director,响应由RealServer自己完成
-
不支持端口映射
-
RS的OS须支持隧道功能
应用场景:
一般来说,TUN模式常会用来负载调度缓存服务器组,这些缓存服务器一般放置在不同的网络环境,可以就近折返给客户端。在请求对象不在Cache服务器本地命中的情况下,Cache服务器要向源服务器发送请求,将结果取回,最后将结果返回给用户。
LAN环境一般多采用DR模式,WAN环境虽然可以用TUN模式,但是一般在WAN环境下,请求转发更多的被 haproxy/nginx/DNS 等实现。因此,TUN模式实际应用的很少,跨机房的应用一般专线光纤连接或DNS调度
3.1.4 LVS的FULLNAT模式
通过同时修改请求报文的源IP地址和目标P地址进行转发
CIP --> DIP
VIP -->RIP
fullnat模式特点:
- VIP是公网地址,RIP和DIP是私网地址,且通常不在同一IP网络;因此,RIP的网关一般不会指向DIP
- RS收到的请求报文源地址是DIP,因此,只需响应给DIP;但Director还要将其发往Client
- 请求和响应报文都经由Director
- 相对NAT模式,可以更好的实现LVS-RealServer间跨VLAN通讯
- 支持端口映射
注意:此类型kernel默认不支持
3.1.5 LVS工作模式总结和比较
NAT | TUN | DR | |
---|---|---|---|
Real Server | any | Tunneling | Non-arp device |
Real server network | private(私网) | LAN/WAN(跨公网) | LAN(局域网) |
Real server number | low (10-20) | High (100) | High (100) |
Real server gateway | load balancer | own router | own router |
优点 | 端口转换 | WAN (跨广域网) | 性能最好 |
缺点 | 性能瓶颈 | 启用隧道(性能受影响) | 不支持跨网段 |
lvs-nat与lvs-fullnat:
- 请求和响应报文都经由Director
- lvs-nat: RIP的网关要指向DIP
- lvs-fullnat: RIP和DIP未必在同一IP网络,但要能通信
lvs-dr与lvs-tun:
- 请求报文要经由Director,但响应报文由RS直接发往Client
- lvs-dr:通过封装新的MAC首部实现,通过MAC网络转发
- lvs-tun:通过在原IP报文外封装新IP头实现转发,支持远距离通信
LVS 调度算法
ipvs scheduler:根据其调度时是否考虑各RS当前的负载状态
分为两种:静态方法和动态方法
4.1 静态方法
仅根据算法本身进行调度
-
RR: roundrobin,轮询,较常用
- 将收到的访问请求按照顺序轮流分配给群集中的各节点(真实服务器),均等地对待每一台服务器,而不管服务器实际的连接数和系统负载
-
WRR: Weighted RR,加权轮询,较常用
- 根据真实服务器的处理能力轮流分配收到的访问请求,调度器可以自动查询各节点的负载情况,并动态调整其权重
- 保证处理能力强的服务器承担更多的访问流量
-
SH:Source Hashing(源地址哈希),实现session sticky,源IP地址hash;将来自于同一个IP地址的请求始终发往第一次挑中的RS,从而实现会话绑定
-
DH:Destination Hashing(目标地址哈希),第一次轮询调度至RS,后续将发往同一个目标地址的请求始终转发至第一次挑中的RS,典型使用场景是正向代理缓存场景中的负载均衡,如: Web缓存
4.2 动态方法
主要根据每RS当前的负载状态及调度算法进行调度Overhead=value 较小的RS将被调度
-
LC: least connections(最少连接)适用于长连接应用
- 根据真实服务器已建立的连接数进行分配,将收到的访问请求优先分配给连接数最少的节点
overhead=activeconns*256+inactiveconns 活动的连接数*256+非活动连接数
-
WLC: Weighted LC(加权最少连接),默认调度方法,较常用
- 在服务器节点的性能差异较大的情况下,可以为真实服务器自动调整权重
- 权重较高的节点将承担更大比例的活动连接负载
overhead=(activeconns*256+inactiveconns)/weight*
-
SED: Shortest Expection Delay,初始连接高权重优先,只检查活动连接,而不考虑非活动连接
overhead=(activeconns+1)*256/weight
-
NQ: Never Queue,第一轮均匀分配,后续SED
-
LBLC: Locality-Based LC,动态的DH算法,使用场景:根据负载状态实现正向代理,实现Web Cache等
-
LBLCR: LBLC with Replication,带复制功能的LBLC,解决LBLC负载不均衡问题,从负载重的复制到负载轻的RS,实现Web Cache等
4.3 内核版本4.15版本后新增调度算法:FO和OVF
FO (Weighted Fail Over)调度算法,在此FO算法中,遍历虚拟服务所关联的真实服务器链表,找到还未过载(未设置IP_VS_DEST_F_OVERLOAD标志)的且权重最高的真实服务器,进行调度
OVF (Overflow-connection)调度算法,基于真实服务器的活动连接数量和权重值实现。将新连接调度到权重值最高的真实服务器,直到其活动连接数量超过权重值,之后调度到下一个权重值最高的真实服务器,在此OVF算法中,遍历虚拟服务相关联的真实服务器链表,找到权重值最高的可用真实服务器。一个可用的真实服务器需要同时满足以下条件:
- 未过载(未设置IP_VS_DEST_F_OVERLOAD标志)
- 真实服务器当前的活动连接数量小于其权重值
- 其权重值不为零
LVS 相关软件
5.1 程序包:ipvsadm
Unit File: ipvsadm.service
主程序:/usr/sbin/ipvsadm
规则保存工具:/usr/sbin/ipvsadm-save
规则重载工具:/usr/sbin/ipvsadm-restore
配置文件:/etc/sysconfig/ipvsadm-config
ipvs调度规则文件: /etc/sysconfig/ipvsadm
5.2 ipvsadm 命令
ipvsadm 核心功能:
- 集群服务管理:增 删 改
- 集群服务的RS管理:增 删 改
- 查看
ipvsadm 工具用法:
# 管理集群服务
ipvsadm -A|E -t|u|f service-address [-s scheduler] [-p [timeout]] [-M netmask] [--pe persistence_engine] [-bsched-f1ags]
-A 增加一台新的虚拟服务器
-E 编辑内核虚拟服务器表中的一条虚拟服务器记录
-t 说明虚拟服务器提供的是tcp 的服务
-u 说明虚拟服务器提供的是udp 的服务
-f 使用防火墙标记表示虚拟服务
-s 调度算法
ipvsadm -D -t|u|f service-addr ess #删除
-D 删除内核虚拟服务器表中的一条虚拟服务器记录,并删除所有与该虚拟服务器相关联的真实服务器
ipvsadm -C #清空
ipvsadm -R #重载,相当于ipvsadm-restore
ipvsadm -s [-n] #保存,相当于ipvsadm-save
# 管理集群中的RS
ipvsadm -a|e -t|u|f service-address -r server-address [-g|i|m] [-w weight]
-a 在一个虚拟服务器中增加一台新的真实服务器
-e 编辑一条虚拟服务器记录中的某条真实服务器记录
ipvsadm -d -t|u|f service-address -r server-address
-d 删除一条虚拟服务器记录中的某条真实服务器记录
ipvsadm -L|l [options]
ipvsadm -z [-t|u|f service-address]
删除:
ipvsadm -D -t|u|f service-address
管理集群上的RS:增 删 改
增,改:
ipvsadm -ale -t|u|f service-address -r server-address [-g|i|m][-w weight]
删:
ipvsadm -d -t|u|f service-address -r server-address
server -address:
rip[ :port]如省略port,不作端口映射
选项:
1vs类型:
-g: gateway ,dr类型,默认
-i: ipip,tun类型
-m: masquerade,nat类型
-w weight:权重
ipvsadm -a -t 10.0.0.8:80 -r 192.168.188.188:8080 -m -w 3
清空定义的所有内容:
ipvsadm -C
清空计数器:
ipvsadm -Z [-t|u|f service-address]
查看:
ipvsadm -L|l [options]
-L -l 列出虚拟服务器表
一般ipvsadm -ln
--numeric, -n: 以数字形式输出地址和端口号
--exact: 扩展信息,精确值
--connection,-c: 当前IPVS连接输出
--stats: 统计信息
--rate : 输出速率信息
LVS实战案例
6.1 LVS-NAT模式案例
我们使用四台本地虚拟机做lvs-nat集群
主机 | 公网ip/私网ip | 私网网关 | 功能 |
---|---|---|---|
lvs调度器 | 192.168.188.100 / 192.168.79.100 | 不需要 | 负载均衡/路由转发 |
nfs | 192.168.79.10 | 192.168.79.100 | nfs共享存储 |
httpd | 192.168.79.20 | 192.168.79.100 | web服务器 |
httpd | 192.168.79.21 | 192.168.79.100 | web服务器 |
每台服务器关闭防火墙和selinux安全中心
systemctl stop firewalld
systemctl disable firewalld
setenforce 0
sed -ri '/^SELINUX=/cSELINUX=disabled' /etc/selinux/config
getenforce
搭建nfs服务
添加一个新的磁盘
在nfs服务器上创建新的磁盘分区
fdisd -l # 查看新加入的磁盘
fdisk /dev/sdb # 分区
Device Boot Start End Blocks Id System
/dev/sdb1 2048 10485759 5241856 83 Linux
创建文件系统(格式化)
mkfs.xfs /dev/sdb1
创建nfs挂载目录
mkdir /mynfs
挂载
vim /etc/fstab
最后一行添加
/dev/sdb1 /mynfs xfs defaults 0 0
加载挂载信息
mount -a
查看
df -hT
/dev/sdb1 xfs 5.0G 33M 5.0G 1% /mynfs
安装nfs所需软件
yum install -y nfs-utils rpcbind
配置nfs共享目录
vim /etc/exports
# 添加
/mynfs 192.168.79.0/24(rw,sync,no_root_squash)
开启服务
systemctl start nfs
systemctl start rpcbind
验证
[root@nfs ~]# showmount -e
Export list for nfs:
/mynfs 192.168.79.0/24
[root@nfs ~]# exportfs -v
/mynfs 192.168.79.0/24(sync,wdelay,hide,no_subtree_check,sec=sys,rw,secure,no_root_squash,no_all_squash)
搭建httpd
测试
然后配置网卡信息 lvs上增加一块新的网卡 其余服务器的网卡都改成仅主机模式的私网地址
ip addr
查看发现多了一张ens37
查看网卡UUID
[root@lvs ~]# nmcli con show
NAME UUID TYPE DEVICE
Wired connection 1 640144f5-6ba4-3936-81e8-245ddfff309d ethernet ens37
ens33 0630fb8a-d714-40a6-92c2-3d4cb3d51901 ethernet ens33
配置ens37网卡
[root@lvs network-scripts]# cp ifcfg-ens33 ifcfg-ens37
[root@lvs network-scripts]# vim ifcfg-ens37
修改NAME和DEVICE为ens37
同时修改UUID为nmcli con show查看的ens37 UUID
更改 IPADDR=192.168.79.100
只需要一个NETMASK=255.255.255.0
GATEWAY和DNS1删掉
接着配置nfs和web服务器网卡ens33
IPADDR=192.168.79.
GATEWAY和DNS1都是192.168.79.100
ip addr检查inet
如果调度器ens37没有ip
则
systemctl stop NetworkManager
systemctl start NetworkManager
ping 192.168.79.100
测试能不能ping通网关
如果不能ping通说明网卡设置错误
web服务器上配置nfs
yum install -y rpcbind nfs-utils
systemctl enable rpcbind
systemctl start rpcbind
[root@localhost ~]# showmount -e 192.168.79.10
Export list for 192.168.79.10:
/mynfs 192.168.79.0/24
永久挂载
vim /etc/fstab
192.168.79.10:/mynfs /var/www/html nfs defaults,_netdev 0 0
打开网页测试
搭建lvs-nat负载均衡集群
加载ip_vs模块
modprobe ip_vs
查看ip_vs版本信息
cat /proc/net/ip_vs
安装ipvsadm工具
yum -y install ipvsadm
查看版本
ipvsadm -v
配置负载调度器
vi /etc/sysctl.conf
net.ipv4.ip_forward = 1 //开启路由转发规则
重新载入sysctl变量
sysctl -p
配置负载分配策略
清除原有策略
ipvsadm -C
添加虚拟服务器,VIP为192.168.188.100:80,负载调度算法为rr(轮询)
ipvsadm -A -t 192.168.188.100:80 -s rr
添加真实服务器
[root@lvs network-scripts]# ipvsadm -a -t 192.168.188.100:80 -r 192.168.79.20:80 -m -w 1
[root@lvs network-scripts]# ipvsadm -a -t 192.168.188.100:80 -r 192.168.79.21:80 -m -w 1
[root@lvs network-scripts]# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP 192.168.188.100:80 rr
-> 192.168.79.20:80 Masq 1 0 0
-> 192.168.79.21:80 Masq 1 0 0
刷新网页之后
ipvsadm -ln来查看群集节点状态
我们在测试一遍 将/mynfs里面的网页更改
清除浏览器缓存之后再次刷新
6.2 LVS-DR模式案例
DR模型中各主机上均需要配置VIP,解决地址冲突的方式有三种:
- 在前端网关做静态绑定
- 在各RS使用arptables
- 在各RS修改内核参数,来限制arp响应和通告的级别
限制响应级别: arp_ignore
- 0: 默认值,表示可使用本地任意接口上配置的任意地址进行响应
- 1: 仅在请求的目标IP配置在本地主机的接收到请求报文的口上时,才给予响应
限制通告级别: arp_announce
- 0: 默认值,把本机所有接口的所有信息向每个接口的网络进行通告
- 1: 尽量避免将接口信息向非直接连接网络进行通告
- 2: 必须避免将接口信息向非本网络进行通告
配置要点
- Director服务器采用双IP桥接网络,一个是VIP,一个DIP
- Web服务器采用和DIP相同的网段和Director连接
- 每个Web服务器配置VIP
- 每个web服务器可以出外网
我们使用五台本地虚拟机做lvs-dr集群
准备工作
在lvs服务器上面安装所需软件
yum install -y ipvsadm
在web服务器上面安装所需软件
yum install -y httpd
yum install -y rpcbind nfs-utils
在nfs服务器上面安装所需软件
yum install -y rpcbind nfs-utils
配置网卡
lvs服务器需要两张网卡 一张网卡配置为NAT模式 一张网卡配置为仅主机模式
web服务器需要两张网卡 一张网卡配置为NAT模式 一张网卡配置为仅主机模式
nfs服务器需要一张网卡 配置为仅主机模式
进入各个服务器配置网卡为实验ip(如上面图中所示)
在配置ens37网卡的时候需要注意 要将uuid改了
查看网卡UUID
[root@lvs ~]# nmcli con show
NAME UUID TYPE DEVICE
ens33 0630fb8a-d714-40a6-92c2-3d4cb3d51901 ethernet ens33
ens37 640144f5-6ba4-3936-81e8-245ddfff309d ethernet ens37
然后
cp ifcfg-ens33 ifcfg-ens37
修改
NAME=ens37
UUID=640144f5-6ba4-3936-81e8-245ddfff309d
DEVICE=ens37
IPADDR=192.168.79.10
NETMASK=255.255.255.0
修改完之后重启网络
systemctl restart network
查看ip是否正确
如果ens37私网地址消失
执行这条命令 重启网络管理
systemctl restart NetworkManager
一定要ip addr查看ip是否配置正确
配置nfs服务
详细步骤在上面NAt的案例里面
我这里就写一些重要的点
vim /etc/exports
/mynfs 192.168.79.0/24(rw,sync,no_root_squash)
[root@nfs ~]# showmount -e
Export list for nfs:
/mynfs 192.168.79.0/24
然后再web服务器上面
开启rpc
systemctl start rpcbind
[root@localhost ~]# showmount -e 192.168.79.200
Export list for 192.168.79.200:
/mynfs 192.168.79.0/24
vim /etc/fstab
192.168.79.200:/mynfs /var/www/html nfs defaults,_netdev 0 0
添加完毕之后加载挂载
mount -a
df -hT 来查看挂载是否成功
[root@localhost ~]# df -hT
Filesystem Type Size Used Avail Use% Mounted on
/dev/mapper/centos-root xfs 17G 1.8G 16G 11% /
devtmpfs devtmpfs 980M 0 980M 0% /dev
tmpfs tmpfs 992M 0 992M 0% /dev/shm
tmpfs tmpfs 992M 9.5M 982M 1% /run
tmpfs tmpfs 992M 0 992M 0% /sys/fs/cgroup
/dev/sda1 xfs 1014M 130M 885M 13% /boot
tmpfs tmpfs 199M 0 199M 0% /run/user/0
192.168.79.200:/mynfs nfs4 5.0G 44M 5.0G 1% /var/www/html
然后我们去nfs服务器的/mynf目录下添加网页
通过浏览器测试
配置lvs调度器
- 在lvs服务器的ens33:0网卡上面配置VIP地址(虚拟地址)
[root@lvs ~]# cd /etc/sysconfig/network-scripts/
[root@lvs network-scripts]# cp -p ifcfg-ens33 ifcfg-ens33:0
[root@lvs network-scripts]# vim ifcfg-ens33:0
需要修改的就是NAME DEVICE IPADDR(写虚拟地址) NETMASK
NAME=ens33:0
UUID=0630fb8a-d714-40a6-92c2-3d4cb3d51901
DEVICE=ens33:0
ONBOOT=yes
IPADDR=192.168.188.188
NETMASK=255.255.255.0
打开网卡
ifup ens33:0
- 加载模块和修改参数
加载ip_vs模块
modprobe ip_vs
查看lvs模块的版本
cat /proc/net/ip_vs
LVS服务器关闭路由转发,关闭重定向
[root@lvs network-scripts]# vim /etc/sysctl.conf
# net.ipv4.ip_forward = 1 注释路由转发
# DR模式,LVS负载调度器和各节点需要共用VIP地址,应该关闭Linux内核的重定向参数响应(不关闭重定向,调度器将把请求转发到网关)
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.ens33.send_redirects = 0
重新载入sysctl变量
[root@lvs network-scripts]# sysctl -p
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.ens33.send_redirects = 0
- 配置负载分配策略
首先清除原有策略
[root@lvs network-scripts]# ipvsadm -C
[root@lvs network-scripts]# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
添加虚拟服务器 VIP为192.168.188.188:80,负载调度算法为rr(轮询)
[root@lvs ~]# ipvsadm -A -t 192.168.188.188:80 -s rr
-A 添加虚拟服务器记录 -t 设置VIP地址,-s 调度算法 rr轮询
添加真实服务器 工作模式为DR
[root@lvs ~]# ipvsadm -a -t 192.168.188.188:80 -r 192.168.188.100:80 -g -w 1
-a 添加真实服务器记录 -t 设置vip地址 -r 设置真实ip地址 -g选择DR群集模式 -w权重
[root@lvs ~]# ipvsadm -a -t 192.168.188.188:80 -r 192.168.188.101:80 -g -w 1
保存负载分配策略
[root@lvs ~]# ipvsadm-save > /etc/sysconfig/ipvsadm
开启ivpsadm
systemctl enable ipvsadm
systemctl start ipvsadm
配置节点服务器
- 在节点服务器的lo:0网卡上面配置VIP地址(虚拟地址)
[root@localhost network-scripts]# cp ifcfg-lo ifcfg-lo:0
[root@localhost network-scripts]# vim ifcfg-lo:0
需要修改的是DEVICE IPADDR写VIP BROADCAST也可以写VIP NETMASK全写255
DEVICE=lo:0
IPADDR=192.168.188.188
NETMASK=255.255.255.255
BROADCAST=192.168.188.188
ONBOOT=yes
NAME=loopback
打开网卡
ifup lo:0
- 配置路由和调整抑制ARP响应参数
先查看一下路由
[root@localhost network-scripts]# route -n
Kernel IP routing table
Destination Gateway Genmask Flags Metric Ref Use Iface
0.0.0.0 192.168.188.2 0.0.0.0 UG 100 0 0 ens33
192.168.79.0 0.0.0.0 255.255.255.0 U 101 0 0 ens37
192.168.188.0 0.0.0.0 255.255.255.0 U 100 0 0 ens33
添加一条路由设置将发送192.168.188.188的请求转给环回虚接口
[root@localhost network-scripts]# route add -host 192.168.188.188 dev lo:0
[root@localhost network-scripts]# route -n
Kernel IP routing table
Destination Gateway Genmask Flags Metric Ref Use Iface
0.0.0.0 192.168.188.2 0.0.0.0 UG 100 0 0 ens33
192.168.79.0 0.0.0.0 255.255.255.0 U 101 0 0 ens37
192.168.188.0 0.0.0.0 255.255.255.0 U 100 0 0 ens33
192.168.188.188 0.0.0.0 255.255.255.255 UH 0 0 0 lo
节点服务器配置抑制ARP响应
[root@localhost network-scripts]# vim /etc/sysctl.conf
# 添加
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2
重新载入sysctl变量
[root@localhost network-scripts]# sysctl -p
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2
重启各项服务
systemctl restart network
ifup lo:0
验证:
查看ipvsadm活跃连接数
6.3 LVS-DR模式 使用脚本更简单的实现方法
架构图还是这样
LVS配置
两台LVS服务器都开启路由转发,关闭重定向
[root@lvs ~]# vim /etc/sysctl.conf
net.ipv4.ip_forward = 1
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.ens33.send_redirects = 0
重载配置,使之生效
[root@lvs ~]# sysctl -p
net.ipv4.ip_forward = 1
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.ens33.send_redirects = 0
配置lvs的网卡信息
[root@lvs ~]# cd /etc/sysconfig/network-scripts/
[root@lvs network-scripts]# cp -p ifcfg-ens33 ifcfg-ens33:0
[root@lvs network-scripts]# vim ifcfg-ens33:0
需要修改的就是NAME DEVICE IPADDR(写虚拟地址) NETMASK
NAME=ens33:0
UUID=0630fb8a-d714-40a6-92c2-3d4cb3d51901
DEVICE=ens33:0
ONBOOT=yes
IPADDR=192.168.188.188
NETMASK=255.255.255.0
两台LVS服务器都创建脚本
[root@lvs network-scripts]# vim /etc/init.d/dr.sh
#!/bin/bash
VIP=192.168.188.188 # 虚拟ip
RIP1=192.168.188.100 # 真实web服务器ip
RIP2=192.168.188.101
case "$1" in
start)
/sbin/ipvsadm --save > /etc/sysconfig/ipvsadm # 保存配置
systemctl start ipvsadm # 启动服务
/sbin/ifconfig ens33:0 $VIP broadcast $VIP netmask 255.255.255.255 broadcast $VIP up # 设置ens33:0地址,广播地址,子网掩码,并开启
/sbin/route add -host $VIP dev ens33:0 # 添加路由网段信息
/sbin/ipvsadm -A -t $VIP:80 -s rr # 指定虚拟服务访问入口,指定轮询算法
/sbin/ipvsadm -a -t $VIP:80 -r $RIP1:80 -g -w 1 # -g 指定真实服务器,dr模式
/sbin/ipvsadm -a -t $VIP:80 -r $RIP2:80 -g -w 1
echo "ipvsadm starting --------------------[ok]"
;;
stop)
/sbin/ipvsadm -C # 清空缓存
systemctl stop ipvsadm # 关闭服务
ifconfig ens33:0 down # 关闭接口
route del $VIP # 删除路由信息
echo "ipvsamd stoped----------------------[ok]"
;;
status)
if [ ! -e /var/lock/subsys/ipvsadm ];then # 判断文件存在与否决定状态
echo "ipvsadm stoped---------------"
exit 1
else
echo "ipvsamd Runing ---------[ok]"
fi
;;
*)
echo "Usage: $0 {start|stop|status}"
exit 1
esac
exit 0
[root@lvs network-scripts]# chmod +x /etc/init.d/dr.sh
两台LVS服务器都重启各项配置
[root@lvs network-scripts]# systemctl restart network
[root@lvs network-scripts]# ifup ens33:0
[root@lvs network-scripts]# service dr.sh start
ipvsadm starting --------------------[ok]
节点配置
配置节点的网卡信息
[root@web network-scripts]# cp ifcfg-lo ifcfg-lo:0
[root@web network-scripts]# vim ifcfg-lo:0
需要修改的是DEVICE IPADDR写VIP BROADCAST也写VIP NETMASK全写255
DEVICE=lo:0
IPADDR=192.168.188.188
NETMASK=255.255.255.255
BROADCAST=192.168.188.188
ONBOOT=yes
NAME=loopback
节点服务器配置抑制ARP响应
配置抑制ARP脚本
[root@web network-scripts]# vim /etc/init.d/web.sh
#!/bin/bash
VIP=192.168.188.188
case "$1" in
start)
ifconfig lo:0 $VIP netmask 255.255.255.255 broadcast $VIP
/sbin/route add -host $VIP dev lo:0
echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
sysctl -p >/dev/null 2>&1
echo "RealServer Start OK "
;;
stop)
ifconfig lo:0 down
route del $VIP /dev/null 2>&1
echo "0" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "0" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "0" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "0" >/proc/sys/net/ipv4/conf/all/arp_announce
echo "RealServer Stopd"
;;
*)
echo "Usage: $0 {start|stop}"
exit 1
esac
exit 0
[root@web network-scripts]# chmod +x /etc/init.d/web.sh
重启各项服务
[root@web network-scripts]# systemctl restart network
[root@web network-scripts]# ifup lo:0
[root@web network-scripts]# service web.sh start
RealServer Start OK
[root@web network-scripts]# systemctl start httpd
验证: