LVS(Linux Virtual Server)调度器
集群和分布式介绍
LVS(Linux Virtual Server)的功能
- 作为IO调度器的角色,将请求转发到相对空闲的节点,提升处理性能,节点间均衡负载
- 可以将多台服务器组合成一个集群对业务进行支持,降低企业硬件成本,提升处理业务性能
- 稳定可靠,即使在集群的服务器中某台服务器无法正常工作,也不影响整体功能
集群与分布式的区别
-
系统性能扩展方式:
- Scale UP:垂直扩展,向上扩展,增加性能,譬如CPU,内存,提升当前设备的性能以运行当前服务、业务;
- Scale OUT:横向扩展,水平扩展,向外扩展,增加设备,并行地运行多个服务调度分配问题;
集群:Cluster
集群介绍:
- Cluster:集群,为解决某个特定问题将多台计算机组合起来形成的单个系统
Cluster的分类:
-
LB:Load Balancing,负载均衡,多个主机组成,每个主机只承担一部分访问请求
-
HA:High Availiablity,高可用,避免SPOF(single Point Of failure)
-
MTBF:Mean Time Between Failure 平均无故障时间,正常时间
-
MTTR:Mean Time To Restoration( repair)平均恢复前时间,故障时间
-
A = MTBF /(MTBF+MTTR) (0,1):99%,99.5%,99.9%,99.99%,99.999%
-
SLA:服务等级协议(简称:SLA,全称:service level agreement)。是在一定开销下为保障服 务的性能和可用性,服务提供商与用户间定义的一种双方认可的协定。通常这个开销是驱动提供服 务质量的主要因素。在常规的领域中,总是设定所谓的三个9,四个9来进行表示,当没有达到这种 水平的时候,就会有一些列的惩罚措施,而运维,最主要的目标就是达成这种服务水平。
1年 = 365天 = 8760小时 90 = (1-90%)*365=36.5天 99 = 8760 * 1% = 87.6小时 99.9 = 8760 * 0.1% = 8760 * 0.001 = 8.76小时 99.99 = 8760 * 0.0001 = 0.876小时 = 0.876 * 60 = 52.6分钟 99.999 = 8760 * 0.00001 = 0.0876小时 = 0.0876 * 60 = 5.26分钟 99.9999= (1-99.9999%)*365*24*60*60=31秒
-
停机时间又分为两种,一种是计划内停机时间,一种是计划外停机时间,而运维则主要关注计划外的停机时间。
-
-
HPC:High-performance computing,高性能 www.top500.org
分布式系统
主流分布式存储
- Ceph
- GlusterFS
- FastDFS
- MogileFS
分布式计算
- hadoop
- Spark
分布式常见应用
- 分布式应用-服务按照功能拆分,使用微服务
- 分布式静态资源–静态资源放在不同的存储集群上
- 分布式数据和存储–使用key-value缓存系统
- 分布式计算–对特殊业务使用分布式计算,比如Hadoop集群
集群和分布式的介绍与区别
集群:
- 同一个业务系统,部署在多台服务器上。集群中,每一台服务器实现的功能没有差别,数据和代码都是一样的
分布式:
- 一个业务被拆成多个子业务,或者本身就是不同的业务,部署在多台服务器上。分布式中,每一台服务器实现的功能是有差别的,数据和代码也是不一样的,分布式每台服务器功能加起来,才是完整的业务
区别:
- 功能上:
- 集群:是通过提高单位时间内执行的任务数来提升效率;
- 分布式:是以缩短单个任务的执行时间来提升效率的;
- 安全性:
- 集群:以多台服务器完成同一个业务,且需在前面部署负载均衡设备,实现访问IO与设备繁忙的均衡;当一台服务器宕机时,其余的服务器因运行的是同一业务所以可以临时替代;
- 分布式:分布式的每一个节点,都完成不同的业务,如果一个节点垮了,那这个业务可能就会失败;
集群的设计原则
- 可扩展性—集群的横向扩展能力
- 可用性—无故障时间 (SLA service level agreement)
- 性能—访问响应时间
- 容量—单位时间内的最大并发吞吐量(C10K 并发问题)
基础设施层面
- 提升硬件资源性能—从入口防火墙到后端 web server 均使用更高性能的硬件资源
- 多域名—DNS 轮询A记录解析
- 多入口—将A记录解析到多个公网IP入口
- 多机房—同城+异地容灾
- CDN(Content Delivery Network)—基于GSLB(Global Server Load Balance)实现全局负载均衡,如:
DNS
业务层面
- 分层:安全层、负载层、静态层、动态层、缓存层(与非持久化)、存储层(持久化)
- 分割:基于功能分割大业务为小服务
- 分布式:对于特殊场景的业务,使用分布式计算
LB Cluster 负载均衡集群
硬件
- F5 Big-IP
- Citrix Netscaler
- A10
软件
- lvs:Linux Virtual Server,阿里四层 SLB (Server Load Balance)使用
- nginx:支持七层调度,阿里七层SLB使用 Tengine
- haproxy:支持七层调度
- ats:Apache Traffic Server,yahoo捐助给apache
- perlbal:Perl 编写
- pound
基于工作的协议层次划分
传输层(通用):DNAT 和 DPORT
- LVS:
- nginx:stream
- haproxy:mode tcp
应用层(专用):针对特定协议,常称为 proxy server
- http:nginx, httpd, haproxy(mode http), …
- fastcgi:nginx, httpd, …
- mysql:mysql-proxy, mycat…
负载均衡的会话保持
- session sticky:同一用户调度固定服务器
Source IP:LVS sh算法(对某一特定服务而言)
Cookie - session replication:每台服务器拥有全部session
session multicast cluster - session server:专门的session服务器
Memcached,Redis
HA 高可用集群实现
keepalived:vrrp协议
Ais:应用接口规范
heartbeat
cman+rgmanager(RHCS)
coresync_pacemaker
Linux Virtual Server简介
LVS介绍
- LVS:Linux Virtual Server,负载调度器,内核集成,章文嵩(花名 正明), 阿里的四层SLB(Server Load Balance)是基于LVS+keepalived实现
- LVS 是全球最流行的四层负载均衡开源软件,由章文嵩博士(当前阿里云产品技术负责人)在1998年5 月创立,可以实现LINUX平台下的负载均衡。
- LVS 官网:http://www.linuxvirtualserver.org/
阿里SLB和LVS:
https://yq.aliyun.com/articles/1803
https://github.com/alibaba/LVS
整个SLB系统由3个部分构成:四层负载均衡,七层负载均衡和控制系统,如下:
- 四层负载均衡,采用开源软件LVS,并根据云计算需求对其进行了定制化;该技术在阿里爸爸内部业务全面上线应用2年多
- 七层负载均衡,采用开源软件Tengine;
- 控制系统,用户配置和监控负载均衡系统;
LVS工作原理
VS根据请求报文的目标IP和目标协议及端口将其调度转发至某RS,根据调度算法来挑选RS。LVS是内核 级功能,工作在INPUT链的位置,将发往INPUT的流量进行“处理”
#查看内核是否支持LVS
grep -C 10 -i "ipvs" /boot/config-3.10.0-1127.el7.x86_64
# IPVS transport protocol load balancing support
#
CONFIG_IP_VS_PROTO_TCP=y
CONFIG_IP_VS_PROTO_UDP=y
CONFIG_IP_VS_PROTO_AH_ESP=y
CONFIG_IP_VS_PROTO_ESP=y
CONFIG_IP_VS_PROTO_AH=y
CONFIG_IP_VS_PROTO_SCTP=y
#
# IPVS scheduler
#
CONFIG_IP_VS_RR=m
CONFIG_IP_VS_WRR=m
CONFIG_IP_VS_LC=m
CONFIG_IP_VS_WLC=m
CONFIG_IP_VS_FO=m #(4.18内核新增)
CONFIG_IP_VS_OVF=m #(4.18内核新增)
CONFIG_IP_VS_LBLC=m
CONFIG_IP_VS_LBLCR=m
CONFIG_IP_VS_DH=m
CONFIG_IP_VS_SH=m
# CONFIG_IP_VS_MH is not set
CONFIG_IP_VS_SED=m
CONFIG_IP_VS_NQ=m
LVS集群术语与简略访问流程图
简略访问流程
- 访问流程:CIP <–> VIP == DIP <–> RIP
LVS集群术语
- VS:Virtual Server,Director Server(DS), Dispatcher(调度器),Load Balancer
- RS:Real Server(lvs), upstream server(nginx), backend server(haproxy)
- CIP:Client IP VIP:Virtual serve IP VS外网的IP
- DIP:Director IP VS内网的IP
- RIP:Real server IP
LVS集群体系架构特性
LVS 功能及组织架构功能
- 负载均衡的应用场景为高访问量的业务,提高应用程序的可用性和可靠性。
应用于高访问量的业务处理
- 当实际访问量很高时,可以通过新增LVS服务器配置监听规则将流量分发到不同的云服务器 ECS(Elastic Compute Service 弹性计算服务)实例上。此外,可以使用会话保持功能将同一客户端的请求转发到同一台后端 ECS,LVS并发处理可高达百万级;
扩展应用程序
- 以根据业务发展的需要,随时添加和移除ECS实例来扩展应用系统的服务能力,适用于各种Web服务 器和App服务器。
消除单点故障
- 可以在负载均衡实例下添加多台ECS实例。当其中一部分ECS实例发生故障后,负载均衡会自动屏蔽故障 的ECS实例,将请求分发给正常运行的ECS实例,保证应用系统仍能正常工作
同城容灾(多可用区域容灾)
-
为了提供更加稳定可靠的负载均衡服务,阿里云负载均衡已在各地域部署了多可用区以实现同地域容 灾。当主可用区出现机房故障或不可用时,负载均衡仍然有能力在非常短的时间内(如:大约30s中 断)切换到另外一个备可用区恢复服务能力;当主可用区恢复时,负载均衡同样会自动切换到主可用区 提供服务。
-
使用负载均衡时,您可以将负载均衡实例部署在支持多可用区的地域以实现同城容灾。此外,建议您结 合自身的应用需要,综合考虑后端服务器的部署。如果您的每个可用区均至少添加了一台ECS实例,那 么此种部署模式下的负载均衡服务的效率是最高的。
-
如下图所示,在负载均衡实例下绑定不同可用区的ECS实例。正常情况下,用户访问流量将同时转至发 主、备可用区内的ECS实例;当可用区A发生故障时,用户访问流量将只转发至备可用区内的ECS实例。 此种部署既可以避免因为单个可用区的故障而导致对外服务的不可用,也可以通过不同产品间可用区的 选择来降低延迟。
-
如果采取如下图所示的部署方案,即在负载均衡实例的主可用区下绑定多台ECS实例,而在备可用区没 有任何ECS实例。当主可用区发生故障时会造成业务中断,因为备可用区没有ECS实例来接收请求。这样 的部署方式很明显是以牺牲高可用性为代价来获取低延时。
跨地域容灾
- 可以在不同地域下部署负载均衡实例,并分别挂载相应地域内不同可用区的ECS。上层利用云解析做 智能DNS,将域名解析到不同地域的负载均衡实例服务地址下,可实现全局负载均衡。当某个地域出现 不可用时,暂停对应解析即可实现所有用户访问不受影响。如下图:
LVS应用场景
音视频大流量场景
- 对象存储(Object Storage Service,简称OSS),是阿里云对外提供的海量、安全和高可靠的云存储服务
音视频海量流量自动分发
- 音视频应用中由于用户与主播之间需要实时大量的互动,因此,用户的流量非常大,而直播业务的波峰 波谷效应明显,这对整个系统的弹性、稳定性和可用性带来了巨大的挑战
提高横向扩展能力
- 添加或删减负载均衡后端的服务器实时生效,可根据业务流量大小实时增减
抵御海量流量
- 业务发展快,访问流量巨大,负载均衡可对多台云服务器进行流量分发服务
提升应用可用性
- 负载均衡提供后端服务器的健康检查,实时屏蔽异常服务器,提升系统可用性
网络游戏动静分离场景
动静请求分离,快速稳定交付
- 游戏业务有很多图片等静态资源需要加载,通过CDN实现全球用户访问静态资源的加速;当用户在游戏 中有互动时,产生的访问流量非常大,此时为了保证互动实时性,需要使用负载均衡进行流量分发
动态请求流量分发
- 动态请求量大,采用多台云服务器计算处理,并利用负载均衡服务随时进行流量分发
静态请求快速加载
- 静态内容选择对象存储,接入CDN服务,进一步优化内容分发链路,让内容即刻加载
多层次容灾架构场景
跨地域跨可用区的容灾方案
- 用户业务遍布各地域,使用云解析DNS将不同地域用户智能解析访问到相应的业务系统内,使用负载均 衡进行海量的访问流量分发,还可构建地域级、可用区级的多层容灾架构
智能解析
- 智能判断提供最佳的访问解析地址,使访问用户获得最快捷、最流畅的体验
流量分发
- 业务发展快,访问流量巨大,负载均衡可对多台云服务器进行流量分发服务
多层次容灾
- 云解析提供跨地域的高可用,负载均衡可实现可用区级的高可用
LVS 工作模式和相关命令
LVS集群工作模式介绍
- lvs-nat:修改请求报文的目标IP,多目标IP的DNAT
- lvs-dr:操纵封装新的MAC地址
- lvs-tun:在原请求IP报文之外新加一个IP首部
- lvs-fullnat:修改请求报文的源和目标IP(默认内核不支持)
LVS–NAT模式介绍(NAT:网络地址转换)
- SNAT:从内部网络访问外网,目的为将内部的私有网络地址转换为公网网络地址;
- DNAT:从外部网络访问内部网络,目的是将外部网络地址转换为内部网络地址访问应用;
NAT网络访问简略图示
LVS-NAT网络说明
本质是多目标IP的DNAT,通过将请求报文中的目标地址和目标端口修改为某挑出的RS的RIP和 PORT实现转发
- RIP和DIP应在同一个IP网络,且应使用私网地址;RS的网关要指向DIP
- 请求报文和响应报文都必须经由Director转发,Director易于成为系统瓶颈
- 需要开启ip_forward
- 支持端口映射,可修改请求报文的目标PORT
- VS必须是Linux系统,RS可以是任意OS系统
- 数据返回由访问链路返回,单机的LVS主机会成为负载瓶颈
LVS-NAT访问流程说明
LVS-NAT内核工作流程说明
流程说明:
- 客户端访问请求经过路由转发至LVS Server
- 通过VIP访问到LVS Server
- 访问到LVS自带防火墙的PREROUTING链,检查路由表,查看数据报文的目标地址,此时结构为:源地址-CIP,目标地址-VIP
- 路由表匹配成功,此时下发至INPUT链,INPUT链匹配LVS规则(需自己配置)转发报文,并修改报文请求,此时报文结构为:源地址-CIP,目标地址-RIP
- 最终由POSTROUTING链发出报文,到Real Server服务器;
- 返回信息由Real Server通过LVS返回到路由,路由转发到CIP;
- 返回成功
LVS–DR模式介绍(DR:直接路由)
- DR即Direct Routing—直接路由,LVS默认模式,应用最广泛,通过为请求报文重新封装一个MAC首部 进行转发,源MAC是DIP所在的接口的MAC,目标MAC是某挑选出的RS的RIP所在接口的MAC地址;源 IP/PORT,以及目标IP/PORT均保持不变
- LVS模式中效率最高的模式,但不可以跨网段,只修改数据链路层信息,不修改网络层信息
NAT网络访问简略图示
LVS–DR网络说明
-
Director和各RS都配置有VIP
-
确保前端路由器将目标IP为VIP的请求报文发往Director
- 在前端网关做静态绑定VIP和Director的MAC地址(解决IP冲突问题)
- 在RS上使用arptables工具
arptables -A IN -d $VIP -j DROP arptables -A OUT -s $VIP -j mangle --mangle-ip-s $RIP
- 在RS上修改内核参数以限制arp通告及应答级别,关闭免费ARP(检查网络中IP冲突)探测功能(apr_announce)与响应功能(arp_ignore)
/proc/sys/net/ipv4/conf/all/arp_ignore /proc/sys/net/ipv4/conf/all/arp_announce
-
RS的RIP可以使用私网地址,也可以是公网地址;RIP与DIP在同一IP网络;RIP的网关不能指向DIP,以确保响应报文不会经由Director
-
RS与Director必须在同一个网络中,不可以跨网络(因采用arp广播形式,不可跨路由)
-
请求报文要经由Director,但响应报文不经由Director,而由RS直接发往Client
-
不支持端口映射(端口不能修改)
-
无需开启 ip_forward
-
RS可使用大多数OS系统
-
报文变化—修改数据链路层信息(MAC地址)不修改网络层信息
LVS–DR访问流程说明
LVS-NAT内核工作流程说明
流程说明:
- 客户端访问请求经过路由转发至LVS Server
- 通过VIP访问到LVS Server,此时报文结构:源地址-CIP,目标地址-VIP
- 访问到LVS自带防火墙的PREROUTING链,检查路由表,查看数据报文的目标地址,此时结构为:源地址-CIP(路由MAC),目标地址-RIP(VIP-MAC)
- 路由表匹配成功,此时下发至INPUT链,INPUT链匹配LVS规则,修改mac地址信息,并修改报文请求,此时报文结构为:源地址-CIP(DIP-MAC),目标地址-VIP(RIP-MAC)
- 最终由POSTROUTING链发出报文,通过RRP广播找到Real Server服务器,并发送;
- Real Server服务器返回完成信息,此时报文结构为:源地址-VIP(RIP-MAC),目标地址CIP(路由-MAC)
- 路由接收到请求后,修改报文信息,此时报文结构为:源地址-VIP(VIP-MAC),目标地址CIP(路由-MAC)
- 成功返回
LVS–TUN模式介绍(TUN:网络隧道)
- TUN即隧道转发方式:不修改请求报文的IP首部(源IP为CIP,目标IP为VIP),而在原IP报文之外再封装一个IP首部
(源IP是DIP,目标IP是RIP),将报文发往挑选出的目标RS;RS直接响应给客户端(源IP是VIP,目标IP
是CIP)
NAT网络访问简略图示
LVS–TUN网络说明
- RIP和DIP可以不处于同一物理网络中,RS的网关一般不能指向DIP,且RIP可以和公网通信。也就是
说集群节点可以跨互联网实现。DIP, VIP, RIP可以是公网地址 - RealServer的tun接口上需要配置VIP地址,以便接收director转发过来的数据包,以及作为响应的
报文源IP - Director转发给RealServer时需要借助隧道,隧道外层的IP头部的源IP是DIP,目标IP是RIP,而
RealServer响应给客户端的IP头部是根据隧道内层的IP头分析得到的,源IP是VIP,目标IP是CIP - 请求报文要经由Director,但响应不经由Director,响应由RealServer自己完成
- 不修改原始的网络层与传输层信息,只新增报文头部,所以不支持端口映射与端口修改;
- RS的OS须支持隧道功能
LVS–TUN访问流程说明
LVS-TUN内核工作流程说明
流程说明:
- 客户端发送请求经过路由A到达LVS;
- LVS内部由PREROUTING链,检查路由表B,查看数据报文的目标地址,并转发到INPUT链;此时报文结构:CIP、VIP
- INPUT链接收到请求后,根据访问地址,修改报头信息,新增报文头部DIP、RIP(目的);此时报文结构:DIP、RIP、CIP、VIP
- 由PREROUTING链转发到对应的路由B,这时路由根据RIP与VIP的对应关系查询路由表,确认RealServer所在的路由C,转发至对应路由;此时报文结构:DIP、RIP、CIP、VIP
- 此时路由C解开报文,并删除新增的报文头部,核对路由表识别其CIP与VIP的对应关系,转发至对应的RealServer中;
- 最终返回客户端;此时报文结构:CIP、VIP
LVS三种模式应用场景说明
- 一般来说,TUN模式常会用来负载调度缓存服务器组,这些缓存服务器一般放置在不同的网络环境,可以就近折返给客户端。在请求对象不在Cache服务器本地命中的情况下,Cache服务器要向源服务器发送请求,将结果取回,最后将结果返回给用户。
- LAN环境一般多采用DR模式,WAN环境虽然可以用TUN模式,但是一般在WAN环境下,请求转发更多的被haproxy/nginx/DNS等实现。因此,TUN模式实际应用的很少,跨机房的应用一般专线光纤连接或DNS调度
LVS–FULLNAT模式
- LVS的Kernel默认不支持,需要修改LVS的Kernel源代码实现,了解即可
LVS–FULLNAT网络模型
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-wu3FqV8X-1660812585153)(ImageDB/image-20220814225919317.png)]
通过同时修改请求报文的源IP地址和目标IP地址进行转发
CIP --> DIP
VIP --> RIP
fullnat模式特点
- VIP是公网地址,RIP和DIP是私网地址,且通常不在同一IP网络;因此,RIP的网关一般不会指向
DIP - RS收到的请求报文源地址是DIP,因此,只需响应给DIP;但Director还要将其发往Client
- 请求和响应报文都经由Director
- 相对NAT模式,可以更好的实现LVS-RealServer间跨VLAN通讯
- 支持端口映射
LVS工作模式的总结与比较
NAT | TUN | DR | |
---|---|---|---|
Real Server | any(所有类型主机) | 主机需要支持Tunneling | 关闭Kernel参数Non-arp device |
Real server network | private(私有) | LAN/WAN(广域网/局域网) | LAN(局域网) |
Real server number | low (10~20) 所有响应都需要经过LVS,所以数量不可以太多 | High (100) 只有请求报文经过LVS服务器; | High (100) 只有请求报文经过LVS服务器; |
Real server gateway | load balancer | own router | Own router |
优点 | 端口转换 | WAN | 性能最好 |
缺店 | 性能瓶颈 | 要求支持隧道,不支持端口转换 | 不支持跨网段和端口转换 |
lvs-nat与lvs-fullnat:
- 请求和响应报文都经由Director
- lvs-nat:RIP的网关要指向DIP
- lvs-fullnat:RIP和DIP未必在同一IP网络,但要能通信
lvs-dr与lvs-tun:
- 请求报文要经由Director,但响应报文由RS直接发往Client
- lvs-dr:通过封装新的MAC首部实现,通过MAC网络转发
- lvs-tun:通过在原IP报文外封装新IP头实现转发,支持远距离通信
LVS的调度算法
根据ipvs scheduler主要分为两个类型
- 静态方法
- 动态方法
- ipvs scheduler:根据其调度时是否考虑各Real server当前的负载状态
静态算法
- RR:roundrobin,轮询算法;优点:算法简单,分布均匀,计算资源消耗小;缺点:不考虑后端Real Server服务器负载与计算能力,在后端服务器计算能里与负载不均的场景下会产生瓶颈;
- WRR:Weighted RR,加权轮询;RR的升级轮询,按照权重比例分配负载;优点:解决了RR的问题,并增加了对计算资源不均场景下的处理能力;缺点:需要手动指定权重比;
- SH:Source Hashing,实现session sticky,源IP地址hash;将来自于同一个IP地址的请求始终发往 第一次挑中的RS,从而实现会话绑定;缺点:如果有地址转换配置(局域网出口一样),可能会导致部分Real Server服务器负载过大;
- DH:Destination Hashing;目标地址哈希,第一次轮询调度至RS,后续将发往同一个目标地址的 请求始终转发至第一次挑中的RS,典型使用场景是正向代理缓存场景中的负载均衡,如: Web缓存
动态算法
- 主要根据每Real Server当前的负载状态及调度算法进行调度Overhead=value 较小的Real Server将被调度
-
LC:least connections 适用于长连接应用
Overhead=activeconns*256+inactiveconns
-
WLC:Weighted LC,默认调度方法,较常用
Overhead=(activeconns*256+inactiveconns)/weight 数值越小,优先级越高 缺点: 初始连接时,总会发送到权重最低的服务器上;
-
SED:Shortest Expection Delay,初始连接高权重优先,只检查活动连接,而不考虑非活动连接
Overhead=(activeconns+1)*256/weight 数值越小,优先级越高 缺点: 计算权重比时,可能会有部分节点低权重的服务器链接过多,导致负载不均;
-
NQ:Never Queue,第一轮均匀分配,后续SED
-
LBLC:Locality-Based LC,动态的DH算法,使用场景:根据负载状态实现正向代理,实现Web Cache等
-
LBLCR:LBLC with Replication,带复制功能的LBLC,解决LBLC负载不均衡问题,从负载重的复制 到负载轻的RS,实现Web Cache等
FO和OVF调度算法(内核4.15后支持)
- FO(Weighted Fail Over)调度算法
- 遍历虚拟服务所关联的真实服务器链表,找到还未 过载(未设置IP_VS_DEST_F_OVERLOAD标志)的且权重最高的真实服务器,进行调度,属于静态算法
- OVF(Overflow-connection)调度算法
- 基于真实服务器的活动连接数量和权重值实现。将新连接调度 到权重值最高的真实服务器,直到其活动连接数量超过权重值,之后调度到下一个权重值最高的真实服 务器,在此OVF算法中,遍历虚拟服务相关联的真实服务器链表,找到权重值最高的可用真实服务器。,属 于动态算法
- 一个真实服务器需满足以下条件
- 未过载(未设置IP_VS_DEST_F_OVERLOAD标志)
- 真实服务器当前的活动连接数量小于其权重值
- 其权重值不为零
- 一个真实服务器需满足以下条件
- 基于真实服务器的活动连接数量和权重值实现。将新连接调度 到权重值最高的真实服务器,直到其活动连接数量超过权重值,之后调度到下一个权重值最高的真实服 务器,在此OVF算法中,遍历虚拟服务相关联的真实服务器链表,找到权重值最高的可用真实服务器。,属 于动态算法
LVS软件部署
工具包:ipvsadmin
- Unit File: ipvsadm.service
- 主程序:/usr/sbin/ipvsadm
- 规则保存工具:/usr/sbin/ipvsadm-save
- 规则重载工具:/usr/sbin/ipvsadm-restore
- 配置文件:/etc/sysconfig/ipvsadm-config
- ipvs调度规则文件:/etc/sysconfig/ipvsadm
ipvsadmin命令
ipvsadmin核心功能
- 集群服务器节点管理:增加、删除、修改
- 集群服务的Real server管理:增加、删除、修改
- 查看集群信息
命令格式
集群管理:
ipvsadm -A|E -t|u|f service-address [-s scheduler] [-p [timeout]]
Real server管理:
ipvsadm -a|e -t|u|f service-address -r server-address [-g|i|m] [-w weight]
常用选项
- C #清空
- R #重载,相当于ipvsadmin-restore
- S #保存,相当于ipvsadmin-save
- A #新增LVS集群
- t #配合-A使用,表示TCP端口
- u #配合-A使用,表示udp端口
- f #配合-A使用,表示mark,标记,一个数字
- s #配合-A使用,指定集群的调度算法,默认为wlc
- p #配合-A使用,指定连接超时时间
- m #配合-A使用,掩码
- a #添加Real server服务器到LVS集群中
- r #配合-a使用,Real server服务器的IP地址
- g #配合-a使用,DR工作模式
- i #配合-a使用,TUN工作模式
- m #配合-a使用,NAT工作模式
- w #配合-a使用,权重比
命令说明
#管理集群服务
ipvsadm -A|E -t|u|f service-address [-s scheduler] [-p [timeout]] [-M netmask]
[--pe persistence_engine] [-b sched-flags]
ipvsadm -D -t|u|f service-address #删除
ipvsadm –C #清空
ipvsadm –R #重载,相当于ipvsadm-restore
ipvsadm -S [-n] #保存,相当于ipvsadm-save
#管理集群中的RS
ipvsadm -a|e -t|u|f service-address -r server-address [-g|i|m] [-w weight]
ipvsadm -d -t|u|f service-address -r server-address
ipvsadm -L|l [options]
ipvsadm -Z [-t|u|f service-address]
管理集群服务
service-address:
-t|u|f:
-t: TCP协议的端口,VIP:TCP_PORT 如: -t 10.0.0.100:80
-u: UDP协议的端口,VIP:UDP_PORT
-f:firewall MARK,标记,一个数字
[-s scheduler]:指定集群的调度算法,默认为wlc
Real server管理
server-address:
rip[:port] 如省略port,不作端口映射
选项:
lvs类型:
-g: gateway, dr类型,默认
-i: ipip, tun类型
-m: masquerade, nat类型
-w weight:权重
常用路径
-
ipvs规则
/proc/net/ip_vs
-
ipvs连接
/proc/net/ip_vs_conn
-
保存
#建议保存至/etc/sysconfig/ipvsadm ipvsadm-save > /PATH/TO/IPVSADM_FILE ipvsadm -S > /PATH/TO/IPVSADM_FILE systemctl stop ipvsadm.service #会自动保存规则至/etc/sysconfig/ipvsadm
-
重载
ipvsadm-restore < /PATH/FROM/IPVSADM_FILE systemctl start ipvsadm.service #会自动加载/etc/sysconfig/ipvsadm中规则
命令使用范例
管理集群服务
增加
ipvsadm -A -t 10.0.0.100:80 -s wrr
修改
ipvsadm -E -t 10.0.0.100:80 -s wrr
删除
ipvsadm -D -t 10.0.0.100:80
管理Real server
增加
ipvsadm -a -t 10.0.0.100:80 -r 10.0.0.8:8080 -m -w 3
修改
ipvsadm -e -t 10.0.0.100:80 -r 10.0.0.8:8080 -m -w 3
删除
ipvsadm -d -t 10.0.0.100:80 -r 10.0.0.8:8080
通用命令
清空定义的所有内容
ipvsadmin -c
情况计数器
ipvsadm -Z [-t|u|f service-address]
查看集群信息
ipvsadm -L|l [options]
--numeric, -n:以数字形式输出地址和端口号
--exact:扩展信息,精确值
--connection,-c:当前IPVS连接输出
--stats:统计信息
--rate :输出速率信息
防火墙标记
LVS实验案例
1.LVS-NAT实验
实现环境
主机名称 | 功能 | IP地址 | 网络类型 | 网关 | 软件 |
---|---|---|---|---|---|
ClentOS | 客户机 | 192.168.213.190/24 | 仅主机 | 无 | curl |
LVS_Sever | LVS主机 | 192.168.213.121/16 172.168.213.121/24 | 仅主机 NAT | 172.168.213.121 | |
Real server01 | Real server | 172.168.213.122/24 | NAT | 172.168.213.121 | |
Real server02 | Real server | 172.168.213.123/24 | NAT | 172.168.213.121 |
环境图示
操作步骤
#1.配置网络
#2.开启ip_forward
echo net.ipv4.ip_forward = 1 >> /etc/sysctl.conf
sysctl -p
#3.配置LVS集群
ipvsadm -A -t 192.168.213.121:80 -s rr
#4.给LVS集群增加Real server
ipvsadm -a -t 192.168.213.121:80 -r 172.168.213.122:80 -m
ipvsadm -a -t 192.168.213.121:80 -r 172.168.213.123:80 -m
#5.保存规则
ipvsadm -Sn > /etc/sysconfig/ipvsadm
#6.启动服务
systemctl enable --now ipvsadm.service
一键部署-shell
#!/bin/bash
source /etc/init.d/functions
#申明数组
declare -A LVS_nat
#网卡名称
LVS_nat=( [eth0]="172.168.213.122" [eth1]="192.168.213.122" )
Real_Server=( [0]="192.168.213.123" [1]="192.168.213.124" )
Server_port=80
#NAT架构,支持模式:rr,wrr,sh,dh
lvs_mod=rr
#LVS配置
function conf_lvs ()
{
#软件安装
if ! rpm -qa |grep -q -i ipvsadm ;then
yum -q -y install ipvsadm || { action "仓库不可用";exit; }
fi
#新增/修改IP
for i in ${!LVS_nat[*]};do
if nmcli con show |grep -q "$i";then
nmcli con modify "$i" ipv4.add "${LVS_nat[$i]}"/24 gw4 "${LVS_nat[$i]}" ipv4.method manual
nmcli con up "$i"
else
nmcli con add ifname "$i" con-name "$i" ipv4.add "${LVS_nat[$i]}"/24 gw4 "${LVS_nat[$i]}" ipv4.method manual type ethernet
nmcli con up "$i"
fi
done
#开启路由转发
sysctl -p |grep -q "net.ipv4.ip_forward = 1" || echo net.ipv4.ip_forward = 1 >> /etc/sysctl.conf
#创建lvs集群
ipvsadm -A -t "${LVS_nat[eth0]}":"$Server_port" -s "$lvs_mod"
#添加Read Server
for ((i=0;i<${#Real_Server[@]};i++));do
ipvsadm -a -t "${LVS_nat[eth0]}":"$Server_port" -r "${Real_Server[$i]}" -m
done
#保存规则
ipvsadm -Sn > /etc/sysconfig/ipvsadm
#启动服务
systemctl enable --now ipvsadm.service &> /dev/null
systemctl start ipvsadm.service && action "LVS服务启动"
}
#Read Server配置
function conf_ReadServer()
{
c=0
for ((i=0;i<${#Real_Server[@]};i++));do
(( c++ ))
read -r -s -p"请输入密码Real_Server0$c:" PASSWD
sshpass -p "$PASSWD" ssh "${Real_Server[$i]}" "
nmcli con modify eth0 ipv4.add ${Real_Server[$i]}/24 gw4 ${LVS_nat[eth1]};
nmcli con up eth0
yum -q -y install httpd && systemctl enable --now httpd;
hostname -I >> /var/www/index.html;
"
done
}
conf_lvs
conf_ReadServer
2.LVS-DR(单网段)实验
实验环境
主机名称 | 功能 | IP地址 | 网络类型 | 网关 | 软件 |
---|---|---|---|---|---|
ClentOS | 客户机 | 172.168.213.120/24 | 仅主机 | 172.168.213.124 | curl |
Route | 路由器 | 172.168.213.124/16 192.168.213.124 | 仅主机 NAT | 172.168.213.124 | |
LVS_Sever | LVS主机 | 172.168.213.190 192.168.213.121/24 | NAT | 172.168.213.124 | |
Real server01 | Real server | 192.168.213.122/24 | NAT | 192.168.213.124 | |
Real server02 | Real server | 192.168.213.123/24 | NAT | 192.168.213.124 |
简略图示
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-0cHvkda5-1661437782705)(ImageDB/image-20220822220739034.png)]
操作步骤
-
步骤一:部署客户机和路由器
#客户端主机配置网络 nmcli con modify eth0 ipv4.add 172.168.213.190/24 gw4 172.168.213.124 yum -y install curl #安装软件 #路由器配置网络 echo 'net.ipv4.ip_forward=1' >> /etc/sysctl.conf #开启转发功能 sysctl -p nmcli con modify eth0 ipv4.add 172.168.213.124/24 #外网 nmcli con modify eth1 ipv4.add 192.168.213.124/24 #内网 nmcli con up eth0 nmcli con up eth1
-
步骤二:部署Real server
#关闭Real server服务器的arp功能 echo 1 >/proc/sys/net/ipv4/conf/all/arp_ignore #关闭总的arp echo 1 >/proc/sys/net/ipv4/conf/lo/arp_ignore #关闭lo网卡的arp echo 2 >/proc/sys/net/ipv4/conf/all/arp_announce echo 2 >/proc/sys/net/ipv4/conf/lo/arp_announce #配置lo网卡的IP地址 ifconfig lo:1 172.168.213.121/32 #添加VIP #配置IP nmcli con modify eth0 pv4.add 192.168.213.123/24 gw4 172.168.213.124 nmcli con modify eth0 pv4.add 192.168.213.124/24 gw4 172.168.213.124
-
步骤三:部署LVS
#安装软件 yum -y install ipvsadm #配置IP nmcli con modify eth0 ipv4.add 192.168.213.122/24 gw4 172.168.213.124 #部署LVS主机 ifconfig lo:1 172.168.213.121/32 #添加VIP #创建LVS集群 ipvsadm -A -t 172.168.213.121:80 -s rr #添加Real Server主机 ipvsadm -a -t 172.168.213.121:80 -r 172.168.213.123:80 -g ipvsadm -a -t 172.168.213.121:80 -r 172.168.213.124:80 -g #保存规则 ipvsadm -Sn > /etc/sysconfig/ipvsadm #开启服务 systemctl enable --now ipvsadm.service
一键部署-shell
#!/bin/bash
source /etc/init.d/functions
declare -A LVS_IP
#控制IP
LVS_Cont=192.168.213.121
Route_Cont=192.168.213.124
Real_Server_Cont=( [0]=192.168.213.123 [1]=192.168.213.124 )
#服务IP
Routre_IP=( [0]=172.168.213.124 [1]=10.1.1.124 )
LVS_IP=( [VIP]=172.168.213.121 [DIP]=10.1.1.122 )
Real_Server=( [0]=10.1.1.123 [1]=10.1.1.124 )
Net_Url=/etc/sysconfig/network-scripts
Prefix=24
#DR架构,支持模式:rr,wrr,sh,wcl
lvs_mod=wrr
Weight=3
#远端网卡名称
function RS_Nat()
{
sshpass -p "redhat" ssh "${Real_Server_Cont[0]}" ifconfig | sed -rn 's/^(.*):[[:space:]]+.*/\1/p'
}
function Router_Nat()
{
sshpass -p "redhat" ssh "$Route_Cont" ifconfig | sed -rn 's/^(.*):[[:space:]]+.*/\1/p'
}
#LVS网卡名称
function LVS_Nat()
{
shpass -p "redhat" ssh "$LVS_Cont" ifconfig | sed -rn "s/^(.*):[[:space:]]+.*/\1/p"
}
#关闭Real_Server服务器内核arp功能
function touch_arp_on_off()
{
echo "
function arp_on_off()
{
case $arp in
off)
echo 1 >/proc/sys/net/ipv4/conf/all/arp_ignore #关闭总的arp
echo 1 >/proc/sys/net/ipv4/conf/lo/arp_ignore #关闭lo网卡的arp
echo 2 >/proc/sys/net/ipv4/conf/all/arp_announce
echo 2 >/proc/sys/net/ipv4/conf/lo/arp_announce
;;
on)
echo 0 >/proc/sys/net/ipv4/conf/all/arp_ignore
echo 0 >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo 0 >/proc/sys/net/ipv4/conf/all/arp_announce
echo 0 >/proc/sys/net/ipv4/conf/lo/arp_announce
;;
*)
acttion "Warning:Unsupported input" false
return
;;
esac
}
arp_on_off" > /root/arp.sh
sed -ri "/^$/d" /root/arp.sh
}
#安装Router
function Deploy_Router()
{
#网络配置,只是用前两张网卡
c=0
for i in $(Route_Nat|head -2);do
sshpass -p "redhat" ssh -n "$Route_Cont" "
nmcli con modify $i ipv4.add ${Routre_IP[$c]}/$Prefix;
cp -p $Net_Url-ifcfg-$i $Net_Url/ifcfg-$i.bak;
sed -ri 's/^GATEWAY=.*//g' $Net_Url/ifcfg-$i;
nmcli con reload $i;
systemctl restart network.service && actoin "Configuring Route Node";
sysctl -p |grep -q 'net.ipv4.ip_forward = 1' || echo 'net.ipv4.ip_forward = 1' >> /etc/sysctl.conf;
"
(( c++ ))
done
}
#安装LVS节点
function Deploy_LVServer()
{
#软件ipvsadm安装
ssh -p "redhat" ssh -n "$LVS_Cont" "yum -q -y install ipvsadm"
#IP配置:这里只取第一张网卡,配置DIP
for i in $(LVS_Nat|head -1);do
sshpass -p "redhat" ssh -n "$LVS_Cont" "
cp -p $Net_Url-ifcfg-$i $Net_Url-ifcfg-$i.bak
nmcli con modify $i ipv4.add ${LVS_IP[DIP]}/$Prefix gw4 ${Routre_IP[1]}
nmcli con restart $i
"
done
#配置VIP,并保存
ssh -p "redhat" ssh -n "$LVS_Cont" "
ifconfig lo:1 ${LVS_IP[VIP]}/32
echo \"ifconfig lo:1 ${LVS_IP[VIP]}/32\" >> /etc/rc.d/rc.local"
#创建LV Server集群
ipvsadm -A -t :80 "${LVS_IP[DIP]}" -s $lvs_mod
for ((i=0;i<${#Real_Server[@]};i++));do
ssh -p "redhat" ssh -n "$LVS_Cont" "
ipvsadm -a -t ${LVS_IP[DIP]}:80 -r ${Real_Server[$i]}:80 -g -w $Weight
"
done
#保存,并启动服务
ssh -p "redhat" ssh -n "$LVS_Cont" "
ipvsadm -Sn > /etc/sysconfig/ipvsadm
systemctl enable --now ipvsadm.service || systemctl restart ipvsadm.service"
}
#安装Read Server
function Deploy_RS()
{
arp=no
touch_arp_on_off
for ((i=0;i<${#Real_Server_Cont[@]};i++));do
sshpass "redhat" ssh "${Real_Server_Cont[$i]}" "
ifconfig lo:1 ${LVS_IP[VIP]}/32
echo \"ifconfig lo:1 ${LVS_IP[VIP]}/32\" >> /etc/rc.d/rc.local
bash" < /root/arp.sh
done
}
RS_Nat
Router_Nat
LVS_Nat
touch_arp_on_off
Deploy_Router
Deploy_LVServer
Deploy_RS